Las máquinas ahora pueden determinar la ira, el miedo, el asco y la tristeza. El reconocimiento de emociones ha crecido de un proyecto de laboratorio de $ 20 mil millones a una industria. ¿Cuáles son sus pros y sus contras?
¿Puede el programa identificar terroristas potenciales por sus expresiones faciales y comportamiento? Esta hipótesis fue probada en 2003 por la Administración de Seguridad del Transporte de EE. UU. (TSA) como parte de su nuevo programa de vigilancia SPOT.
Durante el desarrollo del programa, consultó a Paul Eckmann, profesor de psicología en la Universidad de California, quien una vez desarrolló su propia teoría del reconocimiento de emociones por expresión facial.
El programa se lanzó en 2007, pero estaba lleno de problemas. La policía eligió pasajeros para interrogarlos por accidente, y algunos arrestos no estuvieron relacionados con el terrorismo.
Eckmann trató de justificarse y declaró que su metodología había sido mal utilizada. Otros, sin embargo, sugirieron que el fracaso del programa se debió a la teoría científica obsoleta que subyace en el método de Eckmann: que las emociones podrían determinarse por análisis facial.
En los últimos años, las compañías de tecnología han comenzado a usar el método de Eckmann nuevamente para enseñar algoritmos para identificar emociones por mimetismo. Algunos desarrolladores afirman que los sistemas automáticos funcionarán mucho mejor que los humanos. Sin embargo, muchos expertos que estudian la ciencia de la emoción están preocupados de que estos algoritmos vuelvan a fallar.
Tu cara: una industria valorada en $ 20 mil millones
Se necesitan dos técnicas para la nueva tecnología: visión por computadora para determinar con precisión la expresión facial y algoritmos de aprendizaje automático para analizar el contenido emocional.
Como regla general, el segundo paso se basa en la técnica de aprendizaje controlado, el proceso mediante el cual el algoritmo aprende a reconocer cosas que ha visto antes. La idea es que si muestra el algoritmo de mil imágenes de caras felices con la etiqueta "felicidad", cuando vea una nueva imagen de una cara feliz, se clasificará como "felicidad".
La Dra. Rana El Calliobay, científica en computación, fue la primera en experimentar con este enfoque. Durante sus estudios universitarios, desarrolló un dispositivo para ayudar a los niños con síndrome de Asperger a leer y responder a las expresiones faciales.
En 2006, junto con la directora del Laboratorio de Computación Emocional del MIT, Rosalind Picard, comenzó a trabajar para mejorar la tecnología. En 2009, fundaron la startup Affectiva, la primera empresa en introducir "inteligencia emocional artificial" en el mercado.
La tecnología de reconocimiento de emociones ahora también se está utilizando para controlar los controladores, los videojuegos de prueba UX y ayudar a los médicos a evaluar el bienestar de los pacientes.
Por el momento, la industria se estima en $ 20 mil millones, y el crecimiento solo continuará.
Base de datos de 7,5 millones de personas de 87 países.
El progreso en la tecnología de reconocimiento de emociones depende del acceso a más datos de calidad.
Según el sitio web de Affectiva, tienen el depósito de datos de emociones más grande del mundo: alrededor de 7,5 millones de personas en 87 países. Se clasifican en 35 categorías. Los empleados de Affectiva miran las imágenes y traducen las expresiones faciales en sus respectivas emociones: si ven cejas fruncidas, labios apretados y ojos convexos en la imagen, la clasifican como "ira". Los datos ordenados se utilizan para enseñar el algoritmo Affectiva.
Este método de clasificación es el estándar de oro para evaluar los sentimientos; se basa en el sistema Emfacs que desarrollaron Paul Eckmann y Wallace W. Frissen en la década de 1980.
Las raíces científicas del sistema se remontan a la década de 1960, cuando Eckmann y sus dos colegas asumieron que hay seis emociones universales (ira, asco, miedo, felicidad, tristeza y sorpresa) que se remontan a cualquier cultura analizando el movimiento. de músculos en la cara.
Con base en estos hallazgos, durante los siguientes veinte años, Eckmann intentó desarrollar su propio método para reconocer las emociones. La premisa fundamental era que si una persona tuviera una de estas emociones universales, su rostro mostraría automáticamente el movimiento muscular correspondiente. Incluso si estaba tratando de ocultar sus emociones, el verdadero sentimiento instintivo seguía goteando, y un profesional capacitado podía determinar qué estaba sintiendo la persona en ese momento.
En la segunda mitad del siglo XX, esta teoría se hizo dominante. Eckmann comenzó a vender su metodología a la CIA, el FBI, la Aduana y Protección Fronteriza de los EE. UU. Y la Administración de Seguridad del Transporte.
Sin embargo, muchos científicos y psicólogos que estudian la naturaleza de las emociones cuestionan la teoría y los métodos clásicos de Eckmann asociados con ella.
La profesora de psicología de la Universidad del Nordeste, Lisa Feldman Barrett, fue particularmente crítica con la teoría. En sus años de estudiante, notó que la metodología subyacente en la investigación de Eckmann era errónea: al proporcionar a las personas categorías predefinidas de emociones, Eckmann involuntariamente los "preparó" para que les dieran ciertas respuestas.
Junto con un grupo de colegas, probó la hipótesis de Eckmann; esta vez no les dio a los participantes una lista de categorías preparadas, lo que les permitió describir libremente sus sentimientos y sentimientos en la imagen. La correlación entre ciertas expresiones faciales y emociones cayó bruscamente.
Desde entonces, Barrett ha desarrollado su propia teoría. Según la teoría, no hay emociones universales en el cerebro causadas por estímulos externos.
Barrett cree que no tiene sentido vincular ciertas expresiones faciales con emociones específicas en todas las culturas y contextos. Mientras que una persona puede fruncir el ceño con ira, la otra puede sonreír y hacer un plan insidioso de venganza. Por esta razón, la evaluación de las emociones se entiende mejor como una práctica dinámica, que incluye procesos cognitivos automáticos, interacción entre personas y competencia cultural. “Este es un trabajo muy grande. Las emociones son algo difícil ”, dice ella.
Kalioubai está de acuerdo en que las emociones son realmente cosas muy complejas, por lo que su equipo en Affectiva mejora constantemente la riqueza y la complejidad de sus datos. Utilizan video en lugar de fotos para enseñar algoritmos, y también experimentan con más datos contextuales como la voz y la entonación. Ella confía en que mejores datos conducirán a resultados más precisos.
Según Meredith Whittaker, directora del Instituto de Investigación AI Now, el desarrollo de algoritmos de aprendizaje automático basados en la metodología obsoleta de Eckmann puede causar graves daños sociales.
Kalioubai lo sabe y se toma muy en serio la ética de su trabajo. "Es muy importante tener un diálogo con el público sobre cómo funciona todo, dónde se puede aplicar y dónde no se puede hacer", explicó.
Kaliobai también comprende la importancia de crear una variedad de conjuntos de datos. "Nuestra base de datos contiene imágenes de caucásicos, asiáticos, personas con tonos de piel más oscuros e incluso personas en el hijab", dijo. Es por eso que Affectiva recopila datos de 87 países.
Así es como Affectiva notó que la expresión de las emociones difiere de un país a otro en términos de intensidad y otros matices. Los brasileños, por ejemplo, sonríen más ampliamente y durante más tiempo expresan felicidad, y las sonrisas japonesas son un signo de cortesía, no de felicidad.
Entonces Affectiva agregó otra capa de análisis al sistema, recolectando los llamados estándares éticos o supuestos codificados sobre cómo se expresa la emoción en diferentes culturas étnicas.
Pero es este tipo de juicio algorítmico, basado en atributos como la afiliación ética, lo que preocupa a Whittaker. Las compañías ya ofrecen predicciones de la probabilidad de que una persona se convierta en terrorista o pedófilo, y algunos investigadores afirman haber creado algoritmos que pueden determinar la orientación sexual de una persona por su cara.
Además, muchos estudios han demostrado que las tecnologías de reconocimiento facial están sesgadas contra ciertas minorías étnicas. Uno de estos estudios, publicado en diciembre, mostró que la tecnología de detección de emociones atribuye más emociones negativas a las personas negras.
En respuesta, Kalioubai dijo que Affectiva tiene un "clasificador de etnia", pero que actualmente no se usa. En cambio, confían en la geografía, es decir, comparan las sonrisas brasileñas con las sonrisas brasileñas y las sonrisas japonesas con las japonesas.
"Pero si un japonés vive en Brasil, ¿no lo consideraría el sistema brasileño y se perdería el matiz de una sonrisa educada? – Preguntó el periodista Guardian.
"En esta etapa, la tecnología no es 100% confiable", dijo.