Tecnologías de reconocimiento de emociones
“No podemos hablar de beneficios”
¿Qué implica que las computadoras reconozcan y decodifiquen las emociones? Entrevista con Alexa Hagerty, investigadora en temas éticos en inteligencia artificial de la Universidad de Cambridge.
Sra. Hagerty, junto con un grupo de científicos, usted desarrolló el sitio web Emojify.info, que ha recibido muchos comentarios positivos. ¿Cuáles son los objetivos del sitio web?
Desarrollamos "Emojify" para involucrar al público en la experiencia de los límites e implicaciones de las tecnologías de reconocimiento de emociones (ERT) a través de animación, serious games y preguntas. Demuestra cómo las computadoras pueden escanear expresiones faciales para identificar y decodificar emociones. Nuestro equipo de investigación quiso investigar la comprensión pública y las opiniones hacia las ERT y provocar una conversación pública más reflexiva sobre los posibles impactos sociales.
¿Cómo funciona el sitio web?
Brinda a los jugadores la experiencia práctica de interactuar con una ERT, enmarcada en torno a la pregunta: “¿La tecnología de reconocimiento de emociones te está ‘emojificando’?” El primer juego 'Wink/Blink' (Guiñar/Parpadear) muestra imágenes de guiños o parpadeos y pide a los jugadores que adivinen cuál es cuál, demostrando así que un modelo de ERT no puede hacer lo mismo, porque no puede entender la información contextual que diferencia a los dos. ‘Fake Smile’, otra característica, hace que los jugadores engañen al modelo moviéndose rápidamente a través de diferentes expresiones faciales, mostrando así que las expresiones externas no son necesariamente una expresión del estado emocional interno. Después de jugar, a los usuarios se les hacen preguntas para medir su nueva comprensión de las ERT.
¿Cuáles son los riesgos de las ERT?
Con respecto al sesgo racial, un estudio ha demostrado que los sistemas leen consistentemente las caras de las personas negras como más enojadas que las de las personas blancas, independientemente de la expresión de la persona. Las ERT, como todas las formas de reconocimiento facial basado en IA, son propensas al sesgo, la discriminación y la identificación errónea cuando se trata de personas que difieren de una supuesta norma de apariencia masculina europea blanca.
Sin embargo, las ERT también se basan en una teoría, articulada por primera vez por el psicólogo Paul Ekman en la década de 1960, de que las emociones humanas son biológicas, en lugar de distinguir entre culturas. Se supone que hay seis emociones fundamentales: alegría, tristeza, miedo, ira, sorpresa y asco, que no sólo se experimentan universalmente, sino que también se expresan en expresiones faciales universalmente consistentes. Esta teoría simplista ha sido cada vez más cuestionada (si no es que directamente desacreditada) en los últimos años, pero eso no ha detenido la ola de ERT de compañías como Microsoft, IBM y Amazon, que afirman identificar con precisión esas expresiones universales.
“Es una comprensión reduccionista de las emociones humanas”, argumenta el antropólogo Igor Rubinov, quien dirigió el desarrollo del sitio web. Su aplicación en el mundo real debe administrarse con mucho cuidado, afirma, si no es que detenerse indefinidamente, mientras que no se discuta ampliamente al respecto. ¿Qué se debería hacer para reducir el impacto negativo de las ERT?
La ciencia debe supervisar esta tecnología, se le debe someter a un sólido control desde la perspectiva de los derechos humanos y la política debe regularla. Además, algunos de sus usos (posiblemente, todos) deberían prohibirse, porque son por principio incompatibles con los derechos humanos.
¿La ERT presenta algún beneficio, en general?
No podemos hablar de beneficios cuando una tecnología es fundamentalmente defectuosa y discriminatoria y aún no está debidamente regulada.
¿Dónde se utilizan las ERT?
Muchas empresas utilizan las ERT para probar las reacciones de los clientes a sus productos. También se les puede usar en situaciones como la contratación o la pueden aplican fuerzas de seguridad en los aeropuertos para reconocer caras que supuestamente muestran engaño o miedo, en el control fronterizo, en la policía para identificar a “personas peligrosas” o en la educación para monitorear el compromiso de los estudiantes con sus tareas.
¿Qué empresas son las que más utilizan ERT?
Esto no es de conocimiento público. En su mayor parte, no sabemos dónde y cómo se están utilizando estas tecnologías. Se utilizan en gran medida sin conocimiento público o sin consentimiento, a menudo se les “incorpora” a otras formas de tecnología biométrica, como los sistemas de reconocimiento facial. Sin embargo, como parte de nuestra investigación, pudimos descubrir algunos usos actuales, que se pueden encontrar en emojify.info/resources.
Alexa Hagerty es una de las ponentes del festival “When Machines Dream the Future – A Hybrid Festival on Living With Artificial Intelligence”, en Dresde.
Del 12 al 14 de noviembre de 2021
Deutsches Hygiene-Museum, Dresde
y en línea