Tu ordenador sabrá si estás triste

Varias startups desarrollan algoritmos que ya son capaces de detectar las emociones de los usuarios de dispositivos electrónicos.

Portátiles y smartphones son nuestros compañeros constantes. Ante ellos nos quitamos la careta, no fingimos, somos lo que somos. Es una pena que ellos no puedan estar a la altura (de momento). Porque, por muchas horas que pases con tu laptop, él es incapaz de adivinar si estás triste y no puede reaccionar en consecuencia. 

Los expertos han buscado un inesperado giro al asunto: incorporar las emociones al mundo de las interacciones digitales. La señal definitiva es el destino que han dado últimamente a sus dineros algunos capitalistas de Sand Hill Road, esa colina próxima a la Universidad de Stanford donde se concentran los que invierten en el futuro que tú ni siquiera imaginas. Pues bien, estos prohombres han decidido invertir por primera vez en startups de nombres tiernos. A saber:  Affectiva, eMotion, Realeyes, Sension o Emotient

El reto lo introdujo, en 1995, Rosalind Picard, profesora del Instituto Tecnológico de Massachusetts (MIT), y entonces fue tratada con sarcasmo por sugerir que, para conseguir que una máquina fuera verdaderamente inteligente, había que dotarla de respuesta emocional. “Los programadores deben considerar la perspectiva del afecto al crear un software destinado a interactuar con humanos”, escribió. Picard ha sido la inspiración para muchos investigadores, como la egipcia Rana el Kaliouby, quien, con su colaboración, ha creado el algoritmo Affdex, capaz de identificar la expresión de diferentes emociones a partir de rasgos faciales. 

Affectiva, que salió del proyecto del MIT, es el origen de Affdex y, como casi todas las empresas centradas en las emociones, utiliza las investigaciones del psicólogo Paul Ekman, quien por cierto ha fichado por la competencia, la startup Emotient, creada por Marian Bartlett, profesora de la Universidad de California.

Ekman empezó sus investigaciones de las emociones humanas en los 60, y consiguió crear un cuerpo sólido de evidencias que demuestran que es posible identificar seis emociones humanas a partir de la expresión facial, porque sus rasgos son casi idénticos, independientemente del género, la edad o el contexto cultural. Así creó una especie de enciclopedia de quinientas páginas que compila todos los movimientos faciales posibles y que se conoce como el Facial Action Coding System.

A partir de esa información, con el uso de un algoritmo concreto y técnicas de aprendizaje automático, se ha conseguido que una máquina sea capaz de diferenciar una sonrisa auténtica de una social –pensada para agradar– o el dolor fingido del real. Una línea, un entrecejo demasiado fruncido o la tensión marcada en un músculo pueden servir para distinguir una emoción de otra. Los creadores de Affdex aseguran que su precisión para interpretar un entrecejo se acerca al 90 %.

Según El Kaliouby, conseguir que una máquina lea estos cambios es difícil, porque son rápidos y combinados entre sí. Para enseñar a un ordenador a diferenciar una sonrisa genuina de una falsa se introducen en el programa decenas de miles de caras de sonrisas reales de diferentes edades, etnias y géneros, y la misma cantidad de sonrisas sociales. Mediante el aprendizaje automático o  machine learning, el algoritmo identifica las líneas, los pliegues y los cambios musculares faciales propios de ambas maneras de sonreír.  

Más información sobre el tema en reportaje ¡Sé cómo te sientes!, escrito por Karelia Vázquez. Puedes leerlo en el número 419 de Muy Interesante. 

Si quieres conseguir este ejemplar, solicítalo a suscripciones@gyj.es o descárgatelo a través de la aplicación de iPad en la App Store. También puedes comprarlo a través de Zinio o de Kiosko y Más.

Y si deseas recibir cada mes la revista Muy Interesante en tu buzón, entra en nuestro espacio de Suscripciones.

Etiquetas: emocionestecnología

Continúa leyendo

CONTENIDOS SIMILARES

COMENTARIOS

También te puede interesar