Llegan las máquinas que detectan emociones

En un futuro cercano, muchos dispositivos podrán conocer cómo nos sentimos; los ordenadores se convertirán así en uno de nuestros más íntimos amigos.

"Los programadores deben considerar la perspectiva del afecto al crear un software destinado a interactuar con humanos"

Los expertos, hartos de advertir de la relativa deshumanización que subyace tras los amigos y amantes digitales, han buscado un inesperado giro al asunto: devolver las emociones al mundo de las interacciones digitales. Y el único modo de hacerlo es enseñar a las máquinas a interpretar las emociones y a reaccionar de un modo parecido a cómo lo haría un ser humano.

La señal definitiva es el destino que han dado últimamente a sus dineros algunos capitalistas de Sand Hill Road, esa colina próxima a la Universidad de Stanford donde se concentran los que invierten en el futuro que tú ni siquiera imaginas. Pues bien, estos prohombres han decidido invertir por primera vez en startups de nombres tiernos. A saber: Affectiva, eMotion, Realeyes, Sension o Emotient.

El tema lo introdujo, en 1995, Rosalind Picard, profesora del Instituto Tecnológico de Massachusetts (MIT), y entonces fue tratada con sarcasmo por sugerir que, para conseguir que una máquina fuera verdaderamente inteligente, había que dotarla de respuesta emocional. "Los programadores deben considerar la perspectiva del afecto al crear un software destinado a interactuar con humanos", escribió. Luego amplió su teoría en el libro Affective Computing (Informática afectiva). Y, sin pretenderlo, bautizó un nuevo campo en las ciencias de la computación. Picard ha sido la inspiración para muchos investigadores, como la egipcia Rana el Kaliouby, quien, con su colaboración, ha creado el algoritmo Affdex, capaz de identificar la expresión de diferentes emociones a partir de rasgos faciales.

Affectiva, que salió del proyecto del MIT, es el origen de Affdex y, como casi todas las empresas centradas en las emociones, utiliza las investigaciones del psicólogo Paul Ekman, quien por cierto ha fichado por la competencia, la startup Emotient, creada por Marian Bartlett, profesora de la Universidad de California.

Los softwares de analítica de las emociones no tienen una tarea fácil por delante. Hasta ahora nada ha superado al ojo humano para detectar la falsedad y la impostura en las caras de nuestros semejantes. Los ordenadores nos superan en lógica, pero no en tareas de percepción, como el reconocimiento de la voz o la identificación de los objetos. Según confirma Bartlett, "los procesos de percepción son fáciles para los humanos y difíciles para las máquinas". Sin embargo, en su laboratorio de San Diego, esta experta en aprendizaje automático de máquinas ha conseguido que los ordenadores superen a los humanos a la hora de detectar falsas expresiones de dolor. Cierto que lo ha logrado en el ámbito controlado de un laboratorio y no en el confuso mundo real, pero es un primer paso.

El sistema de Bartlett también se basa en el Facial Action Coding System de Ekman, que subdivide las expresiones faciales en movimientos –fruncido de nariz, temblor de párpado, etcétera– que implican a uno o a varios músculos de la cara.

El equipo de Emotient ha trabajo durante años para crear un sistema visual que automatice esa suerte de enciclopedia de los movimientos faciales y ha desarrollado otro algoritmo capaz de reconocer los patrones faciales que corresponden a cada emoción.

En el experimento en cuestión se reclutaron a veinticinco voluntarios, que fueron grabados en dos vídeos. En uno de ellos se filmaba su cara mientras soportaban un dolor real (tenían un brazo sumergido en un cubo de hielo durante un minuto). En el segundo se capturaba su rostro fingiendo que algo les dolía (esta vez su brazo flotaba en una agradable agua templada). Ambas versiones fueron mostradas a 170 personas, quienes después de verlas varias veces cometieron muchos errores, y solo acertaron con poco más de la mitad. En cambio, el sistema informático detectó el dolor fingido con una precisión del 85 %. Los resultados fueron publicados en la revista Current Biology.

Paul Saffo, un prestigioso analista y futurólogo, pronostica desde sus clases de la Universidad de Stanford que la tecnología de lectura facial podría combinarse con programas que tuvieran otros modos complementarios de reconocimiento de las emociones, tales como los softwares que analizan las voces humanas. “Si los ordenadores alcanzan el punto en el que puedan combinar los códigos faciales, los sensores de voz y el rastreo de la gestualidad y las miradas, interactuaremos con nuestras máquinas en un modo más natural y menos forzado”, asegura Saffo. ¿Te imaginas que una tarde cuando pidieras a Siri –la aplicación de asistente personal– que te busque la cartelera de cine, ella detectara por tu voz que estás triste y solo te leyera las películas que te vienen bien? Según el criterio de Siri, claro. Pues algo parecido intentan hacer los creativos de publicidad con lo que llaman publicidad inteligente.

Lo que no le parece justo a El Kaliouby es que pasemos todo el día colgados de dispositivos que pasan de nosotros. Ella lo vivió en primera persona cuando consiguió una beca en Cambridge y tuvo que separarse de su familia. “Estaba todas las noches en Skype, en el email, mandando mensajes desde un teléfono o un ordenador que no tenía ni idea de lo sola que me sentía”, cuenta. De ahí surgió la idea de dotar a la tecnología con al menos una pizca de emoción. "Cada vez que coges el teléfono, hay un pulso emocional, sobre todo si estás esperando algo. En nuestras investigaciones hemos visto que la gente revisa sus móviles entre diez y doce veces por hora. Es una pena que no podamos entendernos del todo con ellos".

Quizá llegue el luminoso día en que tu teléfono sea tan inteligente que te impida mandar a tu ex ese wasap noctámbulo y asilvestrado antes de que te arrepientas para siempre. El teléfono detectará en tu cara que no estás teniendo un buen día. Lo verá en tu entrecejo, o tal vez en el temblor del párpado derecho que aparece cuando estás estresado. Leerá en la línea de la comisura de tu labio superior que te sientes ofuscado. Y punto. Ese wasap se autodestruirá en 3, 2, 1, 0.

Imágenes: Aldebaran Robotics

Etiquetas: emocionesrobóticatecnología

Continúa leyendo

CONTENIDOS SIMILARES

COMENTARIOS