El software que cala tus emociones

Un programa desarrollado por la Universidad de Rochester (Nueva York) supera la habilidad de los humanos para identificar sentimientos en las palabras de otros.

Llevamos años escuchándolo: el desarrollo de la inteligencia artificial (IA) producirá robots autónomos que serán nuestros esclavos y, tal vez, acabarán desbancándonos de nuestro lugar como “reyes de la creación” si se cumplen los temores de la ciencia ficción y algunos expertos en robótica. Pero mientras llega esa nueva era, que no parece tan cercana como algunos pregonan, los especialistas van dando pequeños pasos que acortan la distancia entre máquinas y humanos.

 

El New Scientist se ha hecho eco del trabajo de Na Yang y Emre Eskimez, dos graduados de la Universidad de Rochester (Nueva York) que han creado un software que no solo capta las emociones más o menos ocultas en las palabras de las personas, sino que lo hace mejor que los propios humanos, algo que se ha conseguido por vez primera. La psicóloga Melissa Sturge-Apple, también de la Universidad de Rochester, pretende usar esta herramienta para comprender mejor las emociones presentes en las relaciones entre padres e hijos y desentrañar de qué forma afectan al desarrollo infantil.  

 

En las pruebas, el sistema creado por Yang y Eskimez obtuvo un 72 % de acierto al clasificar el sentido emocional de 700 grabaciones, lo que supera los resultados de 138 trabajadores de la plataforma Mechanical Turk de Amazon a los que se pagó 50 centavos de dólar por cada 10 muestras que clasificaron, tarea en la que cosecharon un 60 % de éxitos. El software también mejoró a los humanos al identificar las muestras de sonido que resultaba difícil clasificar, una labor en la que alcanzó un 85 % de efectividad. Este superior desempeño de la máquina no es tan extraño, ya que además del oído, las personas usamos otros sentidos como la visión o incluso el olfato para desentrañar el sentir ajeno.  

 

Esta nueva herramienta reconoce emociones a medida que surgen, sin tener que grabar el discurso. Va identificando características de la voz –tono, timbre, intensidad, cantidad, energía…– que sus algoritmos emplean para señalar los sentimientos que hay tras ellas. Estas emociones –felicidadtristezaira, miedo, disgusto o neutralidad– son la única información que el software posee de antemano.  

 

Etiquetas: emocionesinnovaciónrobotsrobóticatecnología

Continúa leyendo

COMENTARIOS

También te puede interesar