Ya es posible detectar emociones en el habla con inteligencia artificial

Cada vez son más las aplicaciones que pueden tener los sistemas de reconocimiento de emociones mediante voz.

Detectar la agresividad en las llamadas a call-centers, monitorizar el estrés en pilotos de aviones o permitir la creación de servicios de chat en el ámbito de la psiquiatría y de la psicología son solo algunas de las aplicaciones que pueden tener los sistemas de reconocimiento de emociones mediante voz.

Si bien es un campo relativamente nuevo, en España unos investigadores de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid (UPM), en colaboración con el Grupo de Inteligencia Computacional de la Universidad del País Vasco (UPV/EHU), están trabajando para que, a través de técnicas de aprendizaje profundo (o Deep Learning, una modalidad de inteligencia artificial), sea posible crear un modelo basado en redes neuronales profundas que permita reconocer emociones en el lenguaje hablado. De este modo, “el sistema puede reaccionar de una u otra forma según cada caso, monitorizando las respuestas para orientar el diálogo o redirigirlo a un humano”, explica Javier de Lope, profesor de la UPM y miembro del proyecto.

El deep learning es un tipo de machine learning que entrena a una computadora para que realice tareas como las hacemos los seres humanos, como el reconocimiento del habla, la identificación de imágenes o hacer predicciones. En lugar de organizar datos para que se ejecuten a través de ecuaciones predefinidas, el deep learning configura parámetros básicos acerca de los datos y entrena a la computadora para que aprenda por cuenta propia reconociendo patrones mediante el uso de muchas capas de procesamiento.

El deep learning es una de las bases de la inteligencia artificial (AI) y el interés actual en el deep learning se debe en parte al auge que tiene ahora la inteligencia artificial. Las técnicas de deep learning han mejorado la capacidad de clasificar, reconocer, detectar y describir – en una palabra, entender.

Por ejemplo, el deep learning se utiliza para clasificar imágenes, reconocer el habla, detectar objetos y describir contenido. Sistemas como Siri y Cortana son potenciados, en parte, por el aprendizaje a fondo.

El grupo de investigadores, perteneciente al Departamento de Inteligencia Artificial de la ETSIINF, lleva años trabajando en sistemas de reconocimiento de emociones tanto desde el aprendizaje automático (una modalidad clásica de inteligencia artificial) como con la aplicación de técnicas de aprendizaje profundo.

“El modelo que se propone en este trabajo utiliza este segundo tipo de técnicas. Nos centramos en el reconocimiento de un conjunto básico de ocho emociones primarias, siguiendo uno de los modelos de más aceptación en dominios de estudio del comportamiento, como psicología y neurología”, añade. Estas emociones se asocian con estados o situaciones de calma, felicidad, tristeza, enfado, miedo, asco y sorpresa, a las que se añade un estado neutral.

Según De Lope, “El reconocimiento de emociones mediante voz es un campo mucho menos estudiado que el de reconocimiento de voz. El objetivo no es identificar sólo la palabra, sino que incorpora también la forma en que se dice, que está asociada al estado de ánimo del hablante”. Se trata de técnicas que tienen aplicación en muchos campos en los que el aspecto social es relevante, como en la robótica social -que viene a suplir o complementar carencias de tipo afectivo y relacional- o en la ayuda a la detección de estados de ansiedad o depresivos.

Básicamente, se generan espectrogramas de un tipo especial a partir del audio, que se utilizan para alimentar la red neuronal (una red que emula el funcionamiento de un conjunto de neuronas). El modelo de red propuesto procesa las imágenes de los espectrogramas como secuencias. Consta de un primer conjunto de capas convolucionales que extraen características de las imágenes, seguido de más capas que permiten tratar la información temporal inherente en las alocuciones. El modelo ofrece un conjunto de valores como salida, a partir de los cuales se determinan las emociones asociadas con los audios de entrada.

Los resultados obtenidos hasta ahora son satisfactorios. “Con el prototipo actual se ha conseguido superar el rendimiento de la mayor parte de los modelos más avanzados, a la vez que se han reducido los requisitos computacionales para el modelo de red de neuronas”, explica el investigador. “Se siguen ensayando mejoras y optimizaciones, tanto en los modelos de Deep Learning como en el tratamiento previo de los datos generados a partir de los audios de las alocuciones que se utilizan durante el entrenamiento de las redes. Por ello, prevemos un aumento en el rendimiento en siguientes versiones”, concluye.

Las interfaces de humano a máquina han evolucionado considerablemente. El mouse y el teclado están siendo reemplazados con gesticulaciones, deslizamientos de los dedos, tacto y lenguaje natural, generando un interés renovado en la inteligencia artificial y el deep learning.

Referencias:

Javier De Lope. et al. A Hybrid Time-Distributed Deep Neural Architecture for Speech Emotion Recognition. World Scientific 2022. https://doi.org/10.1142/S0129065722500241

Doctor Fisión

Doctor Fision

Divulgador científico especialista en física y astrofísica, y apasionado de la ciencia en general. Autor del bestseller "El Universo Explicado" y de "La Nueva Carrera Espacial". Tiene más de 3 millones de seguidores en redes sociales.

Continúa leyendo