INSTITUTO DE CIENCIAS DE LA COMPUTACIÓN

¿Las computadoras pueden detectar emociones?

Luciana Ferrer y Agustín Gravano del Laboratorio de Inteligencia Artificial Aplicada estudian, a través de técnicas de inteligencia artificial, cómo las computadoras procesan el habla humana.


Computadoras que juegan al ajedrez, semáforos inteligentes, comunicación hablada entre computadoras y seres humanos, motores de búsqueda de Internet cada más precisos, sistemas que analizan miles de imágenes para detectar melanomas y programas informáticos educativos para fomentar el aprendizaje. Esta capacidad que tienen las máquinas de emular el razonamiento humano se denomina Inteligencia Artificial (IA) y está en todas partes.

Agustín Gravano y Luciana Ferrer, investigadores del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) son parte del Laboratorio de Inteligencia Artificial Aplicada del Instituto de Ciencias de la Computación (ICC, CONICET-UBA). Allí trabajan en la línea de investigación del procesamiento del habla, específicamente en sistemas de diálogo hablado y en la detección de metainformación.

“En nuestra área específica dentro de la inteligencia artificial, trabajamos para que las computadoras puedan ser capaces de procesar el habla de los seres humanos. Por ejemplo, que reconozcan las palabras que uno está diciendo, algo que a nosotros nos resulta extremadamente natural, pero que no es para nada sencillo. Esa tarea de reconocimiento del habla no es lo único que podemos extraer de la señal de habla; también se extraer emociones, la identidad de la persona que habla o información como la edad o el género, todas cosas que a los humanos nos resultan muy fáciles de reconocer pero requieren de procesos sofisticados de computación y de ingeniería”, explica Gravano, quien trabaja en el mejoramiento de la naturalidad de los sistemas de diálogo hablado, en los cuales una persona interactúa con una computadora mediante la voz. Por ejemplo, uno puede pedirle asistencia a un sistema de información turística, bancaria, a un asistente virtual como tienen los smartphones.

“Para que eso pueda ocurrir tenemos que tener cuidado con cómo se sintetiza la voz artificial, para que suene natural, que no suene como una voz robótica. Tenemos que darle inflexiones a la voz de acuerdo a lo que se está diciendo, poner pausas, modular el tono, cambiar la forma en que suena esa voz artificial para que la persona que interactúa con el sistema se sienta a gusto”, explica el investigador que completó su doctorado en Ciencias de la Computación en la Universidad de Columbia, Estados Unidos.

El tipo de herramientas que utilizan incluye aprendizaje automático que es una disciplina dentro de la inteligencia artificial relativamente moderna, tiene entre 30 y 40 años. El aprendizaje automático lo que busca es, dada una determinada cantidad de datos, aprender automáticamente. “En el caso del habla analizamos grabaciones para aprender qué sonidos corresponden a determinados fonemas del lenguaje, luego aprende las palabras, luego las oraciones, y así el aprendizaje automático es la piedra angular que permite desarrollar las diversas tareas de procesamiento del habla”, sostiene Gravano.

Por su parte, Luciana Ferrer dentro del Grupo de Procesamiento de Habla realiza tareas de detección de metainformación basado en la señal de habla. “No de bajo nivel como qué fue dicho sino de alto nivel como cuál es la emoción del hablante, qué idioma está siendo hablado o la identidad de las personas entre un grupo de personas que uno puede conocer previamente. Es decir, metainformación del contenido de la señal”, explica Ferrer.

En la actualidad, hay bancos que utilizan para reforzar su seguridad y la de los usuarios una contraseña adicional como la voz. “Lo que pasa es que todavía no tiene el nivel de precisión como las huellas digitales por eso es que se usa como complementario a otros métodos”, explica Ferrer, quien realizó un doctorado en Ingeniería electrónica en la Universidad de Stanford, Estados Unidos.

Al estar en el Departamento de Ciencias de la Computación se basan en la informática, pero para llevar a cabo estas investigaciones en temas tan relacionados con lo social, en cómo nos comunicamos hace falta conocer mucho de psicología social, psicología del comportamiento. “Nuestro trabajo es fuertemente interdisciplinario, en el equipo hay colaboradores psicólogos, lingüistas, fonetistas, físicos e ingenieros electrónicos”, dice Gravano.

En la actualidad, los investigadores señalan que aún estamos lejos de que las computadoras detecten emociones y metainformación de alto nivel tan bien como los humanos, aunque “si miramos para atrás lo que se hizo en los últimos diez años es alentador. Tenemos una vasta cantidad de datos que no se puede analizar a mano. ¿Cómo hacemos para sacar la información útil e interesante? La única manera es automáticamente y para eso estamos los científicos de datos, para ayudar al humano”, concluye Ferrer.

Por Sergio Patrone Firma Paz