El Centro de Inteligencia Artificial de la Universidad Estatal de Moscú ha desarrollado el framework multimodal HL-EAI. Según informa el servicio de prensa de la universidad, la plataforma evalúa el estado emocional de los participantes en el diálogo y genera respuestas teniendo en cuenta el contexto. El sistema funciona en tres formatos: humano-IA, humano-humano y algoritmo-algoritmo.
Los análogos modernos reconocen señales emocionales individuales, pero no tienen en cuenta el intercambio mutuo de sentimientos en una conversación real. El desarrollo ruso combina datos textuales, de audio y visuales. Los científicos ya están probando la plataforma en escenarios de juego de la teoría de juegos para medir la influencia de las emociones en la confianza y la cooperación.
La IA emocional es la siguiente etapa después de la generativa. Las máquinas que sienten al interlocutor y ajustan el tono de la respuesta son demandadas en negociaciones, psicoterapia y gestión de drones. Los análogos occidentales (Affectiva, Empath) dominan el mercado. El framework abierto ruso puede dar a la industria una herramienta independiente para crear sistemas de diálogo verdaderamente vivos.
Lea más materiales sobre el tema:
- Los psicólogos de IA pueden ser perjudiciales: un estudio de la TSU mostró errores peligrosos de los bots
- Científicos rusos han desarrollado una IA que reconoce las emociones en el habla con gran precisión
- Encuesta: los rusos están seguros de que en el futuro las redes neuronales podrán experimentar emociones, pero temen la pérdida de empleos debido a la IA