¿Es capaz la inteligencia artificial (IA) de sugerir comportamientos adecuados ante situaciones cargadas emocionalmente? Un equipo de las universidades de Ginebra (UNIGE) y Berna (UniBE) sometió a seis IA generativas, incluido ChatGPT, a pruebas de inteligencia emocional normalmente reservadas a individuos. Resultado: estas IA superan el rendimiento humano y son capaces de generar en tiempo récord nuevas pruebas. Estos resultados abren el camino a nuevos usos de la IA en ámbitos como la educación, el coaching y la gestión de conflictos. Se publican en Communications Psychology.
Los grandes modelos de lenguaje, o Large Language Models (LLM) en inglés, son sistemas de inteligencia artificial capaces de procesar, interpretar y generar lenguaje humano. Es en este tipo de modelo en el que se basa, por ejemplo, la IA generativa ChatGPT. Estos modelos pueden responder preguntas y resolver ciertos problemas complejos. Pero, ¿pueden también sugerir comportamientos inteligentes desde un punto de vista emocional?
Estos resultados abren la puerta al uso de la IA en contextos que se creían reservados a los humanos.
Situaciones simuladas
Para averiguarlo, un equipo del Instituto de Psicología de la UniBE y del Centro Interfacultativo en Ciencias Afectivas (CISA) de la UNIGE sometió a seis LLM (ChatGPT-4, ChatGPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku y DeepSeek V3) a pruebas de inteligencia emocional.
"Elegimos cinco pruebas utilizadas tanto en investigación como en el mundo laboral. Consistían en numerosas situaciones simuladas, cargadas emocionalmente, destinadas a evaluar las habilidades de comprensión, regulación y gestión de emociones", explica Katja Schlegel, profesora e investigadora principal en psicología de la personalidad, psicología diferencial y evaluación psicológica en el Instituto de Psicología de la UniBE, y autora principal del estudio.
Por ejemplo: "un compañero de trabajo de Michael le robó su idea y recibe injustamente felicitaciones. ¿Cuál sería la reacción más efectiva de Michael?"
a) Discutir con el compañero en cuestión.
b) Hablar de la situación con su superior.
c) Guardar rencor al compañero en silencio.
d) Robarle una idea a cambio.
En este caso, la reacción b) era considerada la más pertinente.
Paralelamente, estas mismas cinco pruebas se propusieron a participantes humanos. "Al final, los LLM obtuvieron puntuaciones significativamente mejores, con un 82% de respuestas correctas frente al 56% de los humanos", revela Marcello Mortillaro, colaborador científico del CISA de la UNIGE, involucrado en estos trabajos. "Esto demuestra que estas IA poseen conocimientos sobre las emociones y sobre lo que implica un comportamiento emocionalmente inteligente."
Nuevas pruebas en tiempo récord
En una segunda fase, los científicos pidieron a ChatGPT-4 que creara nuevas pruebas de inteligencia emocional, con escenarios inéditos. Estas pruebas generadas automáticamente se sometieron luego a más de 400 participantes.
"Resultaron tener una fiabilidad, claridad y realismo similares a las pruebas originales, que sin embargo habían requerido años de desarrollo", indica Katja Schlegel.
"Los LLM no solo son capaces de encontrar la mejor respuesta entre varias opciones propuestas, sino también de generar nuevos escenarios adaptados a un contexto deseado. Esto refuerza la idea de que los LLM, como ChatGPT, son capaces de razonamiento emocional", añade Marcello Mortillaro.
Estos resultados abren la puerta al uso de la IA en contextos que se creían reservados a los humanos, como la educación, el coaching o la gestión de conflictos, siempre que esté supervisada por expertos.