Kann künstliche Intelligenz (KI) angemessene Verhaltensweisen in emotional aufgeladenen Situationen vorschlagen? Ein Team der Universitäten Genf (UNIGE) und Bern (UniBE) hat sechs generative KI-Systeme, darunter ChatGPT, emotionalen Intelligenztests unterzogen, die normalerweise Menschen vorbehalten sind. Das Ergebnis: Diese KIs übertreffen menschliche Leistungen und können in Rekordzeit neue Tests generieren. Diese Ergebnisse eröffnen neue Anwendungsmöglichkeiten für KI in den Bereichen Bildung, Coaching und Konfliktmanagement. Sie wurden in Communications Psychology veröffentlicht.
Große Sprachmodelle, oder Large Language Models (LLMs), sind KI-Systeme, die menschliche Sprache verarbeiten, interpretieren und generieren können. Auf solchen Modellen basiert beispielsweise die generative KI ChatGPT. Diese Modelle können Fragen beantworten und komplexe Probleme lösen. Aber können sie auch emotional intelligente Verhaltensweisen vorschlagen?
Diese Ergebnisse ebnen den Weg für den Einsatz von KI in Kontexten, die bisher als menschliche Domäne galten.
Praxisszenarien
Um dies herauszufinden, hat ein Team des Instituts für Psychologie der UniBE und des Zentrums für affektive Wissenschaften (CISA) der UNIGE sechs LLMs (ChatGPT-4, ChatGPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku und DeepSeek V3) emotionalen Intelligenztests unterzogen.
"Wir haben fünf Tests ausgewählt, die sowohl in der Forschung als auch in der Arbeitswelt verwendet werden. Sie bestanden aus zahlreichen emotional aufgeladenen Szenarien, die das Verständnis, die Regulierung und das Management von Emotionen bewerten sollten", erklärt Katja Schlegel, Dozentin und Hauptforscherin für Persönlichkeitspsychologie, Differentielle Psychologie und psychologische Diagnostik am Institut für Psychologie der UniBE und Hauptautorin der Studie.
Zum Beispiel: "Ein Kollege von Michael hat ihm seine Idee gestohlen und erhält zu Unrecht Lob. Was wäre die effektivste Reaktion von Michael?"
a) Sich mit dem betreffenden Kollegen streiten.
b) Die Situation mit seinem Vorgesetzten besprechen.
c) Dem Kollegen heimlich böse sein.
d) Ihm im Gegenzug eine Idee stehlen.
Hier wurde Reaktion b) als die angemessenste betrachtet.
Parallel wurden dieselben fünf Tests menschlichen Probanden vorgelegt. "Am Ende erzielten die LLMs signifikant bessere Ergebnisse mit 82% richtigen Antworten gegenüber 56% bei Menschen", enthüllt Marcello Mortillaro, wissenschaftlicher Mitarbeiter am CISA der UNIGE, der an dieser Arbeit beteiligt war. "Dies zeigt, dass diese KIs Wissen über Emotionen und emotional intelligentes Verhalten besitzen."
Neue Tests in Rekordzeit
In einer zweiten Phase baten die Wissenschaftler ChatGPT-4, neue emotionale Intelligenztests mit bisher unbekannten Szenarien zu erstellen. Diese automatisch generierten Tests wurden dann über 400 Probanden vorgelegt.
"Sie erwiesen sich als ähnlich zuverlässig, klar und realistisch wie die Originaltests, die jedoch Jahre der Entwicklung benötigt hatten", erklärt Katja Schlegel.
"LLMs sind also nicht nur in der Lage, die beste Antwort unter verschiedenen Optionen zu finden, sondern auch neue, an einen gewünschten Kontext angepasste Szenarien zu generieren. Dies stärkt die Annahme, dass LLMs wie ChatGPT zu emotionalem Denken fähig sind", fügt Marcello Mortillaro hinzu.
Diese Ergebnisse ebnen den Weg für den Einsatz von KI in Bereichen, die bisher als menschliche Domäne galten, wie Bildung, Coaching oder Konfliktmanagement, vorausgesetzt, sie wird von Experten begleitet.