KI erkennt Stimmungen von Menschen sicher

Mai 26, 2024

KI-Analyse: Computer können Stimmungen erkennen (Bild: Gerd Altmann, pixabay.com)

In “Theory of Mind”-Tests schneiden Computer in neuen Untersuchungen oft sogar besser ab

Bei sogenannten “Theory of Mind”-Tests schneiden große KI-Sprachmodelle (LLMs) wie ChatGPT von OpenAI, die selbstständig recherchieren und Texte erstellen, oft besser ab als der Mensch. Theory of Mind meint die Fähigkeit, sich in andere Menschen hineinzuversetzen, also quasi zu spüren, wie das Gegenüber sich fühlt. Laut einem Team von Psychologen und Neurobiologen sind zwei Arten von LLMs in der Lage, bei derartigen Tests mit Menschen gleichzuziehen oder sie sogar zu übertreffen.

Mentaler Zustand signalisiert

In den vergangenen Jahren haben sich LLMs stark verbessert. Auch ihre Fähigkeiten sind stetig gewachsen. Ein neuer Skill besteht darin, aus Äußerungen eines Menschen dessen mentalen Zustand abzuleiten. Psychologen haben Theory-of-Mind-Aufgaben entwickelt, um den mentalen und/oder emotionalen Zustand einer Person während sozialer Interaktionen zu messen.

Frühere Forschungen haben gezeigt, dass Menschen eine Vielzahl von Hinweisen verwenden, um anderen ihren mentalen Zustand zu signalisieren. Menschen können daraus die Gefühlslage ihres Gegenüber besser oder schlechter erkennen. Dass Computer die gleiche Fähigkeit haben können, haben viele Fachleute bis dato für ausgeschlossen gehalten.

1.907 User gegen zwei LLMs

Die Neurowissenschaftler aus Italien, den USA, Großbritannien und vom Universitätsklinikum Hamburg-Eppendorf (https://www.uke.de/ ) widerlegen diese Meinung. Sie haben die Antworten von 1.907 Freiwilligen, die an Standardtests zur Theory of Mind teilnahmen, und verglichen die Ergebnisse mit denen mehrerer LLMs, wie Llama 2-70b und GPT-4. Beide Gruppen beantworteten fünf Arten von Fragen, von denen jede dazu diente, Dinge wie einen Fauxpas, Ironie oder den Wahrheitsgehalt einer Aussage zu messen.

Die Forscher fanden heraus, dass die LLMs ziemlich oft die gleiche Leistung wie Menschen erbrachten und manchmal sogar besser abschnitten. Genauer gesagt, stellten sie fest, dass GPT-4 bei fünf Hauptaufgabentypen am besten abschnitt, während Llama 2 in einigen Fällen viel schlechter abschnitt als Menschen, aber bei der Erkennung von Fauxpas, im Gegensatz zu GPT-4, viel bessere Ergebnisse erzielte.

Related Articles

Bedeutung von Zusammenarbeit und Innovation im Fokus

Herrmann beim Forum Sicherheit und Innovation der Friedrich-Alexander-Universität Erlangen-Nürnberg Beim Forum Sicherheit und Innovation an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) hat Bayerns Innenminister Joachim Herrmann am Montag die zentrale...

OneSat von Airbus für den ersten omanischen Satelliten ausgewählt

Space Communication Technologies (SCT), der nationale Satellitenbetreiber Omans, hat Airbus Defence and Space einen Auftrag für OmanSat-1, einem hochmodernen, vollständig rekonfigurierbaren, hochdurchsatzfähigen OneSat-Telekommunikationssatelliten einschließlich des...

Black Friday: Die Hälfte geht auf Schnäppchenjagd

Im Schnitt werden 312 Euro ausgegeben – rund 11 Prozent mehr als im Vorjahr Online-Shops aus China polarisieren: Die eine Hälfte meidet sie, die andere Hälfte hat dort bereits bestellt 4 von 10 Jüngeren würden die KI allein auf Einkaufsbummel schicken Wenn mit dem...

Share This