Wissenschaftler fordern Berücksichtigung von Jugendschutz und Empathie bei Programmierung
Cambridge (pte/11.07.2024/11:30) KI-Chatbots haben häufig Anzeichen einer „Empathy Gap“. Und eben diese Empathielücke setzt vor allem jungen User dem Risiko von Verzweiflung oder Schaden aus, wie eine Studie der University of Cambridge (https://www.cam.ac.uk) zeigt. Die Experten fordern daher eine kindersichere KI. Laut der Autorin Nomisha Kurian sind Kinder besonders dahingehend anfällig, dass sie die Chatbots als lebensnahe, quasi menschliche Vertraute ansehen. Ihre Interaktion damit kann jedoch schief gehen, wenn diese nicht auf die besonderen Bedürfnisse und Verletzlichkeiten der jungen User eingeht.
LLMs wie Papageien
Kurian argumentiert, dass das große Potenzial der KI auch bedeutet, dass Verantwortung neu übernommen werden müsse. Der Soziologin nach sind Kinder wahrscheinlich die am meisten übersehenen Stakeholder im Bereich KI. In ihrer Studie hat sie Fälle untersucht, bei denen die Interaktion zwischen Kindern und KI oder erwachsenen Forschern, die sich als Kinder ausgaben, mögliche Risiken offenlegt. Dafür wurden drei Fälle näher untersucht. Im Fokus standen dabei „Large Language Models“ (LLM) und ihre Funktion im Rahmen einer generativen „Conversational KI“.
LLMs wurden bereits als „stochastische Papageien“ bezeichnet. Dieser Ausdruck verweist darauf, dass sie eine statistische Wahrscheinlichkeit einsetzen, um Sprachmuster nachzuahmen, allerdings ohne sie unbedingt auch zu verstehen. Ein ähnliches Verfahren liegt ihren Reaktionen auf Gefühle zugrunde. LLMs können, so Kurian, besonders dabei Probleme haben, auf Kinder zu reagieren, die sich sprachlich noch entwickeln und daher häufig unübliche Sprachmuster oder missverständliche Redewendungen einsetzen. Zudem neigen Kinder auch eher als Erwachsene dazu, sensible persönliche Infos preiszugeben.
Trotzdem behandeln Kinder Chatbos viel eher so, als wären diese ein tatsächlich menschliches Gegenüber aus Fleisch und Blut. Neben Ratschlägen zum Verlust der Jungfräulichkeit bekamen Forscher von der KI auch Tipps, wie Alkohol und Drogen am besten versteckt werden können. Dazu kamen auch Hinweise, wie sich Snapchat-Konversationen vor denn „Eltern“ verstecken lassen. Bei einem Vorfall wurde der Microsoft Chatbot Bing, der darauf ausgerichtet ist, auf Jugendliche freundlich zu reagieren, aggressiv und begann einen User zu „gaslighten“.
Chatbot wie ein Freund
Die Studie argumentiert daher, dass dieses Verhalten für Kinder potenziell verwirrend und besorgniserregend ist. Sie könnten dem Chatbot so vertrauen wie einem Freund. Die Soziologin betont, dass es gar nicht darum geht, die KI zu verbannen, sondern sie sicher zu machen. Die Untersuchung umfasst daher auch ein Regelwerk mit 28 Punkten, das Unternehmen, Lehrern, Schulleitern, Eltern, Entwicklern und politische Akteure dabei unterstützen soll, systematisch darüber nachzudenken, wie jüngere Nutzer geschützt werden können.
Bei Lehrern und Forschern geht es um Fragen, wie gut neue Chatbots die Sprachmuster der Kinder verstehen und interpretieren. Zudem geht es auch darum, ob es Content-Filter und eine integrierte Überwachung gibt. Zusätzlich besteht die Frage, ob die KI die Kinder dazu ermutigt, bei schwierigen Themen Hilfe von einem Erwachsenen zu holen. Entwickler werden dazu aufgefordert, beim Design einen kindzentrierten Ansatz zu verfolgen. Die Forschungsergebnisse wurden in „Learning, Media and Technology“ veröffentlicht.