KI trifft richtigere Entscheidungen als Richter

Mai 31, 2024

Voreingenommenheiten führen laut Wissenschaftlern des MIT häufig zu Fehleinschätzungen

Künstliche Intelligenz (KI) trifft laut Ashesh Rambachan vom Massachusetts Institute of Technology (https://www.mit.edu/)(MIT) bessere Entscheidungen als ein Richter aus Fleisch und Blut. Als Grund für Fehlentscheidungen von Richtern in diesem eher technokratischen Bereich macht der Wissenschaftler systembedingte Voreingenommenheiten aus.

KI prognostiziert besser

Folgenreiche Entscheidungen fallen auf der Grundlage von vermuteten Entwicklungen. Richter entscheiden insbesondere darüber, ob sie Kautionen für Angeklagte gewähren. Unternehmen setzen bei wichtigen Entscheidungen zunehmend Modelle des maschinellen Lernens ein. Dem Einsatz solcher Lernmodelle liegen verschiedene Annahmen über das menschliche Verhalten zugrunde, die sich in Produktempfehlungen auf Amazon, der Spam-Filterung von E-Mails und der Vorhersage von Texten auf dem Handy niederschlagen.

Das Team um Rambachan hat einen statistischen Test für eine dieser Verhaltensannahmen entwickelt, nämlich ob Entscheidungsträger systematische Vorhersagefehler machen. Die darauf basierende Analyse von richterlichen Entscheidungen in New York City zeigt, dass ein erheblicher Teil der Richter systematische Fehler bei der Vorhersage des Risikos von Fehlverhalten im Ermittlungsverfahren aufgrund von Merkmalen des Angeklagten wegen dessen ethnischer Zugehörigkeit, Alter und früherem Verhalten macht. Die Studie basiert auf Infos über 1.460.462 Fälle in New York City, von denen 758.027 Entscheidungen über die Freilassung aus der Untersuchungshaft waren.

32 Prozent liegen falsch

Laut der Studie stimmen die Entscheidungen von mindestens 32 Prozent der Richter in New York City nicht mit der tatsächlichen Fähigkeit der Angeklagten, einen bestimmten Kautionsbetrag zu zahlen, und dem tatsächlichen Risiko, dass sie nicht zur Verhandlung erscheinen, überein. Die Untersuchung zeigt, dass der durchschnittliche Richter bei etwa 30 Prozent der ihm zugewiesenen Angeklagten systematische Prognosefehler macht, wenn sowohl die ethnische Zugehörigkeit als auch das Alter des Angeklagten berücksichtigt werden.

Werden sowohl die ethnische Zugehörigkeit des Angeklagten als auch die Tatsache berücksichtigt, ob er schon einmal wegen einer Straftat angeklagt wurde, macht der durchschnittliche Richter bei etwa 24 Prozent der ihm zugewiesenen 

Related Articles

Laserkanone schießt Drohnen zuverlässig ab

Laserkanone schießt Drohnen zuverlässig ab

"Fractl" von AIM Defence lässt selbst anfliegenden Schwärmen laut Hersteller keine Chance Mit einem Hochenergielaser von AIM Defence (https://www.aimdefence.com/ ), der gerade einmal so groß ist wie ein Koffer und 50 Kilogramm wiegt, schießt die australische Armee...

Magdeburg: Mann entwendet Defibrillator im Hauptbahnhof

Magdeburg: Mann entwendet Defibrillator im Hauptbahnhof

Am Mittwoch, den 19. Juni 2024 erhielt die Bundespolizei gegen 03:00 Uhr fernmündlich die Meldung von Sicherheitsmitarbeitern der Bahn, dass es im Bereich der Sanitäranlagen im Hauptbahnhof Magdeburg zu einem Diebstahl gekommen ist. Demnach entwendete der zum...

Passau zählt erneut zu den besten jungen Universitäten weltweit

Passau zählt erneut zu den besten jungen Universitäten weltweit

Zum siebten Mal infolge schafft es die Hochschule in der ostbayerischen Dreiflüsse-Stadt in die besten zehn Prozent aller jungen Universitäten auf dem Globus.  Die Konkurrenz ist stark: Fast 1.200 Universitäten, die erst seit maximal 50 Jahren bestehen, haben...

Share This