Algorithmen zeigen Menschen Vorurteile auf

April 10, 2024

Algorithmen: Bias fast wie beim Menschen (Foto: pixabay.com, Markus Spiske)

Tests der Questrom School of Business – Fehler immer gerne zuerst beim Gegenüber gesehen

Die unbeabsichtigte Voreingenommenheit von KI-Algorithmen bringt laut einer Studie der Questrom School of Business (https://www.bu.edu/questrom) jedoch auch Vorteile mit sich. Menschen erkennen demnach mehr ihrer Vorurteile in den Entscheidungen als sie es ohne die KI könnten. Das gilt sogar auch dann, wenn diese Entscheidungen gleich ausfallen. Carey Morewedge und Everett W. Lord schlagen in den „Proceedings of the National Academy of Sciences“ Möglichkeiten vor, wie dieses Bewusstsein menschlichen Entscheidungsträgern dabei helfen könnte, ihre Vorurteile zu erkennen und zu korrigieren.

6.000 Personen getestet

Gemeinsam mit Begüm Çeliktutan und Romain Cadario von der Erasmus University (https://www.eur.nl/en) hat Morewedge eine Reihe von Experimenten entwickelt, um soziale Vorurteile wie zum Beispiel Rassismus, Sexismus und Altersdiskriminierung zum Vorschein zu bringen. Die Forscher verglichen also die Wahrnehmung der Teilnehmer, wie diese Vorurteile ihre eigenen Entscheidungen einfärbten, mit den Entscheidungen, die von einem Algorithmus getroffen wurden. Manchmal sahen die Teilnehmer die Entscheidungen eines tatsächlichen Algorithmus. In anderen Fällen handelte es sich bei den als angeblich vom Algorithmus stammenden Entscheidungen, versteckt um die Wahl, die die Teilnehmer selbst getroffen hatten.

Insgesamt erkannten die Teilnehmer Vorurteile eher in den Entscheidungen, die angeblich von den Algorithmen stammten als in ihren eigenen. Sie sahen jedoch auch in den Entscheidungen des Algorithmus gleich viel Fehleinschätzungen wie bei den Entscheidungen anderer Menschen. Es gelingt Menschen demnach allgemein besser, Fehleinschätzungen bei anderen zu erkennen als bei sich selbst. Dieses Phänomen ist als „Bias Blind Spot“ bekannt. Die Teilnehmer korrigierten die Verzerrungen in diesen Entscheidungen danach auch eher. Das könnte, so die Forscher, ein wichtiger Schritt zur Verringerung von Vorurteilen sein. Insgesamt wurden Experimente mit mehr als 6.000 Personen durchgeführt.

Weniger Verzerrung möglich

Im abschließenden Experiment sollten die Teilnehmer Fehleinschätzungen in ihren Beurteilungen oder jenen des Algorithmus korrigieren. Menschen waren eher bereit, die Entscheidungen des Algorithmus zu korrigieren. Damit verringerte sich auch die tatsächliche Verzerrung in diesen Bewertungen. Das ist laut Morewedge von entscheidender Bedeutung. Für jeden Mensch, der dazu bereit ist, seine Vorurteile zu verringern, ist die Fähigkeit sie überhaupt wahrzunehmen ein erster Schritt. Diese Forschungsergebnisse belegen, dass Algorithmen als eine Art Spiegel eingesetzt werden können. Dadurch wird es möglich, einen Bias zu identifizieren, auch wenn die Menschen dieses Falschurteil selbst gar nicht erkennen können

Related Articles

Alle News im Überblick

Alle News im Überblick

18.05.2024 Künftige Kontaktlinse kontrolliert Computer 18.05.2024 ELF Convention 2024 in Düsseldorf und Umgebung 17.05.2024 BHE - Konjunkturumfrage: gute Geschäftslage bei Facherrichtern, trotz leichter Eintrübung 17.05.2024 Briten bauen Strahlenkanone gegen Drohnen...

Künftige Kontaktlinse kontrolliert Computer

Künftige Kontaktlinse kontrolliert Computer

Auge: Neue Hightech-Kontaktlinse steuert künftig den Computer (Foto: Helmut Strasil, pixabay.com) Smartes Hightech-System der Universität Nanjing erfasst Augenbewegungen in hoher Auflösung Neuartige intelligente Kontaktlinsen eines Teams um Fei Xu vom College of...

Briten bauen Strahlenkanone gegen Drohnen

Briten bauen Strahlenkanone gegen Drohnen

So sieht die neue britische Anti-Drohnen-Strahlenkanone aus (Foto: Gabriele Molinelli, gov.uk) Elektromagnetisches Feld zerstört zum Bruchteil der üblichen Kosten wirkungsvoll die Elektronik Ein Team des Defence Science and Technology Laboratory...

Share This