Künstliche Intelligenz und Vorurteile

„Die Auswahl der Daten ist das Problem“
Haben Künstliche Intelligenzen Vorurteile? Dr. Henning Wachsmuth, Professor an der Universität Paderborn, untersucht die algorithmische Voreingenommenheit.

Prof. Dr. Henning Wachsmuth (Foto: Universität Paderborn, Nina Reckendorf)

m&w: Herkunft/Kultur, Sozialisation, Geschlecht, Alter und Qualifikation spielen eine wichtige Rolle bei der Rekrutierung oder Beurteilung von Personal. Kann Künstliche Intelligenz (KI) diese Faktoren zurzeit vorurteilsfrei bewerten? 

Prof. Dr. Henning Wachsmuth: Grundsätzlich eignet sich KI explizit dazu, vorurteilsfreie Bewertungen durchzuführen. Anders als Menschen analysiert eine KI die ihr zur Verfügung gestellten Daten deterministisch und systematisch, das heißt, sie verfährt jedes Mal gleich, wenn sie auf gleiche Daten trifft, und sie bezieht alle potentiell relevanten Informationen gleichermaßen ein.
Das Problem liegt daher im Kern in der Auswahl der Daten, die in der Regel händisch oder halbautomatisich von Menschen gemacht wird. Lernende KI-Verfahren nutzen Korrelationen zwischen Konzepten in Daten aus; technisch  betrachtet sind Vorurteile solche Korrelationen. Selbst vermeintlich repräsentative Daten können Vorurteile widerspiegeln, insbesondere aufgrund historischer Ungleichheiten: Wenn etwa männliche Personen bei der Personalauswahl überproportional häufig berücksichtigt wurden und eine KI das Geschlecht zur Personalauswahl verwenden darf, dann wird sie es auch tun.

m&w: Wie kann sich KI zu einem vorurteilsfreien Bewertungsinstrument entwickeln?  

Prof. Dr. Henning Wachsmuth: Zwar kann die Weise, wie Daten von einer KI verarbeitet werden, sicherlich noch verbessert werden. Vor allem aber ist ein umsichtiger Umgang mit den Daten wichtig. So forscht meine Arbeitsgruppe daran, wie sich vorurteilsbehaftete Daten automatisch erkennen lassen und angepasst werden können, um Vorurteile weitgehend zu vermeiden. Allerdings kann das nur für erwartete Vorurteile (etwa gegenüber Geschlechtern) erreicht werden.
Ein weiterer Angriffspunkt ist daher die Auswahl der Daten durch den Menschen. Häufig wird diese Informatikerinnen und Informatikern übertragen, die dafür kaum geschult sind. Gemeinsam mit der Universität Bielefeld planen wir daher zu untersuchen, wie sich dieses Problem durch systematische Zusammenarbeit zwischen Informatik und den Sozialwissenschaften angehen lässt. Eine vollständig vorurteilsfreie Bewertung wird aber nicht zu erreichen sein; letztlich bleibt eine reine Datenanalyse immer eine Vereinfachung, in der sich ungerechte Einzelfälle nicht ausschließen lassen.
Das bedingt abschließend noch eine gesellschaftliche Seite: Wenn KI eingesetzt wird, um Menschen zu bewerten, dann sollte Menschen dies auch mitgeteilt werden, so dass diese das etwa für die Bewerbungsunterlagen berücksichtigen können. Das erfordert jedoch ein grundlegendes Verständnis dafür, was eine KI eigentlich tut. Wie sich solch eine Erklärbarkeit von KI erreichen lässt, soll in einem interdisziplinären Forschungsvorhaben der Universitäten Paderborn und Bielefeld erarbeitet werden. Ohne solche Zusammenarbeit wird es nicht gehen.

KONTEXT
Wenn Menschen argumentieren, kommen bewusste oder unbewusste Vorurteile gegenüber Geschlechtern, Ethnizitäten oder anderen Personengruppen zum Tragen.  Man spricht vom sogenannten sozialen Bias. Algorithmen, die Sprachdaten im Kontext Künstlicher Intelligenz verarbeiten, können diesen Bias übernehmen und sogar verstärken. Das haben Wissenschaftler der Universität Paderborn empirisch belegt. In einer Studie haben sie untersucht, welche Arten von Voreingenommenheit in argumentativen Datensätzen enthalten sind. Dazu haben die Wissenschaftler Daten aus Online-Portalen wie Debattier- und Diskussionsforen untersucht. Die Ergebnisse sollen den Grundstein für einen besseren algorithmischen Umgang mit Vorurteilen in argumentativen Kontexten legen.
-Anzeige-