Zum Hauptinhalt springen
13.04.2017

Künstliche Intelligenz lernt Vorurteile

Anlass

Künstliche Intelligenz übernimmt beim Lernen aus Datensätzen kulturelle Stereotype oder Vorurteile. Diesen Schluss präsentierten Forscher aus Princeton (USA) und Bath (UK) im Fachjournal Science (Primärquelle). Sie hatten überprüft, ob und wenn ja welche Vorurteile ein Standard-KI-Programm für die Analyse von semantischen Zusammenhängen quasi lernt. Dabei verwendeten sie eine psychologische Methode zum Erfassen von Vorurteilen und passten diese für die Untersuchung der KI an. Das Ergebnis zeigt, dass das Programm GloVe dabei Vorurteile lernt. So interpretierte es zum Beispiel männliche, in afro-amerikanischen Kreisen übliche Vornamen als eher unangenehm; Namen, die unter Weißen üblich sind, eher als angenehm. Auch verknüpfte es weibliche Namen eher mit Kunst und männliche eher mit Mathematik.Die Forscher sehen in ihrem Ergebnis einen Hinweis auf die Gefahr, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile lernt und entsprechende Ergebnisse liefert. Ganz kurz reißen sie mögliche Verfahren an, die davor schützen sollen.

 

Übersicht

  • Dr. Damian Borth, Direktor Deep Learning Competence Center, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI), Kaiserslautern
  • Prof. Dr. Joachim Scharloth, Professor angewandte Linguistik, Technische Universität Dresden
  • Prof. Dr. Christian Bauckhage, Professor für Medieninformatik/Musterekennung, Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme, Sankt Augustin
  • Prof. Dr. Michael Strube, Leiter der Gruppe Natural Language Processing (NLP), HITS – Heidelberg Institute for Theoretical Studies, Heidelberg

Statements

Dr. Damian Borth

Direktor Deep Learning Competence Center, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI), Kaiserslautern

„Diese Studie zeigt uns, dass mit den Standardmethoden des überwachten Lernens der Bias des Datensatzes mitgelernt wird. Dies bedeutet nur, dass die zugrundeliegenden Datensätze in ihrem Kern diese kulturellen Stereotype oder Vorurteile bereits beinhaltet haben. Hier passt sich der Lernalgorithmus nur an die Datenlage an. Das zeigt uns, wie wichtig eine ausgewogene Auswahl an Trainingsdaten ist, und dass wir Qualitätsstandards bei der Erstellung von Trainingsdaten einführen müssen – eine Art Ethikkommission für Trainingsdaten.“

„Die Entfernung der Stereotypen aus der Datengrundlage ist eine sinnvollere Ergänzung als algorithmische Schranken einzubauen. Diese Systeme sind nur so leistungsfähig, wie sie aus den Daten lernen können oder dürfen. Wenn man dieses Lernen beeinflusst, wird die Leistung der Systeme wahrscheinlich leiden.“

„Und wir sprechen hier nur von Textdaten und der Untersuchung dieser in Bezug auf KI-Systeme, welche daraus kulturelle Stereotype oder Vorurteile erlernen. Wenn wir uns vor Augen halten, dass es noch Bild- und Videodaten gibt, wird es noch sehr schwerer solche kulturellen Stereotype oder Vorurteile aus dem Visuellen herauszufiltern.“

Prof. Dr. Joachim Scharloth

Professor angewandte Linguistik, Technische Universität Dresden

„Die Studie kommt zu einem wenig überraschenden Ergebnis: In einer großen Menge von Texten finden sich die gleichen Stereotypen, wie sie auch durch implizite Assoziationstests – einem Verfahren zur Messung von Einstellungen – gemessen werden können. Und diese Stereotypen werden von Standardverfahren auf dem Gebiet des maschinellen Lernens reproduziert.“

„Das ist deshalb wenig überraschend, weil Texte von Menschen geschrieben werden, die natürlich nicht vorurteilsfrei sind. Und beim Schreiben von Texten bedienen sie sich sprachlicher Ausdrücke, die nicht neutral sind, sondern immer auch einen typischen Gebrauchswert haben. Ein Ausdruck wie ‚südländische Erscheinung´ lässt uns beispielsweise sofort an eine Täterbeschreibung oder einen Fahndungsaufruf denken. Sie ist zu einem festen Muster geworden.“

„Maschinelles Lernen sucht nach Mustern – bei der Textanalyse nach sogenannten Ko-Okkurrenzen, also dem gemeinsamen Vorkommen von Wörtern. Dass maschinelles Lernen Stereotypen aufdecken kann, ist für das Verstehen von Gesellschaften zunächst ein Gewinn. Problematisch wird es, wenn die gelernten Modelle unreflektiert bei der Automatisierung von Prozessen unseres alltäglichen Lebens genutzt werden, sei es zur Steuerung (z. B. Anzeige von Nachrichten in sozialen Netzwerken) oder bei Entscheidungshilfen (z. B. maschinelle Sprachanalysen bei Einstellungsgesprächen).“

„Sicher kann man durch die Wahl der Trainingsdaten und geeignete Verfahren die Stereotypen in den Modellen reduzieren. Letztlich ist es aber eine gesellschaftliche Frage, in welchen Situationen wir diesen Modellen wie viel Handlungsmacht zubilligen wollen.“

Prof. Dr. Christian Bauckhage

Professor für Medieninformatik/Musterekennung, Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme, Sankt Augustin

„Um die Ergebnisse dieser Studie zu verstehen, muss man wissen, dass maschinelles Lernen oft komplizierte statistische Methoden verwendet. Statistische Ergebnisse sind aber immer nur so gut, wie die Daten, auf denen sie berechnet werden. Salopp gesagt gilt die Faustregel: garbage in, garbage out. Spätestens seit dem ‚überraschenden´ Brexit oder dem ‚überraschenden´ Wahlsieg von Donald Trump ist das allgemein bekannt; in beiden Fällen gab es falsche Prognosen, weil einseitige Daten zugrunde gelegt wurden. Wenn KI Systeme mit einseitigen Daten trainiert werden, ist es also nicht verwunderlich, dass sie eine einseitige Sicht auf die Welt lernen. Im letzten Jahr gab es dazu schon die Beispiele des Microsoft Chatbots ‚Tay´, dem Internet-Trolle rassistische Sprache beibrachten, oder der App ‚Google Photos´, die glaubte, dunkelhäutige User seien Gorillas.“

„Um einseitige Weltsichten oder Stereotype zu vermeiden, ist es wichtig, dass KI Systeme auf ausgewogenen Daten trainiert werden. Genauso gut ist es denkbar, KI Systeme nicht nur rein statistisch lernen zu lassen, sondern das Training mit Regelbasen zu kombinieren, die Expertenwissen abbilden; diese müssten dann natürlich auch vorurteilsfrei sein. Solange künstliche Intelligenz nicht über Selbstreflektion verfügt (und das ist noch nicht der Fall), liegt die Verantwortung bei den Menschen, die KI Systeme entwickeln; das ist eigentlich das Gleiche wie in der Kindererziehung; vielleicht bräuchten wir also so etwas wie eine Pädagogik der KI.“

„Aktuell sind Hate Speech und Fake News ein großes Thema. Gäbe es vorurteilsfreie oder wertneutrale KI Systeme, könnte man sie zur automatischen Erkennung solcher Inhalte nutzen. Wären diese KI Systeme wirklich wertneutral, könnte sich keine Seite des politischen Spektrums über Zensur beklagen.“

Prof. Dr. Michael Strube

Leiter der Gruppe Natural Language Processing (NLP), HITS – Heidelberg Institute for Theoretical Studies, Heidelberg

„Aktuelle Verfahren der Computerlinguistik repräsentieren die Bedeutung von Wörtern als Koordinaten als Punkte in einem hochdimensionalen Raum. Die Position der Koordinaten wird dabei durch die Verwendung von Wörtern in ihrem Kontext bestimmt. Als Datengrundlage dienen sehr große Textmengen – je größer, desto besser – aus dem Internet mit bis zu einer Billion (10 hoch 12) Wörtern. Die semantische Nähe zweier Wörter wird durch die Distanz ihrer Koordinaten ausgedrückt, und komplexe semantische Zusammenhänge können durch simple Arithmetik berechnet werden. In einer originellen Anwendung bekannter Standardverfahren aus der Computerlinguistik zeigen Caliskan, Bryson und Narayanan, dass dies nicht nur für das unverfängliche Beispiel [König - Mann + Frau = Königin] gilt, sondern auch für das diskriminierende [Mann - Technik + Kunst = Frau].“

„Die computerlinguistischen Verfahren, die vielen Anwendungen – von der Spracherkennung über die Websuche bis hin zur maschinellen Übersetzung – zugrunde liegen, reproduzieren getreu alle diskriminierenden und rassistischen Vorurteile, die sich im Internet finden. Da die Vorurteile schon in den Daten enthalten und sehr vielschichtig sind, werden computerlinguistische Algorithmen Vorurteile solange reproduzieren, wie sie von Menschen ins Internet gestellt werden. Computerlinguistische Algorithmen und Verfahren des maschinellen Lernens sind vorurteilslos, Daten nicht. ‚Wie man in den Wald hineinruft, so schallt es auch heraus.‘“

Mögliche Interessenkonflikte

Alle: Keine Angaben erhalten.

Primärquelle

Caliskan, A et al. (2017): Semantics derived automatically from language corpora contain human-like biases. Science. DOI: 10.1126/science.aal4230.