Künstliche Intelligenz ist rassistisch und sexistisch – aber nur, weil sie mit falschen Daten versorgt wird.

Eine MIT-Studie hat gezeigt, dass die Art und Weise, wie künstliche Intelligenz Daten sammelt, sie oft rassistisch und sexistisch macht.

Forscher betrachteten eine Reihe von Systemen und fanden heraus, dass viele von ihnen eine schockierende Verzerrung aufwiesen.

Das Team entwickelte dann ein System, das den Forschern helfen soll, sicherzustellen, dass ihre Systeme weniger verzerrt sind.

Informatiker sind oft schnell dabei zu sagen, dass der Weg, diese Systeme weniger verzerrt zu machen, darin besteht, einfach bessere Algorithmen zu entwerfen“, sagte die Hauptautorin Irene Chen, eine Doktorandin, die die Arbeit mit MIT-Professor David Sontag und Postdoc Fredrik D. Johansson schrieb.

Aber Algorithmen sind nur so gut wie die Daten, die sie verwenden, und unsere Forschung zeigt, dass man mit besseren Daten oft einen größeren Unterschied machen kann.

In einem Beispiel betrachtete das Team ein Einkommensvorhersage-System und stellte fest, dass es doppelt so wahrscheinlich ist, weibliche Mitarbeiter als einkommensschwache und männliche als einkommensstarke Mitarbeiter falsch zu klassifizieren.

Sie fanden heraus, dass, wenn sie den Datensatz um den Faktor 10 erhöht hätten, diese Fehler 40 Prozent seltener passieren würden.

In einem weiteren Datensatz fanden die Forscher heraus, dass die Fähigkeit eines Systems, die Mortalität auf der Intensivstation (ICU) vorherzusagen, bei asiatischen Patienten weniger genau war.

Die Forscher warnten jedoch davor, dass bestehende Ansätze zur Verringerung der Diskriminierung die nicht-asiatischen Vorhersagen weniger genau machen würden.

Chen sagt, dass eines der größten Missverständnisse darin besteht, dass mehr Daten immer besser sind.

Stattdessen sollten Forscher mehr Daten von diesen unterrepräsentierten Gruppen erhalten.

Wir betrachten dies als eine Werkzeugkiste, die es den Ingenieuren des maschinellen Lernens ermöglicht, herauszufinden, welche Fragen sie an ihre Daten stellen müssen, um zu diagnostizieren, warum ihre Systeme möglicherweise unlautere Vorhersagen treffen“, sagt Sontag.

Das Team wird das Papier im Dezember auf der Jahreskonferenz über neuronale Informationsverarbeitungssysteme (NIPS) in Montreal vorstellen.

Teilen Ist Liebe! ❤

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares