Amazon’s sexistischer Einstellungsalgorithmus könnte immer noch besser sein als ein Mensch.

Amazon beschloss, sein Rekrutierungswerkzeug für experimentelle künstliche Intelligenz (KI) einzustellen, nachdem es entdeckt hatte, dass es Frauen diskriminiert hatte. Das Unternehmen entwickelte das Tool, um das Internet zu durchsuchen und potenzielle Kandidaten zu finden und sie von einem bis zu fünf Sternen zu bewerten. Aber der Algorithmus lernte, Frauen-Lebensläufe systematisch für technische Berufe wie Softwareentwickler herabzusetzen.

Obwohl Amazon an der Spitze der KI-Technologie steht, konnte das Unternehmen keinen Weg finden, seinen Algorithmus geschlechtsneutral zu gestalten. Aber das Scheitern des Unternehmens erinnert uns daran, dass die KI Bias aus einer Vielzahl von Quellen entwickelt. Während es einen allgemeinen Glauben gibt, dass Algorithmen ohne die Vorurteile oder Vorurteile gebaut werden sollten, die die menschliche Entscheidungsfindung beeinflussen, ist die Wahrheit, dass ein Algorithmus unbeabsichtigt Vorurteile aus einer Vielzahl von verschiedenen Quellen lernen kann. Alles, von den Daten, die zum Trainieren verwendet werden, über die Menschen, die es verwenden, bis hin zu scheinbar unabhängigen Faktoren, kann zur KI-Verzerrung beitragen.

KI-Algorithmen werden geschult, um Muster in großen Datensätzen zu beobachten und so die Ergebnisse vorherzusagen. Im Falle von Amazon verwendete der Algorithmus alle Lebensläufe, die dem Unternehmen über einen Zeitraum von zehn Jahren übermittelt wurden, um zu lernen, wie man die besten Kandidaten findet. Angesichts des geringen Frauenanteils im Unternehmen, wie in den meisten Technologieunternehmen, erkannte der Algorithmus schnell die männliche Dominanz und hielt sie für einen Erfolgsfaktor.

Da der Algorithmus die Ergebnisse seiner eigenen Vorhersagen zur Verbesserung seiner Genauigkeit verwendete, blieb er in einem Muster des Sexismus gegen weibliche Kandidaten stecken. Und da die für das Training verwendeten Daten irgendwann von Menschen erstellt wurden, bedeutet dies, dass der Algorithmus auch unerwünschte menschliche Eigenschaften wie Voreingenommenheit und Diskriminierung vererbt hat, die auch bei der Rekrutierung seit Jahren ein Problem darstellen.

Einige Algorithmen sind auch so konzipiert, dass sie vorhersagen und liefern, was die Benutzer sehen wollen. Dies zeigt sich typischerweise in Social Media oder in der Online-Werbung, wo den Nutzern Inhalte oder Werbung angezeigt werden, von denen ein Algorithmus glaubt, dass sie mit ihnen interagieren werden. Ähnliche Muster gibt es auch in der Personalbeschaffungsbranche.

Ein Personalvermittler berichtete, dass die KI bei der Suche nach Kandidaten über ein professionelles soziales Netzwerk gelernt habe, ihm Ergebnisse zu liefern, die den Profilen am ähnlichsten seien, mit denen er sich zunächst beschäftigt habe. Infolgedessen wurden ganze Gruppen von potenziellen Kandidaten systematisch vollständig aus dem Rekrutierungsprozess entfernt.

Verzerrungen treten jedoch auch aus anderen, nicht damit zusammenhängenden Gründen auf. Eine aktuelle Studie darüber, wie ein Algorithmus Anzeigen zur Förderung von STEM-Jobs lieferte, zeigte, dass Männer wahrscheinlicher waren, die Anzeige zu sehen, nicht weil Männer eher darauf klickten, sondern weil Frauen teurer zu werben waren. Da Unternehmen Anzeigen, die sich an Frauen richten, mit einer höheren Rate bewerten (Frauen treiben 70% bis 80% aller Konsumkäufe voran), entschied sich der Algorithmus dafür, Anzeigen mehr an Männer als an Frauen zu liefern, da er darauf ausgelegt war, die Anzeigenschaltung zu optimieren und gleichzeitig die Kosten niedrig zu halten.

Aber wenn ein Algorithmus nur Muster in den Daten widerspiegelt, die wir ihm geben, was seine Benutzer mögen, und das wirtschaftliche Verhalten, das in seinem Markt vorkommt, ist es nicht unfair, ihm die Schuld dafür zu geben, dass er unsere schlimmsten Attribute aufrechterhält? Wir erwarten automatisch, dass ein Algorithmus Entscheidungen ohne jegliche Diskriminierung trifft, wenn dies bei Menschen selten der Fall ist. Selbst wenn ein Algorithmus voreingenommen ist, kann es eine Verbesserung gegenüber dem aktuellen Status quo sein.

Um den vollen Nutzen aus der Nutzung von KI zu ziehen, ist es wichtig zu untersuchen, was passieren würde, wenn wir der KI erlauben würden, Entscheidungen ohne menschliches Zutun zu treffen. Eine Studie aus dem Jahr 2018 untersuchte dieses Szenario mit Kautionsentscheidungen unter Verwendung eines Algorithmus, der auf historischen kriminellen Daten basiert, um die Wahrscheinlichkeit einer Rückfälligkeit von Kriminellen vorherzusagen. In einer Projektion konnten die Autoren die Kriminalitätsraten um 25% senken und gleichzeitig die Diskriminierung von inhaftierten Häftlingen reduzieren.

Doch die in dieser Forschung hervorgehobenen Gewinne würden nur dann eintreten, wenn der Algorithmus tatsächlich jede Entscheidung treffen würde. Dies wäre in der realen Welt unwahrscheinlich, da die Richter wahrscheinlich lieber entscheiden würden, ob sie den Empfehlungen des Algorithmus folgen oder nicht. Selbst wenn ein Algorithmus gut konzipiert ist, wird er überflüssig, wenn man sich nicht auf ihn verlässt.

Viele von uns verlassen sich bereits auf Algorithmen für viele unserer täglichen Entscheidungen, von was sie auf Netflix sehen oder bei Amazon kaufen sollen. Aber die Forschung zeigt, dass Menschen das Vertrauen in Algorithmen schneller verlieren als Menschen, wenn sie sehen, dass sie einen Fehler machen, auch wenn der Algorithmus insgesamt besser abschneidet.

Wenn Ihr GPS beispielsweise vorschlägt, eine alternative Route zu verwenden, um Verkehr zu vermeiden, der länger dauert als vorhergesagt, werden Sie sich in Zukunft wahrscheinlich nicht mehr auf Ihr GPS verlassen. Aber wenn die Wahl der alternativen Route Ihre Entscheidung war, ist es unwahrscheinlich, dass Sie aufhören werden, Ihrem eigenen Urteil zu vertrauen. Eine Folgestudie zur Überwindung der Algorithmusaversion zeigte sogar, dass die Wahrscheinlichkeit, dass Menschen einen Algorithmus verwenden und seine Fehler akzeptieren, höher war, wenn sie die Möglichkeit hatten, den Algorithmus selbst zu modifizieren, auch wenn es bedeutete, ihn unvollkommen auszuführen.

Während Menschen schnell das Vertrauen in fehlerhafte Algorithmen verlieren könnten, neigen viele von uns dazu, Maschinen mehr zu vertrauen, wenn sie menschliche Eigenschaften haben. Nach Untersuchungen über selbstfahrende Autos, waren Menschen wahrscheinlicher, dem Auto zu vertrauen und glaubten, dass es besser funktionieren würde, wenn das erweiterte System des Fahrzeugs einen Namen, ein bestimmtes Geschlecht und eine menschlich klingende Stimme hätte. Wenn Maschinen jedoch sehr menschenähnlich werden, aber nicht ganz, finden die Menschen sie oft gruselig, was ihr Vertrauen in sie beeinträchtigen könnte.

Auch wenn wir das Bild, das Algorithmen von unserer Gesellschaft widerspiegeln können, nicht unbedingt schätzen, scheint es uns immer noch wichtig zu sein, mit ihnen zu leben und sie so aussehen und handeln zu lassen, wie wir. Und wenn das der Fall ist, können Algorithmen sicherlich auch Fehler machen?

Teilen Ist Liebe! ❤

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares