Googles Algorithmen sind sexistischer als die Gesellschaft

July 26, 2018 at 05:26PM safiya noble - Google News Googles Algorithmen sind sexistischer als die Gesellschaft

< !DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">

Wer schon mal Bilder von CEOs gegoogelt hat, kennt das Resultat: viele, viele Männergesichter. Alte, junge, glatzköpfige, weltbekannte. Erst wenn man nach unten scrollt, kommen ein paar Frauen zum Vorschein. Keine Merkel-Muttis, nein, sondern attraktive Powerladys. Klar, denkt man, es gibt nun mal weit mehr männliche CEOs. Und Frauen, die es ganz nach oben schaffen, stellt man sich gern jungdynamisch vor. Wo also ist das Problem?

Die Google-Resultate bilden nicht die Realität ab. Inzwischen konnten mehrere Studien belegen: Internetnutzer werden von Suchmaschinen manipuliert. Die Resultate suggerieren nicht nur falsche Tatsachen. Sie verstärken ­darüber hinaus Vorurteile, ohne dass es die Nutzer merken. Oder anders gesagt: Google-Treffer sind sexistischer und rassistischer, als es unsere heutige Gesellschaft tatsächlich ist.

Was die Bilder von CEOs betrifft, erscheinen in den Google-Resultaten nur 11 Prozent weib­liche Chefs, obwohl ihr realer Anteil in den USA bei 27 Prozent liegt, wie eine Untersuchung der University of Washington ergab. Ähnlich verzerrte Ergebnisse lieferte Google bei Callcenter-Mitarbeitern. 64 Prozent der Bilder zeigten Frauen, obwohl im wahren Leben etwa gleich viele Männer wie Frauen am Telefon sitzen.

Wie das? Schuld daran sind selbstlernende Algorithmen, die bestimmen, welche Suchergeb­nisse wir angezeigt bekommen. Entgegen landläufigen Annahmen sind solche mathematischen Codes alles andere als objektiv und neutral.

Männer in der Küche werden als Frauen klassifiziert

Sie lernen anhand von Milliarden Bildern, Texten und Videos aus dem Internet, wie unsere Welt funktioniert. Wenn ein Algorithmus viele Bilder und Texte findet, in denen «Frau» und «Küche» häufig gemeinsam vorkommen, erkennt er darin ein Muster. Bloss: Im Internet gibt es auch historische Daten, die das Ergebnis verfälschen, wenn man von heutigen Verhältnissen ausgeht. Die Folge: Suchmaschinen-Ergebnisse zementieren Klischees.

Im Gegensatz zu Menschen ist ein Programm nicht in der Lage, erlernte Vorurteile zu erkennen, geschweige denn selbst zu korrigieren. Das können nur seine Entwickler. Allerdings sind auch sie befangen. Die überwältigende Mehrheit der IT-Entwickler sind weisse und asiatische Männer. Selbstverständlich sind sie nicht alle Sexisten oder Rassisten. Aber sie orientieren sich automatisch an ihrer eigenen Lebensrealität, wenn sie programmieren. Und das bedeutet auch, dass sie – ganz ohne böse Absicht – blind sind für Anliegen, die sie selbst nicht betreffen, die aber für andere von Bedeutung sind.

So ist vor zwei Jahren einem ­Informatikprofessor an der University of Virginia eher zufällig aufgefallen, dass seine Bilderkennungssoftware die Küche immer mit Frauen assoziierte. War er etwa ein Sexist? Die Sache liess ihm keine Ruhe, weshalb er gemeinsam mit Kollegen eine Untersuchung lancierte. Und siehe da: Bildsammlungen, darunter jene von Microsoft und Facebook, die häufig zum Trainieren von selbstlernenden ­Algorithmen eingesetzt werden, zeigten einen signifikanten Verzerrungseffekt: Auf Bildern mit Koch-, Shopping- und Waschszenen kamen primär Frauen vor, bei Sport und Schiessen hingegen Männer. Die Software hat diese Stereotype unhinterfragt übernommen – und ad absurdum verstärkt: Auch wenn Männer auf den Küchenbildern zu sehen waren, wurden sie von der Software als Frauen klassifiziert.

Google ergänzt Klischees automatisch

Das Beispiel mag amüsieren. Genauso wie der Lapsus, der 2015 Google unterlief, als sein Fotodienst dunkelhäutige Männer mit Gorillas verwechselte. Doch «dumme» Algorithmen sind nicht wirklich zum Lachen. Sie sind fatal, weil sie bestimmen, wie sich uns die Welt darstellt. Sie entscheiden darüber, welche Facebook-Newsfeeds und Shoppingvorschläge wir erhalten. Suchmaschinen wählen für uns aus, welche Infos sie für relevant halten. Ja, sie vervollstän­digen gar unsere Suchabfragen. Gibt man etwa «Frauen müssen . . .» ein, ergänzt Google «Röcke tragen». Das Problem dabei: Egal, wie klischiert, etwas bleibt unbewusst immer hängen. Je öfter Behauptungen und Fake News wiederholt werden, desto wahrer scheinen sie.

Einige Wissenschaftler haben die Tragweite dieses Verzerrungs­effekts erkannt. Eine von ihnen ist Safiya Umoja Noble. Sie erforscht an der University of Southern California, wie sich uns anhand des Internets die Welt erschliesst. In ihrem aktuellen Buch «Algorithms of Oppression» (Algorithmen der Unterdrückung) kommt sie zum Schluss, dass ausgerechnet Suchmaschinen, die heute zu den wichtigsten Informationsquellen zählen, diskriminierend sind.

Bei «black girl» erscheinen viele pornografische Inhalte

«Die Google-Suche ist sehr praktisch, wenn man einfache Informationen holen will, zum Beispiel ‹Wo ist der nächste Starbucks?›. Aber sobald man Wissen über komplexe Zusammenhänge sucht, die mit Wertungen und Vorurteilen behaftet sind, versagt Google kläglich», lässt sich Noble im News-Bulletin ihrer Uni zitieren. So fand sie zum Beispiel heraus, dass weisse Frauen auf Google anders repräsentiert werden als schwarze. Der Begriff «white girl» brachte differenzierte Treffer, bei «black girl» und «asian girl» tauchten primär pornografische Inhalte auf. Der Algorithmus gibt einfach wieder, was er am häufigsten findet. Dass das Ergebnis ethisch und moralisch verwerflich ist, merkt er nicht. Und diejenigen bei Google, die es merken sollten, kümmert es offenbar nicht.

Besonders brisant findet ­Noble, dass im Internet Vorurteile versteckt wirken. «Wenn mich ein Algorithmus als kreditunwürdig einstuft, weil in meinem Social-Media-Netzwerk einige meiner Freunde Schulden haben, werde ich das nie erfahren», so Noble. Oder anders gesagt: Ohne ihr Wissen und ohne Abgleich mit der Realität hat sie der Algorithmus in eine Kategorie gesteckt, die zu ihrem Nachteil ist. Das Ausmass solcher versteckter Entscheidungen nimmt schon fast unheimliche Dimensionen an. Etwa dann, wenn Google Männern mehr gut bezahlte Jobangebote vorschlägt als Frauen, wie Forscher der Carnegie Mellon University in Pittsburgh belegen konnten.

In ihrer Studie von 2015 konnten sie unter anderem aufzeigen, dass der Algorithmus aufgrund des Nutzerverhaltens gelernt hat, dass Männer häufiger nach gut bezahlten Kaderjobs suchen als Frauen; also bekommen Männer auch mehr davon zu sehen. Die Software trifft eine völlig unzulässige Vorauswahl. Im realen Leben könnte man sich gegen eine solche Diskriminierung wehren, man könnte sie einklagen. «Derzeit haben wir aber keine juristischen Mittel, um gerichtlich gegen Algorithmen vorzugehen, wenn sie uns in falsche Kategorien stecken», sagt Noble.

In der IT sollten Frauen von Beginn weg mitgestalten

Manche Forscher sind sogar der Überzeugung, dass sie uns in Gewinner und Verlierer einteilen. Zum Beispiel bei Anstellungsprozessen, die immer mehr durch ­Algorithmen bestimmt werden. Bringen Letztere den Beruf «Programmierer» eher mit Männern in Verbindung, werden sie auch eher nach Männern suchen, wenn sie online nach geeigneten Bewerbern Ausschau halten. Diskriminierung lässt sich zwar auch im Nachhinein korrigieren, indem man Daten und Programme optimiert. Und das passiert auch laufend. Gab man vor einigen Jahren «Thailand» in Google ein, poppten Bilder von jungen Thai-Prostituierten auf. Heute erscheinen touristische Landschaftsbilder, wie das bei anderen Ländern der Fall ist.

Dieser Korrekturprozess würde jedoch beschleunigt, wenn unter den IT-Entwicklern mehr Diver­sität herrschte. Laut Berufswahlstatistiken interessieren sich allerdings nach wie vor nur wenige Frauen für diese Jobs. Ein Fehler, findet Trendforscherin Karin Frick vom Gottlieb-Duttweiler-Institut in Rüschlikon ZH. «Solange Frauen ein ganzes Berufsfeld Männern überlassen, können sie bloss im Nachhinein reklamieren, dass Suchmaschinen sexistisch sind.» Es wäre weit effektiver, wenn Frauen bereits den Entwicklungsprozess mitgestalten würden.

Man könnte Algorithmen aber auch anders zu politischer Korrektheit zwingen. «Heute braucht jeder Toaster eine Zulassung, aber wir haben keine unabhängige Stelle, die selbstlernende Algorithmen auf ihre ethische Tauglichkeit prüft», moniert Frick. Gerade in relevanten Bereichen wie Beruf oder Bildung sollten die Entwickler beweisen müssen, dass ihre Programme fair sind. Denn solange uns das Internet als vermeintlich modernste Technik tagtäglich Klischees serviert, bleiben die Gleichstellungsbemühungen im realen Alltag weitgehend wirkungslos.

* Dieser Artikel erschien erstmals am 15. Juli 2018 in der SonntagsZeitung.

(SonntagsZeitung)

Erstellt: 17.07.2018, 16:52 Uhr

This site uses Akismet to reduce spam. Learn how your comment data is processed.