Computer haben keine Vorurteile … oder doch?

Der SAP-Firmenchef Bill McDermott hat kürzlich in einem Interview des Handelsblatt erklärt „Computer haben keine Vorurteile“. Aber stimmt das wirklich?

Zum Hintergrund: SAP möchte der führende Anbieter bei intelligenten Anwendungen für geschäftliche Software werden. Ein Beispiel wäre die Automatisierung des Personalwesens, wo Computer über geeignete Kandidaten befinden. So weit, so gut.

SAP ist nicht die erste Firma die künstliche Intelligenz und Maschine Learning für das Personalwesen anbieten möchte. Gerade amerikanische Firmen sind bereits kräftig im Geschäft. So möchte Google beispielhaft entsprechende Cloud-Dienst anbieten.

Die Idee klingt ja durchaus verlockend. Der menschliche Faktor wird zumindest reduziert und so ein Algorithmus sollte ja auch schön neutral eine Auswahl treffen können, unabhängig ob jemand alt oder jung, oder ob jemand ‚gut‘ oder ‚nicht so gut‘ aussieht. Könnte man damit nicht wunderbar völlig objektiv Bewerber ‚screenen‘ um die vielversprechendsten Potenziale zu identifizieren?

Der Algorithmus ist Rassist

Vor gut zwei Monaten hat der Spiegel einen Artikel mit dem Titel „Der Algorithmus ist Rassist“ veröffentlicht. Was war passiert?
Bei dem Schönheitswettbewerb ‚Beauty.AI‘ sollte eine künstliche Intelligenz die Sieger aussuchen und so ganz objektiv beurteilen. Es haben mehr als 6.000 Menschen aus über 100 Ländern teilgenommen und unter den 44 Gewinnern gab es keine einzige Person mit dunkler Hautfarbe.

Gab es unter all den 6.000 Menschen keine hübsche Person mit dunkler Hautfarbe? Bestimmt. Aber der Algorithmus hatte sie nicht ‚erkannt‘. Das Problem ist dabei nicht der Algorithmus an sich, dieser hat entsprechend seiner Parameter funktioniert. Das Problem war die Datengrundlage die zum Trainieren des Algorithmus verwendet wurde. Dies ist sicherlich nicht bösartig geschehen, aber die Auswirkung war – man könnte sagen – unerwartet.

‚Was der Bauer nicht kennt, ißt er nicht‘ sagt eine alte Weisheit und auch ein Algorithmus kann Schwierigkeiten haben, mit Daten zurechtzukommen für die er nicht vorbereitet ist. Nur ist Diversität nicht genau das was wir uns in diesem Fall wünschen?

Der Algorithmus bekommt Schnupfen

Im Jahr 2008 hat Google die Fachwelt mit einem ‚Google Flu Trends (GFT)‘ überrascht. Auf Basis von Google-Suchanfragen konnte Google teilweise 10 Tage vor dem CDC (Centers for Disease Control and Prevention) auf lokale Ausbrüche aufmerksam machen. Ärzte könnten sich dadruch schneller und besser vorbereiten. In einem von Google veröffentlichten Dokument wurde die Genauigkeit gegenüber der CDC-Daten mit 97% angegeben.

Doch nach nur zwei bis drei Jahren war es mit der Genauigkeit dahin und der Algorithmus musste angepasst werden. Hat das zuerst noch geholfen, nahm die Genauigkeit bald schon wieder ab. Doch warum?

In dem Wired-Artikel „What We Can Learn From the Epic Failure of Google Flu Trends“ kann nachgelesen werden, dass fehlerhafte Korrelationen ein Teil der Ursache war. Also das der Algorithmus dachte das bestimmte Suchbegriffe eine Rolle spielen, diese jedoch nur rein zufällig korrelierten. Auch war der Algorithmus anfällig auf Änderungen im Suchverhalten und in gewisser Weise war der Algorithmus ein Opfer seines eigenen Erfolges. Umso bekannter GFT wurde, desto mehr Leute haben sich für dieses Tool interessiert, und umso häufiger wurde danach gesucht, was der Algorithmus jedoch ‚falsch‘ interpretiert hatte.

Es ist ähnlich wie bei einem Echo und wie sehr uns dies selbst irritieren kann, so kann auch ein Algorithmus mit der Resonanz seines eigenen tuns nicht immer zurechtkommen.

Der Algorithmus wählt falsch

Keine Wahl in der Geschichte wurde so detailliert vermessen wie die letzte Presidentschaftswahl zwischen Hillary Clinton und Donald Trump. Bei keiner Wahl bisher wurden so viele Algorithmen eingesetzt um den Wahlausgang vorherzusagen. Mir ist keine Vorhersage bekannt die den Wahlausgang wirklich vorhergesagt hätte.

Warum die Vorhersagen so kollosal daneben gelegen haben wird sich noch zeigen müssen, jedoch ist auch davon auszugehen dass die Menschen damit begonnen haben ihre Absichten bewusst zu verschleiern und sich nicht in die Karten schauen lassen wollen. Es ist ein inzwischen bekanntes Phänomen in der Meinungsvorschung, dass besonders bei polarisierenden Themen einem Interviewer nicht immer die tatsächliche Meinung oder Absicht gesagt wird. Auch könnten bestimmte Bevölkerungsschichten schlechteren Zugang zu sozialen Mendien haben oder dann weniger (oder häufiger) ihre Meinung kund tun.

Es gibt viele Gründe warum ein Algorithmus eine falsche Vorhersage macht, eine bewusste Verschleierung kann jedoch durchaus auch eine Ursache sein.

Dem Algorithmus wird entgegen-optimieren

Ähnlich dem SEO (Search Engine Optimization), bei dem findige Leute versuchen herauszufinden wie man im Google-Ranking auf die vorderen Plätze kommt, wird es beim vermehrten Einsatz von Algorithmen in unserem Leben Menschen geben, die versuchen werden den Algorithmus zu besiegen. Denkbar wäre, dass die Menschen ihre Lebensläufe algorithmus-optimiert gestallten, um bessere Chancen zu erhalten ausgewählt zu werden.

Jede Bewegung verursacht ihre eigene Gegenbewegung. Werden Algorithmen für diese und ähnliche Situationen häufig genug eingesetzt, steigt zugleich auch der Druck sich zu optimieren, wodurch der eigentlichen Intention dieser Algorithmen eigentlich entgegengewirkt wird.

Der Algorithmus benötigt menschliche Moral

Ist der Einsatz von solchen Algorithmen nun schlecht und sollten wir darauf verzichten?
Nein. Künstliche Intelligenz ist in unserem Alltag angekommen und wir werden sie immer häufiger verwenden, um auch subjektive Entscheidungen zu treffen. Aber die immer komplexere Art und Weise wie künstliche Intelligenz genutzt wird, macht es immer schwerer sie zu verstehen und noch schwerer sie zu kontrollieren.

In einem viel beachteten TED-Talk über intelligente Maschinen und Algorithmen und auf welch überraschende Art und Weise sie versagen können, erläutert die Techno-Soziologin Zeynep Tufekci, „Wir können unsere Verantwortung nicht auf Maschinen auslagern. Wir müssen immer eng an menschlichen Werte und menschlicher Ethik festhalten.“

Es liegt an uns wie wir mit intelligenten Algorithmen umgehen wollen. In vielen Fällen werden sie uns auch helfen unser Leben besser zu gestalten. Aber wir müssen wachsam sein. Selbst wenn Algorithmen keine Vorurteile haben, der Einsatz dieser kann durchaus vorurteilsbasierend sein.