Computer haben keine Vorurteile … oder doch?

Der SAP-Firmenchef Bill McDermott hat kürzlich in einem Interview des Handelsblatt erklärt „Computer haben keine Vorurteile“. Aber stimmt das wirklich?

Zum Hintergrund: SAP möchte der führende Anbieter bei intelligenten Anwendungen für geschäftliche Software werden. Ein Beispiel wäre die Automatisierung des Personalwesens, wo Computer über geeignete Kandidaten befinden. So weit, so gut.

SAP ist nicht die erste Firma die künstliche Intelligenz und Maschine Learning für das Personalwesen anbieten möchte. Gerade amerikanische Firmen sind bereits kräftig im Geschäft. So möchte Google beispielhaft entsprechende Cloud-Dienst anbieten.

Die Idee klingt ja durchaus verlockend. Der menschliche Faktor wird zumindest reduziert und so ein Algorithmus sollte ja auch schön neutral eine Auswahl treffen können, unabhängig ob jemand alt oder jung, oder ob jemand ‚gut‘ oder ‚nicht so gut‘ aussieht. Könnte man damit nicht wunderbar völlig objektiv Bewerber ‚screenen‘ um die vielversprechendsten Potenziale zu identifizieren?

Der Algorithmus ist Rassist

Vor gut zwei Monaten hat der Spiegel einen Artikel mit dem Titel „Der Algorithmus ist Rassist“ veröffentlicht. Was war passiert?
Bei dem Schönheitswettbewerb ‚Beauty.AI‘ sollte eine künstliche Intelligenz die Sieger aussuchen und so ganz objektiv beurteilen. Es haben mehr als 6.000 Menschen aus über 100 Ländern teilgenommen und unter den 44 Gewinnern gab es keine einzige Person mit dunkler Hautfarbe.

Gab es unter all den 6.000 Menschen keine hübsche Person mit dunkler Hautfarbe? Bestimmt. Aber der Algorithmus hatte sie nicht ‚erkannt‘. Das Problem ist dabei nicht der Algorithmus an sich, dieser hat entsprechend seiner Parameter funktioniert. Das Problem war die Datengrundlage die zum Trainieren des Algorithmus verwendet wurde. Dies ist sicherlich nicht bösartig geschehen, aber die Auswirkung war – man könnte sagen – unerwartet.

‚Was der Bauer nicht kennt, ißt er nicht‘ sagt eine alte Weisheit und auch ein Algorithmus kann Schwierigkeiten haben, mit Daten zurechtzukommen für die er nicht vorbereitet ist. Nur ist Diversität nicht genau das was wir uns in diesem Fall wünschen?

Der Algorithmus bekommt Schnupfen

Im Jahr 2008 hat Google die Fachwelt mit einem ‚Google Flu Trends (GFT)‘ überrascht. Auf Basis von Google-Suchanfragen konnte Google teilweise 10 Tage vor dem CDC (Centers for Disease Control and Prevention) auf lokale Ausbrüche aufmerksam machen. Ärzte könnten sich dadruch schneller und besser vorbereiten. In einem von Google veröffentlichten Dokument wurde die Genauigkeit gegenüber der CDC-Daten mit 97% angegeben.

Doch nach nur zwei bis drei Jahren war es mit der Genauigkeit dahin und der Algorithmus musste angepasst werden. Hat das zuerst noch geholfen, nahm die Genauigkeit bald schon wieder ab. Doch warum?

In dem Wired-Artikel „What We Can Learn From the Epic Failure of Google Flu Trends“ kann nachgelesen werden, dass fehlerhafte Korrelationen ein Teil der Ursache war. Also das der Algorithmus dachte das bestimmte Suchbegriffe eine Rolle spielen, diese jedoch nur rein zufällig korrelierten. Auch war der Algorithmus anfällig auf Änderungen im Suchverhalten und in gewisser Weise war der Algorithmus ein Opfer seines eigenen Erfolges. Umso bekannter GFT wurde, desto mehr Leute haben sich für dieses Tool interessiert, und umso häufiger wurde danach gesucht, was der Algorithmus jedoch ‚falsch‘ interpretiert hatte.

Es ist ähnlich wie bei einem Echo und wie sehr uns dies selbst irritieren kann, so kann auch ein Algorithmus mit der Resonanz seines eigenen tuns nicht immer zurechtkommen.

Der Algorithmus wählt falsch

Keine Wahl in der Geschichte wurde so detailliert vermessen wie die letzte Presidentschaftswahl zwischen Hillary Clinton und Donald Trump. Bei keiner Wahl bisher wurden so viele Algorithmen eingesetzt um den Wahlausgang vorherzusagen. Mir ist keine Vorhersage bekannt die den Wahlausgang wirklich vorhergesagt hätte.

Warum die Vorhersagen so kollosal daneben gelegen haben wird sich noch zeigen müssen, jedoch ist auch davon auszugehen dass die Menschen damit begonnen haben ihre Absichten bewusst zu verschleiern und sich nicht in die Karten schauen lassen wollen. Es ist ein inzwischen bekanntes Phänomen in der Meinungsvorschung, dass besonders bei polarisierenden Themen einem Interviewer nicht immer die tatsächliche Meinung oder Absicht gesagt wird. Auch könnten bestimmte Bevölkerungsschichten schlechteren Zugang zu sozialen Mendien haben oder dann weniger (oder häufiger) ihre Meinung kund tun.

Es gibt viele Gründe warum ein Algorithmus eine falsche Vorhersage macht, eine bewusste Verschleierung kann jedoch durchaus auch eine Ursache sein.

Dem Algorithmus wird entgegen-optimieren

Ähnlich dem SEO (Search Engine Optimization), bei dem findige Leute versuchen herauszufinden wie man im Google-Ranking auf die vorderen Plätze kommt, wird es beim vermehrten Einsatz von Algorithmen in unserem Leben Menschen geben, die versuchen werden den Algorithmus zu besiegen. Denkbar wäre, dass die Menschen ihre Lebensläufe algorithmus-optimiert gestallten, um bessere Chancen zu erhalten ausgewählt zu werden.

Jede Bewegung verursacht ihre eigene Gegenbewegung. Werden Algorithmen für diese und ähnliche Situationen häufig genug eingesetzt, steigt zugleich auch der Druck sich zu optimieren, wodurch der eigentlichen Intention dieser Algorithmen eigentlich entgegengewirkt wird.

Der Algorithmus benötigt menschliche Moral

Ist der Einsatz von solchen Algorithmen nun schlecht und sollten wir darauf verzichten?
Nein. Künstliche Intelligenz ist in unserem Alltag angekommen und wir werden sie immer häufiger verwenden, um auch subjektive Entscheidungen zu treffen. Aber die immer komplexere Art und Weise wie künstliche Intelligenz genutzt wird, macht es immer schwerer sie zu verstehen und noch schwerer sie zu kontrollieren.

In einem viel beachteten TED-Talk über intelligente Maschinen und Algorithmen und auf welch überraschende Art und Weise sie versagen können, erläutert die Techno-Soziologin Zeynep Tufekci, „Wir können unsere Verantwortung nicht auf Maschinen auslagern. Wir müssen immer eng an menschlichen Werte und menschlicher Ethik festhalten.“

Es liegt an uns wie wir mit intelligenten Algorithmen umgehen wollen. In vielen Fällen werden sie uns auch helfen unser Leben besser zu gestalten. Aber wir müssen wachsam sein. Selbst wenn Algorithmen keine Vorurteile haben, der Einsatz dieser kann durchaus vorurteilsbasierend sein.

Warum der Olympiasieger 2016 die 100m der Herren in 9,55 Sekunden laufen wird

Mittlerweile sind die Olympischen Spiele in Rio in vollem Gang und viele Medaillen sind bereits vergeben. Als einer der ganz besonderen Höhepunkte der Olympischen Spiele gilt sicherlich der 100m-Lauf, bei dem der schnellste Mensch der Erde gekürt wird. Die große Frage ist sicherlich, ob nach 2008 und 2012 wieder Usain Bolt die Goldmedaille erhalten und – was die Siegzeit sein wird.

Dies bring uns nun zu der Frage, ob wir eine Chance haben vorherzusagen, mit welcher Zeit der schnellste Mensch die Goldmedaille gewinnen wird.

Eine Methode die wir dafür anwenden können ist die Lineare Regression. Alles was wir dafür brauchen sind ein paar Daten – zum Beispiel historische Daten der letzten Olympischen Spiele.

Jahr Sieger Nation Zeit (in Sekunden)
1896 Tom Burke (USA) 12.00
1900 Frank Jarvis (USA) 11.00
1904 Archie Hahn (USA) 11.00
1906 Archie Hahn (USA) 11.20
1908 Reggie Walker (SAF) 10.80
1912 Ralph Craig (USA) 10.80
1920 Charles Paddock (USA) 10.80
1924 Harold Abrahams (GBR) 10.60
1928 Percy Williams (CAN) 10.80
1932 Eddie Tolan (USA) 10.38
1936 Jesse Owens (USA) 10.30
1948 Harrison Dillard (USA) 10.30
1952 Lindy Remigino (USA) 10.40
1956 Bobby Morrow (USA) 10.50
1960 Armin Hary (GER) 10.20
1964 Bob Hayes (USA) 10.00
1968 Jim Hines (USA) 9.95
1972 Valeriy Borzov (URS) 10.14
1976 Hasely Crawford (TRI) 10.06
1980 Allan Wells (GBR) 10.25
1984 Carl Lewis (USA) 9.99
1988 Carl Lewis (USA) 9.92
1992 Linford Christie (GBR) 9.96
1996 Donovan Bailey (CAN) 9.84
2000 Maurice Greene (USA) 9.87
2004 Justin Gatlin (USA) 9.85
2008 Usain Bolt (JAM) 9.69
2012 Usain Bolt (JAM) 9.63

Es gibt keine Nation die so viele Sieger für den 100m-Wettbewerb der Männer hervorgebracht hat wie Amerika. Beeindruckende 17 Goldmedaillen gingen seit 1896 nach USA, gefolgt von 3 für England, jeweils zwei für Kanada und Jamaika und jeweils eine Goldmedaille für Deutschland, Sowjetunion (URS), Südafrika (SAF) sowie Trinidad und Tobago (TRI).

Aber schauen wir uns doch mal an wie sich die Zeiten seit 1896 entwickelt haben und ob wir vielleicht schon visuell eine Entwicklung sehen können

Siegzeit_100m_Olympia_1
Siegzeiten für die 100m der Herren bei Olympia seit 1896

 

Man kann an dem Graph sehr schön sehen, dass die Läufer über die Jahre immer schneller geworden sind. Es sieht in der Tat so aus, als würden sich die Markierungen entlang einer Linie bewegen. In der Mathematik wird eine lineare Funktion als
y = m * x + n dargestellt, wobei m für die Steigung der Geraden steht und n für die Stelle, an der die Gerade die y-Achse schneidet.

Bei einer linearen Regression wird die Funktion als Y = β0 + β1 * X dargestellt, wobei β1 für die Steigung der Geraden steht und β0 der y-Achsenabschnitt ist. Das Problem ist nur, dass wir sowohl β0 als auch β1 nicht kennen und wir somit ein wenig schätzen müssen. Was wir brauchen ist eine Art Optimierungs-Funktion. Eine sehr bekannte Funktion wird als ‚Methode der kleinsten Quadrate‘ bezeichnet, die anhand von vorgegebenen Datenpunkten (wie die Siegzeiten für die 100m Herren bei Olympia) die Gerade gesucht, die am Besten zu den Datenpunkten passt.

Ausgehend von den Datenpunkten und unter Anwendung der ‚Methode der kleinsten Quadrate‘ erhalten wir als Regressions-Funktion: Y = 36,408 – 0.0013 * X

Wenn wir für X nun das Jahr 2016 eingeben, erhalten wir als Siegzeit 9,55 Sekunden für den Olympia-Gewinner im 100m Finale der Herren.

Siegzeit_100m_Olympia_2
Siegzeit für die 100m der Herren inkl. Regressionsgerade

 

Aufgrund der Annahme, dass sich die Siegzeiten anhand einer linearen Funktion bewegen, würden wir auch zu dem Ergebnis kommen, dass im Jahre 0 ein Olympia-Gewinner noch 36,408 Sekunden gebraucht hätte und etwa im Jahr 2732 könnte sich der schnellste Mensch nahezu mit Lichtgeschwindigkeit bewegen.

Wir sehen also, dass die Annahme der Linearität nur unzureichend ist um die tatsächliche Entwicklung zu beschreiben, sie kann dennoch ausreichend genau sein, um damit eine ernsthafte Vorhersage zu treffen.

Nachtrag vom 15.08:
Gold für Usain Bolt. Als erster Athlet überhaupt hat Usain Bolt zum dritten mal eine Goldmedaille im 100m der Herren erhalten. Gratulation zu diesem einmaligen Erfolg.

Und wie haben wir nun mit unserer Vorhersage von 9,55 Sekunden gelegen? Nun – wir waren ein wenig daneben. Die offizielle Siegzeit liegt bei 9,81 Sekunden.

Bedeuted das, daß wir uns völlig verschätzt haben? Ja und Nein. Unter Einbeziehung des 95%-Konfidenzintervalls hatten wir eine zufriedenstellende Vorhersage. Das untere Konfidenzintervall lag bei 9,15 Sekunden und das obere bei 10,01 Sekunden. Allerdings ist das Konfidenzintervall auch nicht allzu schmal, wodurch sich auch eine gewisse Unsicherheit bezüglich der Vorhersage angedeutet hat.

Hätten wir den Wert von 1896 als Ausreisser betrachtet und ihn nicht mit einbezogen, wäre die Vorhersage 9,60 Sekunden gewesen und damit näher am tatsächlichen Ergebnis – wenn auch immer noch ‚daneben‘.

Unter Einbeziehung der 9,81 Sekunden in die Lineare Regression ändert sich auch die Regressionsgerade in: Y = 35,62 – 0,0129 * X wodurch sich für 2020 in Tokio eine Vorhersage von 9,52 Sekunden ergeben würde – Theoretisch.

Siegzeiten seit 1896 – inkl. der Siegzeit von 2016 sowie der geänderten Regressionsgerade und der damit verbundenen Vorhersage für 2020

Warum dieser Blog

Unternehmerisches Handeln bedeutet Entscheidungen zu treffen. Mit einer Entscheidung werden in aller Regel Ziele verfolgt. Um zielführende Entscheidungen treffen zu können benötigt es die richtigen Informationen. Die zum Entscheidungszeitpunkt vorliegenden Informationen können dabei unvollständig oder fehlerhaft sein. Durch unvollständige oder fehlerhafte Informationen ergeben sich Risiken.

Rosenkranz/Missler-Behr schreiben dazu in ihrem Buch „Unternehmensrisiken erkennen und managen: Einführung in die quantitative Planung„: „Unternehmerisches Handeln führt zu unternehmerischem Risiko oder erfolgt unter Risiko. Nach allgemeinem Verständnis hat dies etwas mit den unsicheren oder nicht genau prognostizierbaren Auswirkungen von Management-Entscheidungen oder den mit unternehmerischen Entscheidungen verbundenen Risiken zu tun.“ Helten beschreibt dabei Risiko als: „Informationsdefizit über das Erreichen von Zielen.“ (Helten E: Die Erfassung und Messung des Risikos. Reihe Versicherungsbetriebslehre Bd11, Gabler, Wiesbaden, 1994).

Wir haben es also in aller Regel mit unklaren Situationen zu tun und in der Entscheidungstheorie wird darunter auch die „Entscheidung unter Unsicherheit“ verstanden. In einem Artikel (Sicher, unsicher, ungewiss – eine kurze Klassifikation von Entscheidungssituationen) beschreibt Dr. Monika Setzwein typische Merkmale wodurch sich Unsicherheit bei Entscheidungen ergeben können:

  • Komplexität: Viele vernetzte Elemente stehen mit einander in Wechselbeziehungen.
  • Intransparenz: Man weiß nicht einmal, was man nicht weiß.
  • Dynamik: Dinge/Situationen ändern sich ständig.
  • Zeitdruck: Objektiv oder subjektiv besteht die Notwendigkeit zu entscheiden.

Entscheidung unter Unsicherheiten

Unter Entscheidungen unter Unsicherheit versteht man in der Entscheidungstheorie Situationen, in denen der Eintritt bzw. die Auswirkung von zukünftigen Umweltzuständen nicht mit Sicherheit vorausgesagt werden kann (im Gegensatz dazu stehen die Entscheidungen unter Sicherheit).

Dabei wird wiederum unterschieden ob die Eintrittswahrscheinlichkeit(en) eines Ereignisses oder mehrerer Ereignisse oder ob gar die Auswirkung(en) einer Entscheidung bekannt ist (bekannt sind).

  Eintrittswahrscheinlichkeit Auswirkung
Entscheidung unter Risiko Bekannt Bekannt
Entscheidung unter Ungewissheit Unbekannt Bekannt
Entscheidung unter vollkommener Unsicherheit (Knightsche Unsicherheit): Unbekannt Unbekannt

Unternehmerisches Handeln bedeutet somit nicht nur das Treffen von Entscheidungen, sondern auch das managen von Unsicherheiten und Risiken und letztendlich das minimieren von Unsicherheiten und Risiken durch eine gesteuerte Reduzierung des Informationsdefizits (von der Übernahme der Verantwortung für die getroffenen Entscheidungen gar nicht zu reden).

Im Unterschied zur klassischen Entscheidungstheorie bei der die Auswirkung der Entscheidung nur vom eigenen Handeln abhängt, werden in der Spieltheorie Entscheidungssituationen modelliert, in denen sich mehrere Beteiligte gegenseitig beeinflussen. Sie versucht dabei unter anderem, das rationale Entscheidungsverhalten in sozialen Konfliktsituationen davon abzuleiten.  Der Erfolg des Einzelnen hängt dabei nicht mehr nur vom eigenen Handeln, sondern auch von den Aktionen anderer ab.

Warum also der Blog „Data Driven Decisions„?

Meine persönliche Erfahrung ist, dass in der Unternehmenspraxis häufig Entscheidungen getroffen werden die nicht auf Basis von Fakten oder Daten beruhen. Sehr häufig ist noch nicht einmal bekannt welche Daten oder Fakten dazu im Unternehmen vorhanden sind oder ob die Daten, die als Grundlage für Entscheidungen genutzt werden, valide, vollständig oder überhaupt relevant sind.

Mit diesem Blog möchte ich dieses Thema adressieren und über Möglichkeiten, Methoden und deren Anwendung zu diskutieren.

In einem 2013 veröffentlichten Artikel „Data Science and its Relationship to Big Data and Data-Driven Decision Making,” von Foster Provost und Tom Fawcett wird ‚data-driven decision making‘ als Praxis bezeichnet, bei der Entscheidungen eher auf der Analyse von Daten als rein auf Intuition beruhen. Dabei wird Data Science als das Bindeglied zwischen Datenverarbeitenden Technologien (einschließlich Big Data) und ‚data-driven decision making‘ gesehen.

War es früher teuer und aufwändig Informationen und Daten zu erhalten oder zu speichern, sind uns nun Informationen überall zugänglich. Wir leben regelrecht in einem Informationsüberfluss. Eric Schmidt  hat dazu 2010 (zu dem Zeitpunkt CEO von Google) auf einer Techonomy-Konferenz angemerkt, dass wir heutzutage in zwei Tagen so viele Daten erzeugen, wie seit Anbeginn der Menschheit bis 2003 zusammen. Es geht hier um die schier unglaubliche Menge von 5 Exabyte Daten (entspricht einer Million Terabyte) die jeden Tag generiert werden. Und inzwischen dürfte dies sicherlich übertroffen werden. Law/Greenbacker/Eberhardt haben in ihrer Infographik „Do You Know Big Data?“ von 2014 festgehalten, dass jedes Jahr 5 Zettabyte an Internet-Traffic erzeugt wird. Die Herausforderung liegt also nicht mehr darin an Informationen heranzukommen, sondern den Daten Sinn und Struktur zu geben um sie verwertbar zu machen. Firmen wie Google und Facebook bauen darauf ihre Geschäftsgrundlage.

Themen wie Big Data, Data Science (die Extraktion von Wissen aus Daten), Machine Learning (Verfahren zum ‚erkennen‘ von Mustern und Gesetzmäßigkeiten), künstliche Neuronale Netze bzw. Deep Learning (als Abstraktion der Informationsverarbeitung bei denen die Nervenzellenvernetzung im Gehirn als Vorbild dient) sind erfolgreich praktizierte Mittel um der vom Mensch verursachten Datenflut Herr zu werden. Und diese Datenflut wird durch Themen wie Internet of Things (ioT) und durch Industrie 4.0 noch zusätzlich vergrößert. Laut Virgin Atlantic erzeugt dabei allein eine Boeing 787 ein halbes Terabyte Daten pro Flug. Diese ganzen Daten wären wertlos ohne geeignete Methoden diese auszuwerten und auf Unregelmäßigkeiten aufmerksam zu machen.

Neben der schieren Menge an Daten sind die Real-Daten mehrheitlich unstrukturiert und unsortiert (und damit mit bisherigen Methoden oft nicht verwendbar) oder die Daten liegen auf unterschiedlichen Informationsinseln und man hat Schwierigkeiten die Daten zusammenzubringen um sie gegeneinander und miteinander auswerten zu können.

Ist ‚Data Driven Decisions‘ das Allheilmittel?

Des Traynor spricht in seinem Artikel „The Problem with Data Driven Decisions“ diese Thematik an und kommt zu dem Schluss, dass es noch andere Perspektiven gibt die berücksichtigt werden müssen und das Daten alleine nie das einzige Mittel sein sollten.

Entscheidungstreiber

Oder besser gesagt – eine Perspektive alleine ohne Prüfung von anderen Perspektiven sollte uns nie zu einer Entscheidung führen. Letztendlich sind Daten nur ein Werkzeug und wie jedes Werkzeug gibt es nicht das eine das auf alle Problemstellungen passt. Darum gibt es ja so viele unterschiedliche Werkzeuge und die Kunst besteht darin, das richtige Werkzeug zur Richtigen Situation auszuwählen. Und damit sind wir wieder am Anfang und das unternehmerisches Handel bedeutet Entscheidungen zu treffen – auch die Entscheidung welchem Werkzeug wir für ein Problem verwenden wollen.