Der gläserne Mensch

Wenn Menschen anhand ihrer Zahlen durchleuchtet werden

Die Digitalisierung beruht auf einem kybernetischen Menschen- und Weltbild, nach dem alles gemessen und geregelt werden kann. Sie verspricht, dass uns die Messungen und deren Auswertungen dazu verhelfen, uns zu optimieren, sei es im sportlichen Bereich, im persönlichen Zeitmanagement oder in Produktionsabläufen. Uns stehen mittlerweile enorme Datenmengen zur Verfügung über die wir Verhaltensmuster und Denkprozesse von Menschen nachvollziehen oder sogar vorhersehen könnten. Viele Künstliche Intelligenzen benutzen bereits historische Daten, beispielsweise im Recruiting, um Prognosen zu erstellen, welche Kandidaten geeignet sind.

Die Ansammlung unserer Daten führt dazu, dass wir komplett durchleuchtet werden können und alles, was wir tun transparent ist – wir zu gläsernen Menschen werden. Dieser häufig negativ konnotierte Begriff kommt häufig in Diskussionen zum Datenschutz auf. Unabhängig davon, wie Gesetzesgeber diese Frage behandeln möchten wir uns mit der Frage beschäftigen, inwiefern diese Daten zu Vermessung und Leistungskennzahl von Menschen dienen können.

 

Kann die Komplexität eines Menschen digital abgebildet werden?

Bei großen Programmen oder im Bereich des Gamings werden zwar hoch komplexe Themen abgebildet, jedoch ist das Ergebnis immer noch eine Basis von Nullen und Einsen mit einer vordefinierten Logik. Diese Logik wird auf bestimmten, Prämissen aufgebaut, die wir aus dem Verhalten des Menschen ziehen. Was Maschinen aufzeichnen können ist nur Verhalten, Aktionen und Ausführungen – das, was wir als die Außenkante des Menschen bezeichnen. Das, was außerhalb abläuft und auch auf einem Video festgehalten werden könnte. Aber das ist nur ein kleiner Teil dessen, was wir sind. Die internen Denkprozesse, Emotionen und Reflexe sind bisher noch nicht wissenschaftlich messbar und können daher auch nicht auf Maschinen übertragen werden. Denn letztendlich ist ein Programm nur eine Abbildung der Realität, die er aus den ihm zu Verfügung stehenden Daten zieht.

 

Warum sollte der Mensch nicht digital abbildbar sein?

Verhalten ohne Motivation kann nicht bewertet werden. Etwas, das über Digitalisierung ebenfalls nicht erfasst und berechnet werden kann, ist das, was zwischen Reiz und Reaktion liegt: nämlich die Interpretation und die Motivation des Individuums. Dies ist ein zutiefst subjektives Thema, das zudem ständigen kleineren und größeren Schwankungen unterlegen ist, die nicht digital erfasst werden können.

Ähnlich, wie es nicht gelingen will, Emotionen digital abzubilden. Was man mit modernen, bildgebenden Verfahren in der Neurologie sichtbar und messbar machen kann, sind das Arousal, also die Erregung einer bestimmten Region im Gehirn und das vermehrte Feuern von Neuronen in dieser Region. Dieses Arousal ist aber das gleiche, ob man nun verliebt ist oder ob man ängstlich ist. Doch subjektiv besteht doch ein erheblicher Unterschied zwischen beiden Gefühls-Zuständen. Zeigt also, dass die Interpretation des Arousal wesentliche Rolle spielt und nicht digitalisiert werden kann. Menschen aber brauchen die Interpretation dessen, was passiert. Und wir liefern ihnen ein tieferes Verständnis uns die Einordnung ihres Erlebens.

 

Wenn menschliches Verhalten auf Programme übertragen wird

 

Amazon’s Recruitung Software

Ein solches Phänomen hat sich letztes Jahr in einer Recruiting Software von Amazon gezeigt. Das Ziel der Software war, den menschlichen Recruiter zu ersetzen, indem eine künstliche Intelligenz, die Lebensläufe, der in den letzten 10 Jahren eingestellten Mitarbeiter analysiert. Daraus sollte ein Programm entstehen, dass Lebensläufe automatisch scannt und nach bestimmten Kriterien aussiebt, bis die Top 5 gefunden sind. Der Haken an diesem Vorgehen war, dass die analysierten Daten ein großes Gender Gap aufwiesen. Wie in der Technologiebranche üblich, weißt auch Amazon eine hohe männliche Bewerberzahl auf. Die künstliche Intelligenz übernahm aus den historischen Daten die Logik, dass „Frau“ im Lebenslauf als negativ bewertet wurde. Dies wurde versucht zu beheben, jedoch konnte nicht ausgeschlossen werden, dass die Software in anderen Bereichen diskriminieren könnte. Letztendlich entschied sich Amazon dieses Projekt nicht weiter zu verfolgen.[i] Da Unternehmen mittlerweile teilweise keine Bewerbungsbilder mehr annehmen um Diskriminierung zu vermeiden, wäre es undenkbar nun eine solche Künstliche Intelligenz einzusetzen.

 

Apple’s Kreditkarte

Ein ähnliches Szenario zeigte sich im November 2019 mit Apple’s Kreditkarte, die im August auf den Markt kam. Ein Softwareingeneur postete kurz danach auf Twitter, dass seine Frau eine kleinere Ausgabegrenze bekam – um das 20fache. Auf Nachfrage wurde dem Ehepaar mitgeteilt, dass die Grenze von einem Algorithmus bestimmt wird. Da das Ehepaar keine finanzielle Trennung seiner Vermögenswerte vornimmt erschien es ihnen jedoch als seltsam, dass die Grenze unterschiedlich hoch war. In diesem Fall ist jedoch noch unklar, ob eine KI eingesetzt wurde und inwiefern sie Vorurteile anwendet. Der Fall wird jetzt von den US Behörden untersucht. [ii]

Diese beiden Fälle zeigen deutlich, die Grenzen von künstlichen Intelligenzen (KI) und maschinellem Lernen. Die Auswertung von historischen Daten kann zu Handlungsregeln führen, die für die KI logisch erscheinen, jedoch mit ethischen Grundsätzen nicht immer vereinbar sind oder zumindest darüber streitbar ist.

 

Welche Rollen werden Künstliche Intelligenzen in der Zukunft spielen?

Künstliche Intelligenzen sind zwar Meister im Prognosen erstellen, Produktionsprozesse und Verkehrsflüsse verbessern, aber sind mit vielen Fehlannahmen verbunden (die durch Hollywood bestärkt werden). Wir müssen das Bild, der intelligenten KI ablegen, die den Menschen komplett ersetzen kann. Denn allein der Mensch ist fähig, den Kontext in dem die KI arbeitet zu erkennen. Über unser Wertesystem zu entscheiden und die Fähigkeit zu Fühlen und Wahrzunehmen wird auch in der Zukunft noch in unserer Hand liegen.

 

Quellen


[i] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

[ii] https://qz.com/1748321/the-role-of-goldman-sachs-algorithms-in-the-apple-credit-card-scandal/

Brauchen Sie Unterstützung mit der Personalentwicklung?

Kontaktieren Sie uns für ein erstes Kennenlernen

Kontakt aufnehmen

Das könnte Sie auch interessieren

In der Höhle des Löwen

In der Höhle des Löwen „Uff“, denkt Martin „noch mehr schlechte Infos und Horrornachrichten und das geht schon seit Tagen so. Hört das eigentlich irgendwann auch mal [...]