Vorurteile der KI

Eine gesellschaftliche Herausforderung, die alle betrifft
©207493167 - stock.adobe.com

Menschliche Voreingenommenheit (Kognitive Verzerrung), gegenüber Künstlicher Intelligenz wird auch als „human bias“ beschrieben und ist kein neues Phänomen. Es lassen sich viele Forschungsarbeiten zu diesem Thema finden und die Problematik ist den meisten durchaus bewusst. Aber was lässt an den Maschinen zweifeln? Diese sollten doch rational und einfach auf der Grundlage von Daten entscheiden, oder? Ein System kann nicht auf alle Daten der Welt zugreifen, sondern ist auf die ausgewählten Daten angewiesen, die der Mensch dem Algorithmus vorlegt. Was passiert, wenn diese Daten falsch oder nicht ausreichend sind? Selbstlernende Systeme werden – unbewusst – zu einem Abbild der Gesellschaft.

Die Netflix-Dokumentation „Coded Bias“ (2020) wirft die Diskussion über die Diskriminierung von Systemen mit künstlicher Intelligenz (KI) erneut auf. Ein KI-Algorithmus kann nur „lernen“, was ihm „beigebracht“ wird. Das bedeutet, dass die Vorhersagen auf den Daten beruhen, welche das System von Menschen erhält. In dem Film erzählt die Regisseurin Shalini Kantayya von den Erfahrungen der Informatikerin Joy Buolamwini vom Massachusetts Institute of Technology (MIT) mit einem KI-System, das nicht in der Lage war, ihr Gesicht aufgrund der dunklen Hautfarbe zu erkennen. Stattdessen funktionierte die Software perfekt, als sie eine weiße Maske aufsetzte. Joy fand heraus, dass die Software auf der Grundlage von Daten hauptsächlich kaukasische (hellhäutiger) Gesichter konzipiert und entwickelt wurde. Diese Voreingenommenheit und kognitive Verzerrung von KI-Systemen führen zu falschen Ergebnissen oder in diesem Fall zu gar keinen Ergebnissen. Sie erklärt, dass es sich nicht um ein technisches Problem handelt – kein Programmierer hat schlechte Arbeit geleistet: Es ist ein soziales Problem. Das System selbst ist nicht rassistisch, es entscheidet einfach mathematisch, aber es kann nur die Daten aus der realen Welt verarbeiten und analysieren, die es erhält.

Die KI-Forscherin Meredith Broussard stellt fest, dass nur 14 % der Personen, die KI-Systeme entwickeln, weiblich sind. Außerdem berücksichtigen Unternehmen, die derzeit auf dem KI-Markt führend sind, bei ihrer Entwicklung keine ethischen Aspekte (Deutschland gehört übrigens nicht zu den Vorreitern) [1]. Adrian Daub sieht das Problem der geschlechtsspezifischen Vorurteile (geschlechtsbezogener Verzerrungseffekt) auch in der Tech-Industrie, insbesondere im Silicon Valley. Das Silicon Valley ist für viele Unternehmen ein Vorbild – Firmen imitieren die Arbeitsplatzgestaltung, die Sprache, die Standards – und beeinflussen die Art und Weise, wie sie Geschäfte abwickeln und Erfolg generieren, insbesondere in der Technologiebranche. Adrian lenkt die Aufmerksamkeit auf eine Norm, die unsere Geschäftswelt und Gesellschaft auf problematische Weise prägt: die Verbindung von Arbeit und Wert. In der Tech-Industrie werden Männer mit der harten, technischen „Kern“-Arbeit in Verbindung gebracht, während Frauen, selbst bei gleicher Qualifikation, in Führungspositionen gedrängt werden, die angeblich keine besonderen Fähigkeiten erfordern [3].

Laut VentureBeat hat eine Studie der Columbia University ergeben, dass „je homogener das (Ingenieur-)Team ist, desto wahrscheinlicher ist es, dass ein bestimmter Vorhersagefehler auftritt“ [5]. Kein Wunder, dass die meisten Menschen, die über dieses Thema berichten, Randgruppen sind, insbesondere nicht-weiße Frauen – die von solchen Vorurteilen betroffen sind. Die Dokumentation „Coded Bias“ kommt zu dem Schluss, dass Vorurteile und kognitive Verzerrungen die Gesellschaft schleichend verändern.

Die Digitalisierung schreitet voran, und die meisten Menschen nehmen neue Technologien dankbar an – sie machen die Dinge einfacher und schneller. Doch die Auswirkungen auf die Gesellschaft geschehen oft unbewusst und werden meist zu spät erkannt. Das Trainieren von KI-Systemen mit verzerrten Daten verfestigt zum einen den Status quo einer Gesellschaft und verhindert damit jede Art von Veränderung, die gesellschaftliche und politische Initiativen anstreben. Andererseits werden dadurch sogar bisherige Fortschritte rückgängig gemacht und Verzerrungen skaliert [1].

Manchmal bedeutet der Respekt vor dem Menschen, dass man sicherstellt, dass seine Systeme inklusiv sind, wie im Fall der Nutzung von KI für die Präzisionsmedizin, manchmal bedeutet es, dass man die Privatsphäre der Menschen respektiert, indem man keine Daten sammelt, und es bedeutet immer, dass man die Würde des Einzelnen respektiert.
– Joy Buolamwini

Nicolas Kayser-Bril von AlgorithmWatch hat kürzlich ein weiteres bemerkenswertes Experiment durchgeführt. Er fand heraus, dass Google Translate in vielen Übersetzungsprozessen das Geschlecht verschluckt. Der Grund dafür ist, dass der Algorithmus Übersetzungen für das Englische optimiert und das Englische am häufigsten als Brücke für andere Sprachen verwendet wird. Das heißt, wenn ein englisches, geschlechtsneutrales Wort in eine geschlechtsspezifische Sprache übersetzt wird, bleibt der Algorithmus oft bei dem stereotypischen Geschlecht stehen.

Siehe folgende Beispiele:


Nicolas ist der Meinung, dass die Google-Funktion, die bei der Übersetzung aus dem Englischen darauf hinweist, dass einige Wörter geschlechtsspezifisch sein könnten, nicht gut ausreichend funktioniert, und da Google Translate standardmäßig in den weit verbreiteten Chrome-Browser integriert ist, sind vermutlich viele Menschen von den falschen Übersetzungen betroffen, vielleicht unwissentlich [2].

Menschen zu enttarnen ist schwieriger als KI-Systeme zu enttarnen. 
– Olga Russakovsky, Princeton [7]

Es gibt keine schnelle Lösung für die Verzerrungen in KI Systemen. Zunächst einmal werden repräsentative Trainingsdaten benötigt. Wenn ein System mit ebenso vielen Beispielen dunkler wie heller Hautfarbe, mit ebenso vielen männlichen wie weiblichen Beispielen trainiert wird, gleicht der Algorithmus dies aus und verbessert seine Funktionalität. Zweitens gibt es technische Möglichkeiten, um Fairness in der Programmierung zu gewährleisten, z. B. durch die Forderung, dass Modelle für verschiedene Gruppen den gleichen Vorhersagewert haben müssen. Die kontrafaktische Fairness ist ein vielversprechender Ansatz für KI-Entscheidungen unabhängig von bestimmten Merkmalen wie dem Geschlecht. Die größte Herausforderung besteht jedoch darin, zu bestimmen, was Fairness eigentlich bedeutet [4]. Dies ist eine Frage der digitalen Ethik. Unternehmen stehen in der Verantwortung, mit wissenschaftlichen Forschungs- und Regierungsorganisationen zusammenzuarbeiten, um die KI-Voreingenommenheit zu minimieren, denn der grundlegende Wandel der Digitalisierung findet auf gesellschaftlicher Ebene statt [6]. Durch die Entwicklung und Umsetzung dieses Denkens hat die KI das Potenzial, faire, integrative und allumfassende Entscheidungen zu treffen – besser als Menschen es könnten. „KI kann Menschen bei Vorurteilen helfen – aber nur, wenn Menschen zusammenarbeiten, um Vorurteile in der KI zu bekämpfen.“[4].


Quellen
[1] sueddeutsche.de/kultur/coded-bias-netflix-doku-1.5268189
[2] algorithmwatch.org/en/google-translate-gender-bias
[3] thenation.com/article/society/gender-silicon-valley
[4] hbr.org/2019/10/what-do-we-do-about-the-biases-in-ai
[5] venturebeat.com/2020/12/09/columbia-researchers-find-white-men-are-the-worst-at-reducing-ai-bias
[6] forbes.com/sites/forbestechcouncil/2021/02/04/the-role-of-bias-in-artificial-intelligence/?sh=3adaa260579d
[7] wired.com/story/ai-biased-how-scientists-trying-fix

Total
0
Shares
Prev
Biases of AI
©207493167 - stock.adobe.com

Biases of AI

A Social Challenge that Impacts Everyone

Next
Digital Ethics
©198803597 - stock.adobe.com

Digital Ethics

It’s Everybody’s Business

You May Also Like