Photo by Ricardo Gomez Angel on Unsplash

Diskriminierung: Die ethischen Auswirkungen von KI

Bereits in diesem Jahr soll Künstliche Intelligenz (KI) weltweit für mehr als 30 Prozent der Chief Information Officers (CIOs) einer der fünf Investitionsschwerpunkte sein, so lautet eine Prognose des Marktforschungsunternehmens Gartner. In den letzten Jahren hat sich KI zu einer zukunftsweisenden Technologie unserer Gesellschaft entwickelt. Auch in Deutschland werden die Weichen für eine Digitale Transformation in Form einer Digitalstrategie gestellt, Fördergelder für Forschung und Entwicklung in KI verplant. Doch auch wenn die Einführung und Nutzung von KI in Unternehmen und Behörden Vorteile verspricht, gibt es immer noch berechtigte Bedenken. Ein Roboter handelt immer nur in dem Umfang und aufgrund der Datenbasis, die ihm zuvor von Menschen zur Verfügung gestellt wurde.

Da kein Mensch frei von Stereotypen und Vorurteilen ist – und seine Vorstellungen häufig einem bestimmten kulturellen Verständnis entsprechen – laufen wir Gefahr, dass Roboter diese Vorurteile imitieren. Ein Worst-Case-Szenario könnte dann so aussehen, dass – wenn auch unbeabsichtigt – antisemitische Chatbots bis hin zu rassistisch voreingenommener Software kreiert werden. Für CIOs und andere IT-Verantwortliche stellt sich daher die Herausforderung, solche KI-Anwendungsfälle zu erkennen, die Probleme verursachen könnten, wo der digitale Mitarbeiter (häufig auch Roboter genannt) böse Absichten, Vorurteile und Unmoral imitiert.

Benachteiligung bei der Kreditvergabe

Ein Beispiel für die ethischen Auswirkungen von KI stellt die Hypothek dar. Mit dem Aufkommen der KI hat sich die Kreditdiskriminierung vom Menschen auf den Algorithmus verlagert. In der Praxis bedeutet dies, dass Wohngebiete aufgrund von rassischen oder ethnischen Merkmalen separiert oder gar diskriminiert werden. Dies kann dazu führen, dass Bewohnern von Brennpunkten Dienstleistungen nicht oder nur in geringerer Qualität angeboten werden – und gleichzeitig Bewohner der wohlhabenden Gegenden verteuerte Dienstleistungen erhalten. Die systematische Trennung von Kreditnehmern durch Banken und Immobilienmakler scheint nicht der Vergangenheit anzugehören.

Überraschenderweise hat die Automatisierung der Hypothekenindustrie es nur einfacher gemacht, solche Praktiken hinter einer technologischen Benutzeroberfläche zu verstecken. Welche Auswirkungen dies haben kann, zeigt das Beispiel aus den USA, als Facebook letztes Jahr eine Klage wegen rassistischer Vorurteile in der Wohnungs- und Hypothekenwerbung ereilte. Finanzentscheider und IT-Verantwortliche sollten sich daher bewusst sein, dass Entscheidungen basierend auf KI unter Umständen einseitige Ergebnisse hervorrufen können.

Falscher Einsatz von KI beim Bewerbungsprozess

Doch nicht nur in der Kreditvergabe, sondern auch beim Bewerbungsprozess kann der falsche Einsatz von KI Folgen haben. Der bei weitem bekannteste Fall von Vorurteilen bei der Rekrutierung und Einstellung von Mitarbeitern wurde der Öffentlichkeit bekannt, als Medien über den Ausschluss von Frauen durch die neue Rekrutierungs-Engine von Amazon berichteten. Bereits im Jahr 2014 stellte Amazon ein Team zusammen, bei dem mehr als 500 Algorithmen zum Einsatz kamen, um den CV-Review-Prozess für Ingenieure und Programmierer zu automatisieren. Indem es die Lebensläufe der Amazon-Mitarbeiter in den Softwareteams als Modell verwendete, trainierte das Team das System. Da jedoch die Lebensläufe überwiegend männlich waren, lernte das System folglich, alle Bewerber auszusortieren, die eine Frauenuniversität besucht oder Frauenorganisationen im Lebenslauf aufgeführt hatten.

In der Zwischenzeit setzen immer mehr Unternehmen auf allen Ebenen des HR-Prozesses auf algorithmische Entscheidungssysteme. Bereits seit 2016 werden 72 Prozent der Lebensläufe von Bewerbern nicht mehr von Menschen, sondern ausschließlich von Computern überprüft. Für Stellenbewerber und Mitarbeiter bedeutet dies, dass sie immer seltener mit Menschen zu tun haben – und Geschichten wie die von Amazon immer häufiger werden könnten.

Sich die ethischen Auswirkungen bewusstmachen

Unternehmen sind bemüht, solche Vorkommnisse und einseitige Beurteilungen zu vermeiden. Es gibt zum Beispiel Analyseplattformen, die die Verwendung von Indikatoren vermeiden, welche zur Benachteiligung aufgrund von Geschlecht, Alter oder Rasse führen könnten. Ein Vorreiter ist zum Beispiel LinkedIn. Das soziale Netzwerk setzt Systeme ein, um Geschlechterinformationen in seinen Profilen nicht zu ignorieren, sondern zu sammeln und zu nutzen. Dabei werden diese Informationen dazu verwendet, um eine mögliche Benachteiligung oder Bevorzugung zu klassifizieren und zu korrigieren.

Wie wichtig es ist, sich die ethischen Auswirkungen bewusst zu machen, zeigt ein Beispiel der bekannten Google-Suche: So hat sich Google AdWords des Sexismus schuldig gemacht, als Forscher herausfanden, dass männlichen Arbeitssuchenden eher Anzeigen für hochbezahlte Führungspositionen angezeigt wurden als Frauen.

Auswirkungen für CIOs und Finanzentscheider

Um mögliche negative Auswirkungen zu vermeiden, gehen führende Technologieunternehmen daher mit gutem Beispiel voran und etablieren ethische Richtlinien für die Verwendung von Daten. So hat Microsoft die Bedeutung der Ethik mit sechs Prinzipien für das Unternehmen festgesetzt: Gerechtigkeit, Zuverlässigkeit und Sicherheit, Datenschutz, Inklusion, Transparenz sowie Rechenschaftspflicht. Für IT-Verantwortliche und Finanzentscheider stellen diese Richtlinien eine gute Orientierung dar. Die entwickelte Technologie muss zudem den internationalen Gesetzen entsprechen.

Die Finanzminister des letztjährigen G20-Gipfels haben sich erstmals auf Prinzipien für eine verantwortungsvolle Nutzung von KI geeinigt. Dies umfasst auch einen Ansatz, der den Menschen in den Mittelpunkt stellt: Jedes Land muss sicherstellen, dass beim Gebrauch von Künstlicher Intelligenz die Menschenrechte respektiert werden und keine Nachteile, sondern Vorteile entstehen. Ein ganzheitlicher Ansatz unterstützt Unternehmen dabei, umfassende Ethik-Richtlinien für Künstliche Intelligenz festzulegen. Denn KI ist immer nur so gut wie die Modelldaten, daher müssen diese Daten fair und repräsentativ für alle Menschen und Kulturen sein.

Einer der zentralen Fragen sollte beim Einsatz der Technologie daher lauten, ob der Gebrauch moralisch, sicher und richtig ist. Sind die Daten hinter Ihrer KI-Technologie „gut“ oder haben sie eine algorithmische Verzerrung? Werden die KI-Algorithmen geprüft, um sicherzustellen, dass sie richtig eingestellt sind, um erwartete Ergebnisse mit vordefinierten Testsätzen zu erzielen? Wird DSGVO-konform transparent gemacht, wie sich die KI-Technologie auf das Unternehmen intern und auf Kunden und Partner extern auswirkt? Gibt es einen speziellen KI-Kontroll- und Beratungsausschuss, dem funktionsübergreifende Führungskräfte und externe Berater angehören, die die Kontrolle von KI-gestützten Lösungen einrichten und überwachen?

Fazit
Unternehmen sollten ein Bewusstsein dafür haben, dass sie die rechtliche und moralische Verpflichtung haben, KI gemäß ethischen Grundsätzen zu nutzen. Doch es sollte auch ein geschäftlicher Imperativ sein. Letztendlich will kein CIO für einen schlechten, diskriminierenden und unethischen Einsatz von KI bekannt werden.

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge