Markt News

iStock.com/jhorrocks

Diskriminierung: Algorithmen verweigern den Hauskredit

In den USA kommen Menschen mit schwarzer Hautfarbe offenbar nur schwer an einen Kredit, um damit ein Haus zu erwerben. Dabei spiele ihr Einkommen bzw. ihre Verschuldung keine Rolle, berichtete die Nachrichten-Website Netzplitik.org unter Berufung auf das US-Recherchekollektiv The Markup, das eine entsprechende Datenanalyse durchgeführt hatte. Gut verdienende schwarze AntragstellerInnen mit wenig Schulden werden demnach von der Vergabe-Software sogar eher abgewiesen als weiße KreditnehmerInnen mit mehr Schulden. Automatische Vergabe-Systeme und die zugrundeliegenden Daten hätten einen entscheidenden Einfluss auf eine Bewilligung oder Ablehnung. Banken setzten dazu proprietäre Software ein. In die genaue Funktionsweise der Algorithmen hätten selbst Regulierungsbehörden keinen detaillierten Einblick. Die zwei großen staatsnahen Banken Fannie Mae und Freddie Mac sperrten sich gegen eine Offenlegung, um einen Nachbau zu verhindern.

Schon das Datenmaterial, mit dem diese Systeme gefüttert würden, könne das Ergebnis einer Kreditprüfung vorwegnehmen, hieß es weiter. So siedelten sich AnbieterInnen von Kurzzeitkrediten vornehmlich in schwarzen Wohngebieten an, wo traditionelle Banken nur wenige Filialen hätten. Allein das führe in Summe zu verzerrten Bonitätsgeschichten und einer verringerten Kreditwürdigkeit. Andere Faktoren, etwa mehrere Einkommensquellen aus kleineren Jobs oder weniger angesparte Reserven, senken demnach die Chance weiter, einen Kredit zu erhalten.

Moderne Technologien liegen dabei oft auf frappierende Weise daneben: Ein Algorithmus der Social-Media-Plattform Facebook verwechselte jüngst schwarze Menschen mit Affen. Wer ein Video des britischen Boulevard-Blatts Daily Mail über einen rassistischen Vorfall in den USA sah, bekam daraufhin Vorschläge zu weiteren „Videos über Primaten“, wie das Redaktionsnetzwerk Deutschland (RND) unter Berufung auf die New York Times berichtete. Eine Sprecherin von Facebook habe das Problem gegenüber der Zeitung bestätigt und von einem „eindeutig inakzeptablen Fehler“ gesprochen, hieß es.

KI-Analysen können von Voreingenommenheit beeinflusst sein
Doch wie lässt sich das Versagen der Algorithmen erklären? Diese seien letztlich nichts Objektives, sondern quasi „in Code eingebettete Meinungen und Vorurteile“, so eine Studie von LBBW Research. Das bedeute, dass die Handlungsanweisungen von Algorithmen meist nicht auf reinen Tatsachen oder einer objektiven Beurteilung basierten. Analysen mithilfe von KI könnten vielmehr genauso von Voreingenommenheit beeinflusst sein wie die von Menschen durchgeführten. Die Datenbasis sei letztlich ausschlaggebend für die Entscheidung der KI. „Ist diese `biased` bzw. hat eine ‚Schlagseite‘, so sind entsprechend auch die Ergebnisse, mit einer Tendenz behaftet“, hieß es. Hinzu komme, dass Programme letztlich doch (noch) von Menschen geschrieben würden. Menschen hätten aber nun mal Vorurteile und Meinungen, die zumindest unbewusst in die Programmierung von KI flössen.

Der TÜV-Verband forderte derweil in einer aktuellen Stellungnahme konkrete Nachbesserungen am EU-Regulierungsentwurf für KI. „Die Europäische Kommission leistet mit ihrem Regulierungsvorschlag Pionierarbeit, bleibt aber hinter dem eigenen Anspruch zurück, in Europa ein 'Ökosystem des Vertrauens' für Künstliche Intelligenz zu schaffen", sagte Dr. Joachim Bühler, Geschäftsführer des Verbands. „Bei der Regulierung von Künstlicher Intelligenz müssen die Gesundheit der Menschen und der Schutz ihrer elementaren Grundrechte an erster Stelle stehen." Richtig sei der Ansatz, Anwendungen und Produkte mit KI in Abhängigkeit vom Risiko zu regulieren, das von ihnen ausgehe.

Mindestanforderungen für KI-Anwendungen
So sollten für einen intelligenten Spam-Filter geringere Sicherheitsanforderungen gelten als für KI-Systeme, die Röntgenbilder auswerteten, über die Vergabe von Krediten entschieden oder für die Steuerung von Fahrzeugen eingesetzt würden. „Bei der Zuordnung von KI-Systemen in die vier vorgesehenen Risikoklassen von minimal bis unannehmbar und den damit verbundenen Anforderungen an die Sicherheit und deren Überprüfung sind Verbesserungen notwendig", betonte Bühler. Der TÜV-Verband forderte insbesondere, dass für alle KI-Anwendungen mit hohem Risiko verpflichtende unabhängige Drittprüfungen vorgesehen würden. Aber auch für andere KI-Anwendungen sollten bestimmte Mindestanforderungen gelten, hieß es. Die EU-Kommission hatte im April ihren Regulierungsentwurf vorgelegt, der jetzt zwischen den Mitgliedsstaaten und im Europäischen Parlament diskutiert wird. Ziel ist es, den weltweit ersten Rechtsrahmen für KI zu schaffen.

Tobias Tenner, Leiter Digitalisierung beim Bankenverband, erklärte: „Künstliche Intelligenz ist für die langfristige Wettbewerbsfähigkeit und digitale Souveränität Europas von entscheidender Bedeutung.“ Ein europäischer Rechtsrahmen dürfe daher nicht nur die potenziellen Risiken adressieren, er müsse auch Innovationsanreize setzen und Rechtssicherheit für Unternehmen schaffen. Verpflichtende Regeln müssten daher objektiven und nachvollziehbaren Kriterien genügen. Tenner: „Der Einsatz von KI-Systemen bei der Kreditwürdigkeitsprüfung in Banken unterliegt ohnehin bereits einem strengen Aufsichtsregime. Die zuständigen Behörden überwachen diese Vorgänge.“ So würden nicht nur VerbraucherInnen und AnlegerInnen geschützt, sondern auch die Finanzstabilität: „Zusätzliche Anforderungen an die Kreditvergabe aus einer KI-Regulierung sind daher weder sachgerecht noch erforderlich“, so das Fazit von Tenner. (ud)

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge