Markt News

iStock.com/PhonlamaiPhoto

Finanzsektor: Schlecht trainierte KI schadet bestimmten Verbrauchergruppen

Das geht aus einem Working Paper des Leibniz-Instituts für Finanzmarktforschung SAFE hervor. Um die Algorithmen des KI-Systems gezielt einsetzen zu können, müssten sie mit großen Datensätzen trainiert werden, teilte das Forschungsinstitut mit. Diese Daten könnten jedoch systematische Verzerrungen für Personen mancher Gruppe enthalten, etwa aufgrund ihres Geschlechts, Einkommens, Bildungsstandes oder Alters. „Die historisch systematische Benachteiligung bestimmter Bevölkerungsgruppen kann sich im Zeitalter intelligenter Algorithmen potenzieren und zunehmend unerwünschte gesellschaftliche und ökonomische Konsequenzen haben“, sagte Kevin Bauer, Wissenschaftler in der SAFE-Forschungsabteilung „Financial Intermediation“ und einer der Autoren der Studie.

Wurden demnach etwa bei der Vergabe von Krediten durch Banken Daten mit einem unterproportionalen Anteil an Frauen gesammelt, könne das die Prognosesicherheit einer eingesetzten KI beeinträchtigen, hieß es: Der auf diesen Daten trainierte Algorithmus wäre dann systematisch schlechter darin, die Kreditwürdigkeit für Frauen adäquat zu bestimmen. Der Algorithmus könne somit Gefahr laufen, im Durchschnitt eine geringere Wahrscheinlichkeit für Frauen bei der Rückzahlung des Kredits vorherzusagen. Ein so automatisiertes KI-System würde Frauen dann seltener Kreditwürdigkeit zuschreiben. „Das verzerrt trainierte KI-System könnte also eine gesellschaftliche Ungleichbehandlung verstärken und die ökonomische Wohlfahrt von Frauen zusätzlich verringern“, erklärte Bauer.

Das Problem lasse sich allerdings deutlich vermindern und gegebenenfalls sogar lösen, indem kontinuierlich Feedbackschleifen mit repräsentativen, nicht verzerrten Daten eingebaut würden, hieß es weiter. Somit lerne der Algorithmus fortlaufend weiter, bis er die sogenannte algorithmische Diskriminierung überwindet und „vorurteilsfrei“ funktioniert. „Um den Erfolg des KI-Systems zu messen, ist es nach wie vor nötig, dass Menschen die Leistung und damit die Qualität eines trainierten Algorithmus überwachen“, resümierte Bauer. (ud)
 

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge