Markt News

cxvalentina/Adobe Stock

Studie: Hindernisse für den Einsatz von KI im Bankensektor

Das geht aus einer Studie von Deutsche Bank Research hervor. Zunächst enthalte die im Jahr 2018 in Kraft getretene EU-Datenschutzgrundverordnung (DSGVO) präventive Klauseln zu automatisierten Entscheidungen. Dies betreffe nicht nur die Finanzbranche, sondern alle Sektoren. In Artikel 22 der DSGVO heißt es demnach: „Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden...“ Dies werfe besondere Probleme für KI-Anwendungen auf, deren Entscheidungen ja per Definition automatisch erfolgten, so die Studie. Um die Einschränkungen des Artikels 22 umzusetzen, könnte an einem gewissen Punkt des Prozesses ein Mensch eingebunden werden, der z.B. am Ende der KI-Kette letztendlich die Entscheidung treffe.

Artikel 13 der DSGVO enthalte zudem bestimmte Offenlegungsvorschriften. Sollte z.B. ein KI-Programm die Eröffnung eines Kontos oder die Gewährung eines Kredits ablehnen, hätten KundInnen das Recht, über die Gründe für diese Entscheidung informiert zu werden. Artikel 13 verlange nicht unbedingt, dass der Quellcode des KI-Algorithmus im Einzelnen offengelegt werde. Es müssten jedoch gewisse Angaben gemacht werden, welche Parameter einflössen. In jedem Fall dürften Eingriffe von Programmierern erforderlich sein, um diese und zahlreiche andere Datenschutzvorgaben zu erfüllen. „Dadurch fallen die zu erwartenden Effizienzgewinne durch KI geringer aus“, so die Analyse.

Dass Big Data möglicherweise in böser Absicht manipuliert werden könne, dürfte den Einsatz von KI im Bankensektor ebenfalls hemmen. Zum Beispiel könnten Hacker versuchen, die Systeme mit fiktiven Daten zu füttern (falsche Social-Media-Konten, Internetseiten oder Nachrichten), um so Einfluss auf KI-Entscheidungen zu nehmen. Diese könnten dadurch verzerrt sein und bestimmte Personen diskriminieren – oder Hacker könnten sogar die KI-Systeme an sich unter ihre Kontrolle bringen. „Dass KI-Systeme miteinander verbunden sind, macht das Problem noch brisanter. KI selbst kann zwar Cyberangriffe und Malware recht gut erkennen, dennoch müssten möglicherweise Programmierer die Systeme laufend überwachen und kontrollieren, um eventuelle Cybersicherheitsprobleme zu lösen“, hieß es. In diesem Zusammenhang könne es hilfreich sein, sogenannte „Regulatory Sandboxes“ einzuführen. Dabei könne die Sicherheit neuer KI-Anwendungen unter realen Bedingungen überprüft werden.

KI kann zur Ertragssteigerung beitragen
Kann Künstliche Intelligenz die Rentabilität der Banken erhöhen? Laut Studie ist dies auf zweierlei Weise möglich: Erstens könne autonome KI-Software monotone Tätigkeiten übernehmen, so den Bedarf an weniger qualifizierten Arbeitskräften verringern und die Effizienz der verbleibenden Mitarbeiter erhöhen. Dies sei insofern von Bedeutung, als die Gehälter in der Regel einen beträchtlichen Anteil an den gesamten Aufwendungen einer Bank ausmachten. Zweitens könne KI zur Ertragssteigerung beitragen. Sie könne die Institute dabei unterstützen, neue Produkte und maßgeschneiderte Angebote zu entwickeln, die den Wünschen der Kunden genauer entsprächen, hieß es.

Allerdings lasse sich der Zusammenhang zwischen dem Einsatz von KI und der Rentabilität der Banken nur schwer quantifizieren, zumal er sich kaum fassen lasse und es an Mikrodaten mangele. Insgesamt bestehe jedoch in den europäischen Ländern nahezu eine lineare Relation zwischen der Zahl von KI-Patentanmeldungen und der Rendite auf alle Vermögenswerte im Bankensektor; die Korrelation belaufe sich auf 80 Prozent. In Ländern, in denen mehr KI-Patente angemeldet würden, scheinen die Banken demnach rentabler zu sein. Gleichzeitig seien die potenziellen operationellen Risiken eines verstärkten Einsatzes von KI und die damit einhergehenden Kosten für die Banken in diesem frühen Stadium kaum zu beurteilen. (ud)

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge