Trends Magazin

Who is Danny / Adobe Stock

KI-Projekte: Der richtige Algorithmus macht nur 20 Prozent der Arbeit aus  

Die praktischen Anwendungsmöglichkeiten von Data Science und der darauf basierenden Anwendungen aus dem Bereich der Künstlichen Intelligenz (KI) bergen für den Finanzsektor ein großes Potenzial. Meist geht es darum, Mitarbeitende mithilfe von KI und Machine Learning (ML), einem Teilbereich der KI, von repetitiven Aufgaben zu entlasten. Doch wie sieht es mit der Anwendung der Technologien in der Praxis aus?

Zwei Drittel der Finanzverantwortlichen sähen in Automatisierung und Digitalisierung der Kernprozesse zwar Top-Chancen für ihr Unternehmen, so eine Studie der Managementberatung Horváth, für die 200 internationale Finanzverantwortliche zu Entwicklungen im Finanzbereich befragt wurden. Gleichzeitig fehlten jedoch oft konkrete Projekte im Bereich KI: Mehr als die Hälfte der Befragten habe noch keine Projekte zur Einführung von KI, Blockchain oder Machine Learning ins Leben gerufen, hieß es.

KI spiele bei 53 Prozent der CFOs weder heute noch in naher Zukunft eine Rolle, die Implementierungsrate liege gerade einmal bei 6 Prozent, so der wenig hoffnungsfroh stimmende Befund. Nur 9 Prozent haben demnach Blockchain-Methoden implementiert, dies werde auch von der Mehrzahl nicht geplant: So hätten 76 Prozent der Finance-Verantwortlichen keinen Blockchain-Piloten auf der Agenda. Ähnlich verhaltenäußern sie sich den Angaben zufolge zu Machine Learning – dies werde von 55 Prozent weder umgesetzt noch geplant.

Über welche Daten verfügen Unternehmen, und wie können diese analysiert werden? Wie können Banken mit Datenzudem präzisere Prognosen vornehmen oder ihr Marketing gezielter steuern? Das waren nur einige der zentralen Fragestellungen, die auf der Online-Fachtagung „Data Science und Machine Learning in Kreditinstituten“ des Bank-Verlags in Köln diskutiert wurden. Moderiert wurde die Veranstaltung von Ute Kolck, Leiterin Produktmanagement des Bereichs Medien im Bank-Verlag. Sehr rasch wurde deutlich: Die Thematik ist hochkomplex. Daher gab es von den Referenten zum Beginn einige wichtige Begriffserklärungen.

Aus den Daten für die Zukunft lernen
Dr. Thomas Gottron, Principal Data Science Expert im Data Office der Europäischen Zentralbank (EZB), ging in seinem Vortrag zunächst auf Advanced Analytics ein. Hierbeihandele es sich um die Anwendung moderner Methoden der vorwärts gerichteten Datenanalyse zur Verbesserung von Geschäftsprozessen, führte Gottron aus. Moderne Methoden der Datenverarbeitung sind demzufolge Data Science, Machine Learning oder Künstliche Intelligenz. Der zentrale Punkt sei nun, sich nicht nur Daten aus der Vergangenheit anzuschauen, sondern für die Zukunft daraus zu lernen. Das Ziel bestehe darin, mit den Informationen einen Erkenntnisgewinn zu erzielen, um Verbesserungen im Unternehmen zu erreichen.

Dr. Georg Fuchs, der das Geschäftsfeld Big Data Analytics & Intelligence am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS leitet, wies auf die gewachsene gesellschaftliche Bedeutung der KI hin. Selbst die Boulevardpresse nehme sich des Themas immer häufiger an. Kaum ein relevanter gesellschaftlicher oder wirtschaftlicher Bereich komme an der Thematik noch vorbei. Doch worum handelt es sich bei der Technologie genau? Wie kann man sich ihr begrifflich annähern? Dr. Fuchs verwies auf eine Definition des Computerwissenschaftlers John McCarthy, der 1955 eine allgemeine Definition vornahm. Demnach ist es das Ziel der Künstlichen Intelligenz, Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz.

Deep Learning ist eine Variante des Maschinellen Lernens
Zum Abschluss des Vortrags machte Fuchs noch ein paar allgemeine Ausführungen. Aktuell existierten schwache und starke KI-Hypothesen. Derzeitige KI-Systeme seien meist noch schwache KIs. KI sei als Forschungsgebiet älter als Maschinelles Lernen und Big Data. ML und Big Data sind Fuchs zufolge sehr einflussreiche Technologien im Bereich KI. Deep Learning sei wiederum nur eine Variante von ML, jedoch eine mit einem enormen Potenzial.

Mit ML und insbesondere DL verschiebe sich die Philosophie hinter KI vom klassischen Ingenieursvorgehen hin zu einer empirischen, statistikbasierten Wissenschaft. Und last but not least: Mit DL und genügend Daten seien viele Problemstellungen schneller und genauer zu lösen als je zuvor. Vor allem könne DL teilweise Lösungen für nicht programmierbare, nicht formal spezifizierte Fragestellungen selbstständig finden, so das Fazit des Experten.

Dr. Maximilian Poretschkin, Senior Data Scientist am Fraunhofer IAIS, stellte in seinem Diskussionsbeitrag heraus, nicht nur auf mögliche KI-Anwendungsbeispiele zu schauen, sondern den gesamten Lebenszyklus einer Anwendung zu betrachten. Schon bei der Konzeption und Architektur des Modells müsse sichergestellt werden, bestimmte Eigenschaften per Konstruktion zu erfüllen, wie zum Beispiel Privacy-by- Design, Safety-by-Design oder Prüfbarkeit-by-Design. Zentral sei darüber hinaus die Auswahl und Vorverarbeitung der Trainings-, Test- und Inputdaten der KI-Anwendung als Grundlage für eine hohe Qualität, führte Poretschkin aus.

Hinzu kämen die Auswahl eines geeigneten Algorithmus, das Training und Testen des Modells sowie Aspekte zu Transparenz und Erklärbarkeit. Dem schließe sich die Implementierung in die eigentliche Software an. Laut Poretschkin erfolgt sodann die Einbettung der KI-Komponente in die Anwendung mit Fokus auf die Aspekte der Anwendung, deren Verhalten wesentlich auf der KI-Komponente beruhe. Am Ende des Prozesses stehe die anwendungsbezogene Prüfung und Sicherstellung der Qualität des Modells während des Betriebs sowie die Überprüfbarkeit und Protokollierung des Verhaltens, das auf der KI-Komponente basiere, so der Experte.

Deutlicher Rückgang der Filialen
Referent Torsten Nahm, Leiter des Kompetenzzentrums für Data Science bei der DKB, erklärte zu Beginn seines Vortrags, dass der digitale Wandel bereits voll im Gange sei, auch im Finanzsektor. Auch das Online Banking träge massiv zu den starken Veränderungen bei: Zwischen 2000 und 2020 sei die Zahl der Filialen in Deutschland um über 56 Prozent zurückgegangen.

Nahm betonte, dass durch KI jetzt eine neue Phase der Digitalisierung eingeläutet werde. Die Technologie könne bei allem, was Menschen routinemäßig täten, zum Einsatz kommen. KI könne entweder den kompletten Prozess automatisieren oder Personen unterstützen bzw. Teilbereiche bestimmter Arbeitsgebiete übernehmen. Der Einsatz von KI sei umso einfacher je mehr Daten vorlägen, je gleichförmiger der Prozess sei, je besser die Ergebnisse quantitativ erfassbar und je strukturierter die Daten seien, so Nahm.

Der Experte sparte zugleich nicht mit Kritik an der Entwicklung in Deutschland. Hierzulande stecke KI immer noch in den Kinderschuhen. Erst in 8 Prozent der deutschen Unternehmen sei KI im Einsatz, so Nahm unter Verweis auf eine aktuelle Bitkom-Studie. Für Nahm nur schwer nachvollziehbar, denn immerhin sei KI bereits Teil der DNA der erfolgreichsten Firmen auf der Welt. Amazon, Google und Facebook nutzten Machine Learning in jedem Bereich ihres Geschäfts. Google dominiere die Websuche, weil es den intelligentesten Algorithmus habe. Dieser lerne laufend mit jedem Klick. Mit Google Translate, den automatischen Untertiteln von Youtube, sei Google bei vielen KI-Technologien an der Spitze.

Amazon setzt KI für Produktvorschläge ein
Nahm nannte auch Amazon. Die Firma setze KI in allen wesentlichen Bereichen ein, etwa bei den Vorschlägen relevanter Produkte, zur Optimierung der Lagerhaltung und Lieferung sowie zur Vorhersage von Trends bei neuen Produkten. Facebook wiederum nutze ausgefeiltes Machine Learning, um die Timeline zu personalisieren und relevante Inhalte zu zeigen sowie um anstößige Inhalte zu erkennen.

Und wie sieht es im Finanzsektor aus? Machine Learning werde bereits seit vielen Jahren in Banken eingesetzt, führte Nahm aus. Die Finanzindustrie habe hier in den neunziger Jahren sogar zu den Vorreitern gehört. Damals habe die Automatisierung der Kreditanalyse, eines zentralen Geschäftsbereichs von Banken, begonnen. Statistische Algorithmen übertrafen Nahm zufolge bald selbst die besten Kreditanalysten. Inzwischen seien maschinelle Ratingverfahren nicht mehr aus der Bankenwelt wegzudenken. Der Erfolg werde aber kaum noch als KI wahrgenommen.

Allerdings kommt Nahm auch zu einem wenig schmeichelhaften Befund: Die Bankenwelt befinde sich insgesamt immer noch ganz am Anfang der Reise in Bezug auf die neuen Technologien. Die Bankenwelt befinde sich insgesamt immer noch ganz am Anfang der Reise in Bezug auf die neuen Technologien, während Amazon und Google ihnen hier davon eilten. Nahms Fazit: Die Geldhäuser müssten noch erhebliche Anstrengungen unternehmen, um zum Beispiel gegen FinTechs zu bestehen.

Use-Case-Recherche der DKB
Lina Weichbrodt arbeitet derzeit als Lead Machine Learning Engineer im Data-Science-Bereich bei der DKB. Wo genau kommt Künstliche Intelligenz im Finanzsektor zum Einsatz? In ihrem Beitrag verwies Weichbrodt auf eine Use-Case-Recherche des Kreditinstituts.

Drei zentrale Bereiche wurden demnach identifiziert: Zum einen die industrieneutrale KI (Kundenservice, Marketing und Automatisierung manueller Arbeit etc.), zum anderen die bankspezifische KI (u. a. Fraud, Geldwäsche und Transaktionskategorisierung. Schließlich existiere noch die unternehmensspezifische KI (z. B. Automatisierung eigener Prozesse: etwa Dokumenterkennung oder andere manuelle Expertise, Mahnwesen sowie Bonitätserkennung aus Kontoverlauf). KI werde angesichts dieser Möglichkeiten im Finanzbereich nicht mehr aufzuhalten sein, war sich die Expertin sicher.

Wie Weichbrodt weiter ausführte, sei jedes KI-Projekt zudem auf eine durchdachte Personalplanung angewiesen. Wichtig für das Gelingen eines Projekts seien unter anderem gute Informatiker oder Machine Learning Engineers. Der richtige Algorithmus sei nur 20 Prozent der tatsächlichen Arbeit. Reine Data-Science-Teams könnten in der Regel keinen wartbaren und qualitativ hochwertigen Code produzieren. Daher gab Weichbrodt die Empfehlung ab, Informatiker in die Teams zu entsenden, etwa Data Engineers oder Backend-Entwickler. Data Science sollte zudem organisatorisch in der IT verortet sein, um einen leichten Zugang zu Daten, Servern, Codeverwaltung sowie zum eigenen Betrieb zu ermöglichen, so ihr Resümee.

Fazit
Banken haben noch in den 1990er-Jahren zu Vorreitern bei den neuen Technologien gehört. Umso erstaunlicher stellt sich der Umstand dar, dass ein Großteil der Finanzverantwortlichen heute keinerlei Projekte zur Einführung von Künstlicher Intelligenz oder Machine Learning plant. Amazon und Google laufen den Kreditinstituten förmlich davon. Die Geldhäuser müssen aufpassen, nicht dauerhaft den Anschluss an die rasante digitale Entwicklung zu verlieren.

Autor


Dogan Michael Ulusoy

+++

Was versteht man unter „Data Science“ und wie ist dies in den Themenkomplex KI einzuordnen? Wozu benötigt eine Bank überhaupt einen Data Scientist und mit welchen Daten und Tools wird hier gearbeitet? Diese und weitere Fragen stellen wir Torsten Nahm, der das Kompetenzzentrum für Data Science bei der DKB leitet. Hören Sie hier weitere Episoden aus der Reihe „durch die bank“.

Melkden Sie sich bei Interesse zu unserem „Web-Seminar Die Cloud im Finanzsektor: Anforderungen, Verhandlungen und Vereinbarungen“ an.

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge