Trends Magazin

istock.com/ArtemisDiana

Finanzmarkt: Wie Banken von Conversational AI profitieren können  

„Die Welt ist im Wandel“ – dieses Zitat aus dem Filmepos „Herr der Ringe“ gilt in besonderem Maß für Banken und Finanzdienstleister. So hat sich vor allem durch die Covid-19-Pandemie der Trend beschleunigt, dass Kunden Bankgeschäfte nicht mehr vor Ort in einer Filiale erledigen, sondern über digitale Kanäle – etwa mittels einer App auf ihrem Smartphone. Das britische Marktforschungsinstitut Juniper Research geht davon aus, dass im Jahr 2026 weltweit rund 3,6 Milliarden Bankkunden mit ihrem Institut vorzugsweise auf digitalem Weg kommunizieren. Zum Vergleich: 2020 waren es erst 2,4 Milliarden.

Eine zentrale Rolle spielen dabei KI-Anwendungen und Maschinelles Lernen (ML) insbesondere in Form von Conversational AI. Diese Technologie ermöglicht es Banken, mit Kunden und Interessenten über Chatbots, Sprachassistenten und Spracheingabe Informationen auszutauschen.

Ein Bankkunde hat beispielsweise die Möglichkeit, per Sprachbefehl eine Überweisung oder einen Aktienkauf zu tätigen. Ein Chatbot wiederum beantwortet automatisch – also ohne Mitwirkung eines Bankberaters – Fragen von Verbrauchern, etwa zum Kontostand. Auch Mischformen aus automatisierten Abläufen und einem direkten Kontakt zu einem Bankmitarbeiter sind denkbar. Das ist etwa dann der Fall, wenn die KI-Instanz mit komplexen Anfragen überfordert ist. Dann schaltet sich ein Spezialist aus Fleisch und Blut in die Konversation ein.

Was Conversational AI ist
Conversational AI greift auf KI und Maschinelles Lernen zurück, um intelligente Sprachanwendungen, Chatbots und virtuelle Assistenten bereitzustellen. Mithilfe der Technologie kann ein menschlicher Nutzer mit Computern und Maschinen kommunizieren. Wichtig ist dabei, dass ein solches System Fragen spätestens innerhalb von 300 Millisekunden beantwortet. Längere Intervalle nimmt ein Mensch als störend wahr. Doch diese Vorgabe stellt für Conversational-AI-Anwendungen eine Herausforderung dar: Schnelle Antworten können zulasten der Genauigkeit gehen; zu lange Reaktionszeiten verärgern den Kunden.

Hinzu kommt, dass – ähnlich wie bei der Kommunikation von Mensch zu Mensch – der Frage-Antwort-Vorgang schnell abläuft und in einen Kontext eingebettet ist. Weitere potenzielle´Hürden für eine KI-Instanz sind Fachbegriffe, mehrdeutige Fragen sowie Aussagen und Wörter, die der Umgangssprache oder einem Dialekt entlehnt sind.

Um solche Herausforderungen zu meistern, kommen bei Conversational AI komplexe Modelle für die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) und aufwendige Trainingsverfahren zum Einsatz, meist mit Milliarden unterschiedlicher Parameter. Das Training der Modelle erfordert Hochleistungsrechner mit leistungsstarken Grafikkarten (GPUs, Graphics Processing Units). GPUs sind deshalb erforderlich, weil sie auf Vektor- und Matrixberechnungen spezialisiert sind und diese – anders als normale Prozessoren (CPUs) – zudem parallel ausführen können.

Wie Sprache verarbeitet wird
Der Weg von der Spracheingabe eines Bankkunden bis zur Antwort des KI-Systems beziehungsweise Chatbots umfasst drei Schritte. Der erste ist die automatische Spracherkennung (Automatic Speech Recognition, ASR). Sie wandelt gesprochene Wörter in lesbaren Text um. Das erfolgt mithilfe von Deep-Learning-Modellen. Kommen dabei Grafikprozessoren zum Einsatz, erfolgt dieser Vorgang um ein Vielfaches schneller als mit CPUs. Während des Trainingsvorgangs wird das Deep-Learning-Modell mit Datensätzen „gefüttert“, die hunderte Stunden von Audioinformationen und deren Transkriptionen in der Zielsprache umfassen – etwa Deutsch oder Englisch.

Im zweiten Schritt kommen Natural Language Processing (NLP) beziehungsweise Natural Language Understanding (NLU) zum Zug. Diese Technologien ermöglichen es der Conversational-AI-Anwendung, den Kontext der Texteingabe zu erkennen und eine passende Antwort zu formulieren – und zwar in der gewünschten Sprache. Dabei kommt ein weiteres Modell zum Einsatz, beispielsweise BERT (Bidirectional Encoder Representations from Transformers), das für die Bearbeitung von natürlicher Sprache mit Machine-Learning-Algorithmen optimiert wurde. Das Training von BERT lässt sich beschleunigen, wenn vortrainierte Modelle und GPUs verwendet werden. NLP-Modelle können sowohl für die Verarbeitung von sprachlichen als auch von textbasierten Informationen (zum Beispiel E-Mails) zum Einsatz kommen.

Zum Abschluss wird die Antwort auf eine Frage, die die NLU in Textform erstellt hat, in natürliche Sprache umgewandelt (Text-to-Speech, TTS). Das erfolgt mithilfe von Deep Learning und neuronalen Netzen, damit die Sprachausgabe der eines Menschen gleicht. Entwickler können auch bei diesem Schritt auf vortrainierte Modelle zurückgreifen, um Zeit zu sparen. Solche Modelle stehen beispielsweise über Software-Hubs zur Verfügung. Außerdem empfiehlt es sich, Software Development Kits (SDK) einzusetzen, die für Grafikprozessoren optimiert sind. Das verkürzt die Zeit, bis ein Entwickler eine Conversational-AI-Anwendung fertiggestellt hat.

Nicht nur die Trainings aller drei Modelle werden durch den Einsatz von GPUs beschleunigt, sondern auch das sogenannte Inferencing – sprich die Verarbeitung des Wissens aus den trainierten Datensätzen, um neue Aussagen bzw. Schlussfolgerungen zu treffen.

Herausforderung: NLP-Modelle für mehrere Sprachen
Eine der Herausforderungen bei Conversational AI besteht darin, dass Banken und Finanzdienstleister NLP-Modelle für mehrere Sprachen vorhalten müssen. Das ist vor allem für solche Institute von Belang, die in mehreren Sprachräumen tätig sind. Wünschenswert ist beispielsweise, wenn ein Kreditinstitut textbasierte Chatbots oder Sprachassistenten für Deutsch, Englisch, Spanisch und Chinesisch zur Verfügung stellt.

Derzeit sind jedoch NLP-Modelle vorzugsweise für Englisch verfügbar. Das gilt auch für Versionen, die für spezielle Branchen entwickelt wurden. Ein Beispiel ist sciBERT für Ingenieure, ein weiteres FinBERT für den Finanzsektor. Glücklicherweise lassen sich solche Modelle mit überschaubarem Aufwand für neue Sprachen konstruieren. Es ist somit nicht notwendig, das Modell komplett neu zu entwickeln.

Entwickler von Conversational-AI-Anwendungen für den Finanzsektor stehen jedoch vor einer weiteren Herausforderung: Die NLP-Modelle, die solchen Applikationen zugrunde liegen, werden immer komplexer. Außerdem steigt die Zahl der Datensätze, die für deren Training herangezogen werden. Es ist absehbar, dass NLP-Modelle künftig mehrere Billionen Parameter umfassen. Eine vergleichbare Entwicklung bahnt sich auch in der automatischen Bilderkennung an. Ein Grund hierfür ist, dass dadurch die Genauigkeit und Leistungsfähigkeit der Modelle und damit der Anwendungen steigt. Außerdem lässt sich ein großes Modell einfacher und mit geringeren Kosten an unterschiedliche Aufgaben anpassen.

Für die Entwickler von solchen Applikationen bedeutet dies jedoch, dass sie für das Training von umfangreichen, lokalen Sprachmodellen Grafikprozessoren (GPUs) mit einer deutlich höheren Rechenleistung und einem größeren Arbeitsspeicher benötigen. Selbst Server mit mehreren GPUs brauchen für das Training komplexer Modelle mehr als einen Monat. Das ist nicht akzeptabel. Einen Ausweg bieten Tools, die den Entwicklungsprozess von großen Sprachmodellen vereinfachen.

Auf das Hard- und Software-Angebot achten
Zusätzlich erfordert Conversational AI eine leistungsstarke und skalierbare Rechnerbasis, die für die Entwicklung von KI-Algorithmen und das Training von Modellen optimiert ist. Hier kommen vor allem Systeme von Anbietern in Betracht, die sowohl über Know-how im Bereich KI verfügen als auch spezielle Grafikprozessoren und Komplettlösungen zur Verfügung stellen können.

Wichtig bei der Auswahl eines Anbieters ist, dass er über skalierbare Lösungen verfügt. Möchte beispielsweise eine Bank einem wachsenden Kundenkreis virtuelle Assistenten zur Verfügung stellen, darf das nicht mit einem Systemwechsel verbunden sein. Außerdem sollten Interessenten einen Blick auf das Software-Angebot werfen. Idealerweise enthält es nicht nur Entwicklungstools, sondern auch vortrainierte Modelle für spezielle Anwendungen im Bereich Conversational AI. Das verkürzt die Entwicklungszeiten und schont das Zeitbudget der Fachleute, die in solche Projekte involviert sind.

So faszinierend der Einsatz von KI und Machine Learning im Finanz- und Bankenbereich auch ist, entscheidend ist letztlich, welchen Nutzen diese Technologien bringen. Ein Vorteil von Conversational-AI-Anwendungen wie Chatbots und Sprachassistenten im Finanzsektor ist der verbesserte Kundenservice. Routineanfragen wie „Ich habe meine Kreditkarte verloren. Wie kann ich sie sperren lassen?“ können schneller und effizienter beantwortet werden, und zwar ohne Mitwirkung eines Mitarbeiters und zudem rund um die Uhr.

Eine KI-Instanz kann Tausende solcher Anfragen parallel bearbeiten und in Sekundenschnelle beantworten. Weitere Beispiele sind das Abrufen des Kontostands, das Ändern von Passwörtern und PINs, die Kontrolle von Transaktionen und das Bezahlen von Rechnungen. Solche Vorgänge kann ein Kunde einfacher und schneller abschließen.

KI und Berater Hand in Hand
Denkbar sind auch Mischformen, an der sowohl das KI-System als auch ein Bankberater beteiligt sind. Ein Beispiel: Ein Kunde benötigt eine Baufinanzierung. Per Conversational AI informiert er sich über die Angebote einer Bank. Einige Details möchte er aber lieber mit einem Kreditspezialisten klären, etwa per Videokonferenz oder Sprachkommunikation. Der Fachmann der Bank erhält in diesem Fall von der Conversational-AI-Lösung alle relevanten Daten zur Anfrage und kann die Beratung fortführen.

Und sollte der Interessent Angebotsunterlagen wünschen, können ihm dies die KI-Instanz oder der Berater auf das Smartphone, ein Notebook oder einen stationären Rechner übermitteln, inklusive eines Protokolls des Beratungsgesprächs. Auf diese Weise haben Banken die Möglichkeit, Kunden und Interessenten zielgerichtet anzusprechen – und das mit einem geringeren Zeitaufwand.

Mit Conversational AI Risiken minimieren
Ein weiteres Feld, auf dem Conversational AI im Finanzbereich einen Nutzen bringen kann, ist die Abwehr von Betrugsversuchen. Die Technologie lässt sich beispielsweise dazu verwenden, um verdächtige Kontobewegungen zu identifizieren und zu unterbinden. Auch dem Diebstahl von digitalen Identitäten (Identity Theft) können Banken mithilfe der Technologie einen Riegel vorschieben. Conversational-AI-Algorithmen erkennen beispielsweise anhand des Stimmmusters, ob es sich um einen Kunden der Bank oder eine fremde Person handelt, die auf ein Konto zugreifen möchte. » 1

Was den Einsatz und das Ausschöpfen des vollen Potenzials von KI-Lösungen betrifft, liegen die europäischen Banken noch weit hinter den US-Instituten zurück. Das zeigt eine aktuelle Studie von Bain & Company. Doch auch bei den europäischen Geldhäusern gibt es offenbar Pläne für die kommenden Jahre. So belegt die Studie „State of AI in Financial Services“ von Nvidia, dass sich Banken, FinTechs und Finanzdienstleister intensiv mit KI und insbesondere Conversational AI beschäftigen.

Der Analyse zufolge wollen 28 Prozent der Unternehmen aus dem Finanzsektor 2022 in die Entwicklung und Implementierung von Conversational-AI-Lösungen investieren – mehr als drei Mal so viele wie 2021. Damit rangiert diese Technologie in der Rangliste der wichtigsten Anwendungsfelder von KI auf dem zweiten Platz. Eine höhere Relevanz haben nur KI-basierte Lösungen, mit denen Unternehmen betrügerische Aktivitäten unterbinden können. » 2 und » 3

Doch damit solche Ansätze zu einem Erfolg werden, müssen die Unternehmen etliche Klippen umschiffen. Für das Management sind dies vor allem der Mangel an einem Budget und an Data Scientists. Die IT-Abteilungen bemängeln, dass zu wenig Daten für das Training der KI-Modelle zur Verfügung stehen. Das sehen auch die Entwickler so. Außerdem kritisieren sie die unzureichende technologische Infrastruktur. Das heißt, Banken und Finanzdienstleister sollten im ersten Schritt intern klären, woran es haken könnte, wenn KI-Projekte an den Start gehen sollen.

Fazit
Mit Conversational AI können Banken und Finanzdienstleister die User Experience ihrer Kunden auf eine neue Ebene heben. Das ist vor allem deshalb wichtig, weil sich insbesondere im digitalen Raum entscheiden wird, welche Anbieter künftig erfolgreich agieren werden. Vor allem Kunden, die mit dem Internet, Social Media und Online Banking groß geworden sind, erwarten von ihrem Finanzdienstleister, dass er den nächsten Schritt macht und mithilfe von Technologien wie Künstlicher Intelligenz seinen Service weiter optimiert.

Autor


Dr. Jochen Papenbrock ist Head of Financial Technology EMEA bei Nvidia.

+++

Was versteht man unter „Data Science“ und wie ist dies in den Themenkomplex KI einzuordnen? Wozu benötigt eine Bank überhaupt einen Data Scientist und mit welchen Daten und Tools wird hier gearbeitet? Diese und weitere Fragen stellen wir Torsten Nahm, der das Kompetenzzentrum für Data Science bei der DKB leitet. Hören Sie hier weitere Episoden aus der Podcast-Reihe „durch die bank“.

Melden Sie sich bei Interesse zu unserem Intensivseminar „Die Rolle des Chief Data Officer in Kreditinstituten“ an.

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge