Einsatz von Chatbots in der Finanzbranche

Wir haben in den letzten Wochen viele neue Erfahrungen gemacht: Es kamen neue Anbieter für Bots auf den Markt, der Wettbewerb nimmt zu und immer mehr unserer Kunden wollen von Bots profitieren – über die Versicherungsbranche hinweg. Das hat uns dazu bewogen, einen umfassenderen Artikel für die Finanzbranche im Herbst 2018 zu veröffentlichen. Den zweiten Teil des Blogbeitrags wollen wir Ihnen dennoch nicht vorenthalten und schon mal als kleine Zusammenfassung vorausschicken. Diesmal greifen wir folgende Aspekte/Fragen auf: Was steckt technisch hinter den Chatbots, und wo liegen aktuell die Grenzen? Wie muss sich ein Chatbot verhalten, damit Kunden ihn akzeptieren? Lieber selbst bauen oder von der Stange kaufen?

Die Magie hinter Chatbots – die technisches Basis und ihre aktuellen Grenzen

Chatbots existieren schon länger – man glaubt es kaum – in der einen oder anderen Form. In den jungen Jahren des Internets, vor der Gründung von Google und Co. wurden bereits die ersten Chatbots entwickelt. Die Eingaben für Chatbots waren in der Regel kurze Sätze. Nach der Eingabe des Benutzers zerlegten die Chatbots die Sätze und prüften, welche Wortkombination auftauchte (technisch gesprochen: Der Chatbot macht unzählige String-Vergleiche durch If- oder Switch-Klauseln.). Dieser Aufbau ist einfach – für die menschliche Sprache zu einfach und stößt schnell an Grenzen, z. B. bei Tippfehlern, die ein Mensch noch richtig einsortieren könnte. Dies bremste die Weiterentwicklung vorerst, bis in der jüngeren Vergangenheit das Thema Machine Learning durch eine schier unendliche Masse an Daten und erfolgsgetriebene Tech-Unternehmen wieder aufflammte.

Für intelligente Dialogsysteme überschneiden sich die Forschungsgebiete Machine Learning mit Deep Learning als Teildisziplin sowie Natural Language Processing (NLP) mit den Teilgebieten Natural Language Generation, Speech-Recognition und Natural Language Understanding. Mit Hilfe von NLP können Chatbots weitestgehend ohne If-/Switch-Klauseln gebaut werden. Eine wichtige Fähigkeit ist dabei die Einstufung der zugrundeliegenden Absicht eines Satzes (intent), z. B. durch Klassifizierungsalgorithmen. Im zweiten Schritt wird die Absicht durch das Zielobjekt, der sogenannten Entität (entity), genauer definiert. Als Teil eines Satzes und Ergänzung eines intents tragen sie häufig die wertvollsten Informationen. Je nach Granularität sind die intent-entity Kombinationen schwer zu identifizieren (insbesondere bei langen Sätzen) und extrem abhängig vom Kontext – der fachlichen Domain. Es verlangt daher viele verschiedene Trainingsdaten.

Mittlerweile ist das Angebot verfügbarer Frameworks, die die oben beschriebene Architektur von Absicht und Entität verwenden und zur Verfügung stellen, deutlich gewachsen. Obwohl die Entwicklung von Chatbots mithilfe dieser Frameworks einfacher ist, bleibt ein Großteil der Herausforderungen von vor 20 Jahren noch bestehen: Chatbots können nur diejenigen Situationen behandeln, die durch entities und intents vorgegeben sind, das heißt vorgegebene Antworten den „richtigen“ Fragen/Anliegen zuordnen.

Aber mit dem Vormarsch von künstlichen, neuronalen Netzwerken (Artificial Neural Network) wird es zunehmend gelingen, dass Chatbots selbst Zusammenhänge lernen und einen vernünftigen Satz anhand von Kontextbeispielen schreiben. Sie finden und formulieren die Antworten dann selbst.

Aus Magie wird eine vollständige Show – Usability-Herausforderungen für Chatbots

An der Entwicklung neuer Sprachassistenten, zum Beispiel Google Assistant, können wir schon jetzt ablesen, in welche Richtung sich die Mensch-Computer-Interaktion der Zukunft durch Machine Learning entwickeln wird. Die Fortschritte sind enorm und die Herausforderungen noch nicht ganz überwunden. Die Technik ist natürlich ein sehr wichtiger Bestandteil eines Chatbots. Was jedoch in der Entwicklung von Chatbots häufig unterschätzt wird, ist die Konzeption und die User-Experience – gerade weil die Technik (noch) nicht unfehlbar ist. Häufig laufen Versicherer und Banken Gefahr, einen allwissenden Chatbot bauen zu wollen, der alles kann und am Ende daran scheitert, dass dem Nutzer bei den wichtigsten Use-Cases nicht geholfen werden kann. Nach mehrfachen Versuchen kommt immer wieder die gleiche Antwort: „Entschuldigung, das habe ich nicht verstanden“. Der Nutzer gibt auf und lässt seinen Frust – im besten Fall – am Kundenservice aus oder schließt bei der Konkurrenz ab.

Um solche Situationen zu vermeiden, sollten Unternehmen aus unserer Erfahrung heraus sicherstellen, dass Chatbots nutzerzentriert entwickelt werden. Eine nutzerzentrierte Entwicklung ist nur mit multidisziplinären Teams möglich: User-Experience-Spezialisten (UX-Spezialisten), Machine-Learning-Engineers, Data-Scientists und natürlich Branchenspezialisten. UX-Spezialisten helfen, einen Chatbot zu konzipieren, machen sich Gedanken darüber, wann welche Interaktionsmethoden sinnvoller sind, ob und welche Persönlichkeit der Chatbot haben soll, und sie planen frühzeitig User-Tests ein.

Ergänzend sind domainspezifische Daten natürlich ein essentieller Teil eines erfolgreichen Chatbots. Trainingsdaten eines Chatbots bestehen idealerweise zu einem großen Teil aus echten oder simulierten Konversationen der beteiligten Gruppen. Denn basierend auf diesen Daten lernt ein Chatbot, intents richtig zu deuten – in der „richtigen“ Sprache des Anwendungsfallkontextes.

Der Weg zur eigenen Show – Make-or-buy-Entscheidungen für Chatbots

Nach einem Einblick in die technischen Besonderheiten und Herausforderungen für das Kundenerlebnis bleibt noch eine Frage offen: Wie kommt man zu einem Chatbot?

Grundsätzlich bieten sich die Alternativen „Make“ oder „Buy“. Wobei ein vollständiges „Make“ mit Blick auf obige Ausführungen wenig sinnvoll erscheint. Daher geht es beim „Make“ um die individuelle Zusammenstellung und Anpassung von Komponenten (NLU, Dialogue-Engine, Frontend, Schnittstellen). Beim „Buy“ geht es um die Auswahl einer „Komplettlösung“, die möglichst alle Anforderungen erfüllen kann.

Ein erstes Marktscreening liefert mindestens 30 relevante Anbieter. Darunter Anbieter reiner Technik als Open-Source wie RASA oder bekannte Branchenriesen wie IBM, Microsoft und Oracle. Ebenso auf Contact-Center-Lösungen spezialisierte Anbieter haben ihr Angebot um Chatbots erweitert. Zudem bieten zahlreiche FinTechs spezialisierte Lösungen an. Zu guter Letzt seien noch die Digitalagenturen zu nennen, die meist auf Basis der Technologie Dritter (Open-Source) als Full-Service-Chatbot-Anbieter auftreten.

Die Auswahl der Lösung hängt neben dem Preis und der Qualität der NLU, welche sehr variieren – wie immer bei Software-Auswahlverfahren – im Wesentlichen von den geplanten Anwendungsfällen und Anforderungen ab. Dabei sollte man unter Berücksichtigung der Geschwindigkeit digitaler Entwicklung den Ansatz „Think big“ wählen. Nachfolgend nur einige wenige Beispielfragen aus unserer Praxiserfahrung:

  • Über welche weiteren Kanäle soll der Chatbot zukünftig angeboten werden?
  • Soll die Plattform auch Voice-Assistant (z. B. Amazon Alexa) oder Live-Chat unterstützen?
  • Möchten wir Transaktionen bzw. Geschäftsvorfälle über den Chatbot durchführen, das heißt ihn in unsere Facharchitektur einbinden?
  • Kann die Lösung ohne Programmierkenntnisse durch den Fachbereich betrieben werden?

Fazit: Chatbots sind ein erster wichtiger Schritt in der Neugestaltung unserer Mensch-Computer-Interaktionen und unseres Alltags. Sozusagen die erste von drei Disziplinen eines Triathlons. Die wirklichen Herausforderungen sowie Chancen warten noch auf uns. Eines steht fest: Wer jetzt den Anschluss ans Hauptfeld verpasst, kein Know-how aufbaut und Erfahrungen macht, wird es schwer haben, dies über die gesamte Distanz wieder aufzuholen.

Freuen Sie sich auf weitere Erfahrungen und tiefergehende Einblicke in die Welt der Chatbots und beste Grüße,

Thomas, Phuc, Borhan & Ronny

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Verwandte Artikel