Im Zuge des technologischen Fortschritts dringt die künstliche Intelligenz (KI) unaufhaltsam in alle Bereiche des Lebens und der Wirtschaft vor. Insbesondere die Versicherungsbranche steht vor der Herausforderung, sich mit den Potenzialen und Risiken dieser Revolution auseinanderzusetzen. In dieser Interviewreihe diskutieren renommierte Experten über die strategische Ausrichtung in Bezug auf KI im Versicherungswesen. Von der Bewertung der aktuellen Situation bis hin zur Entwicklung praktischer Handlungsstrategien werden wichtige Aspekte beleuchtet, die für die zukünftige Wettbewerbsfähigkeit von Versicherungsunternehmen entscheidend sind.  

Ein Hinweis in eigener Sache: Unsere Experten stehen Ihnen auch auf den Versicherungsforen Leipzig am 24. und 25. April 2024 zur Rolle der KI in Versicherungen Rede und Antwort. 

Das Interview führen René Pausch und Matthias Blum mit Gerrit Götze. 

 
René: Unser heutiges Thema ist Datenlogistik, im speziellen Datenverfügbarkeit & Datenintegration. Wir alle haben irgendwann gehört, dass für KI-Lösungen viele Daten gebraucht werden – seien das Trainingsdaten, Live-Daten während des Betriebs, oder sogar beides. Was macht es für Unternehmen, und im speziellen Versicherer, so schwer, diese Daten bereit zu stellen? 

 
Gerrit: Heutige Versicherer haben historisch bedingt keine homogene Datenstruktur, die Daten sind über viele, viele Systeme verteilt. 
Sie haben teilweise riesige Datenbestände, die gerade für KI und datengetriebene Lösungen interessant, aber gar nicht mehr verfügbar sind. Wenn sie z.B. innerhalb von DWH-Lösungen im Informations-Management-System liegen, ist es oft schwierig an die Daten heranzukommen. Selbst da, wo die Daten noch operativ genutzt werden, sind die Systeminformationen verteilt und eben selten aus einer ganzheitlichen Perspektive zusammengeführt. Damit meine ich alle Informationen zu einem Vertrag oder alle Informationen zu einem Schaden oder einem Kunden. Im Regelfall sind die Datenmodelle in den Systemen anforderungsgetrieben gewachsen und sortiert. 

 
Das heißt zum Beispiel, es gibt eine Anwendung, die für die Pflege des Rahmen- oder des Basisvertrags da ist und da stecken jeweils nur ein Teil der benötigten Informationen drin. Daneben gibt es beispielsweise weitere Informationen in einem zweiten System, die Schäden näher beschreiben. Aber diese Daten sind niemals an einer Stelle zusammengeführt worden. Dazu kommt. dass die Datensätze historisch bedingt in unterschiedlichen Generationen von Bestands-, Schaden- oder Partnersystemen hinterlegt sind, die im schlimmsten Fall technisch nach ganz anderen Standards entworfen wurden. Kaum ein Versicherer hat es heute geschafft, ein zentrales Partnersystem zu bauen oder auch nur die Planung für eines zu finalisieren. 

 
Hinzu kommt die fachliche Schwierigkeit – wann reden wir von einem Partner, wann von einem Interessenten und wann von einer sonstigen Anschrift? 
All diese Dinge machen es zu einem extrem komplexen Unterfangen, diese Daten bereitzustellen. Für viele weitergehende Auswertungen und KI-Lösungen ist es jedoch erforderlich, diese vereinheitlicht zur Verfügung zu stellen. 

 
René: Wir erleben ganz oft den Wunsch, nicht nur Daten verfügbar zu machen, sondern auch das Geschäftsmodell stärker an Daten zu orientieren. Wenn ich mich heute als Versicherer entscheide mich in Richtung eines Data Driven Business zu entwickeln, worüber sollte ich nachdenken? 

 
Gerrit: Die Tatsache, dass man die Daten in der Zukunft in die Mitte seiner Überlegung stellt, spielt für alle möglichen Bereiche eine zentrale Rolle und beeinflusst auch die Arbeitsweisen in allen Bereichen. Künstliche Intelligenz und der Einfluss auf die Organisation sind da als die prominentesten Treiber in den Medien aktuell ganz weit vorne. Um an diesen Technologischen Fortschritten zu partizipieren, hilft es entsprechend, wenn das Unternehmen großen Wert auf Daten legt. 

 
Das ist aber nur ein Teil der Wahrheit – Im Kern geht es darum, dass ich in der Lage sein muss, Daten zentralisiert in einem einheitlichen Format abzurufen. 

 
Das ist kein neues Konzept. Die Grundüberlegungen dazu sind vor 25-30 Jahren mit dem Aufkommen der kanonischen Datenmodelle gemacht worden. Aber diese waren damals technologisch einfach nicht nutzbar. Heute müsste ich aber genau das tun! Wer als Data-Driven-Business, bzw. als Data-Driven-Organisation gelten will, sollte zentral verwaltete Datenstrukturen zur Verfügung stellen. Den klassischen Weg, die meisten Funktionalitäten und Prozesse in einem einzigen System zu bündeln, wird man nicht weiter hinbekommen. Das hat die Vergangenheit einfach bewiesen! Es wurde immer wieder versucht, nur ein Lösungssystem oder nur eine Bestandführung zu betreiben. 
Das funktioniert nicht, also sollten wir gucken, dass wir von den bisherigen Lösungsszenarien der Integration zu dem Lösungsszenario der Integration Plattform kommen, wo wir in einer zentralen Stelle schon vereinheitlichte Daten operativ zur Verfügung gestellt bekommen. 

 
Das geht ein bisschen in das, was heute als Master Data Management bezeichnet wird. Also, dass man an einer zentralen Stelle über intelligente Lösungen zum Beispiel innerhalb der Cloud spricht und Snowflake-Schemata oder ähnliches nutzt. Das Stichwort ist: „Daten auswerten“; und zwar mit intelligenten Lösungen, um Einheitlichkeit und Golden Records zu erzeugen. 

 
Die modernen Strukturen des Data Driven Business gehen aber zwei Schritte weiter. Es ist schließlich entscheidender, dass Versicherungen im operativen Bereich auch diese Daten zur Verfügung stellen und stellen können. Zu glauben, man könnte hier alle Anwendungsfälle heute und in Zukunft vorhersehen, und deshalb nur bestimmte Daten aggregieren und bereitstellen, geht zu Lasten der zukünftigen Entwicklungen. 

Für die Nutzbarkeit der Daten braucht es ein einheitliches Datenformat, vereinheitlichte Daten für ein echtes Data Driven Business. Die können wir so zur Verfügung stellen und können dann als Nebenprodukt genau diese Daten auch noch für KI-Lösung jeglicher Art benutzen, weil sie eben vereinheitlicht, strukturiert und als kanonische Datenmodelle vorliegen. 

 
Matthias: Bei uns im Haus gibt es ein Framework und Produkt mit dem Namen platin, das du betreust. Hier wird genau diese Integration, von der du sprichst, angeboten. Magst du für unsere Leserinnen und Leser einmal zusammenfassen, was platin ist? 

 
Gerrit: platin löst das Datenproblem von einer anderen Seite. Dabei nutzt es Einzeltechnologien, die bereits existieren – egal ob wir von Prozessmaschinen reden, egal ob wir von Kanonischen Daten Modellen oder entsprechenden ETL-Lösungen reden, von Eventsteuerung oder zentraler Orchestration der Geschäftsprozesse. Das sind alles Dinge, die es schon gab und schon gibt – was sich verändert ist, dass wir diese Art der „Integration Plattform“, und platin ist ja nichts anderes als Plattform Integration, in die Mitte stellen.  

Und das tun wir eben nicht als Layer, den wir um die einzelnen Systeme herum legen, um sie abzukapseln. Das heißt, wir nehmen Funktionalitäten aus den bereits existierenden Teillösungen heraus und zentralisieren die Orchestrierung und Datenversorgung. Wir kapseln also nicht eine Anwendung durch einen Integration Layer ab, sondern wir bieten in der Mitte eine Lösung an, die für alle anderen Systeme vereinheitlichte Schnittstellen bietet.  

Einer der wichtigen Punkte für uns in unserer Überlegung einer solchen Integrationsplattform ist, dass wir damit auch Funktionalitäten aus den Systemlösungen herausbrechen, die normalerweise klassisch dort verankert sind. Das sind namentlich jede Art von Data Mapping und Transformationen, die normalerweise an den Schnittstellen zu Drittsystemen innerhalb meiner Anwendung stattfinden, oder gelegentlich in eigenen Services ausgelagert sind und dadurch die Komplexität der gesamten Landschaft deutlich erhöhen. 
Diese Klammer ich aus, bringe sie in die Mitte der Plattform und nur dort werden Datenformate ineinander überführt. Das heißt für meine Unternehmensorganisation: Ich habe nur noch einen Bereich, wo diese Mapping-Logik, und damit auch das Know-How, wirklich relevant ist, also wo dieses Wissen liegt. Damit kann ich diese Logik endlich vereinheitlichen und zentralisieren. 

 
Das betrifft dann auch die Datenflüsse und nicht nur das Mapping. Auch die Orchestration von Folgeprozessen, die hinter der abschließenden Bearbeitung von Entitäten in den eigentlichen Systemen stattfindet. 

Angenommen der Vertrag ist gespeichert und verändert worden. Der Versicherer hat eine größere Menge von Drittsystemen, die über die Anlage des Vertrags informiert werden müssen oder Folgeprozesse, die angestoßen werden müssen. 

 
Heute muss das Vertragssystem irgendwie wissen, wer informiert werden muss und welche Prozesse angestoßen werden müssen. Diese Logik ziehe ich in die Mitte der Unternehmensarchitektur, also zentralisiere sie. Und zwar nicht nur für das Vertragssystem, sondern für alle Systeme. 

 
Das heißt auf dem Weg zu einem Data Driven Business ist diese Plattform-Lösung eine riesige Hilfe. Zugegeben, der Umbau zu einer zentralen Plattform ist nicht mal eben erledigt. Aber wir haben das bereits gemacht und es birgt ein riesiges Potential für die Zukunft, alle Daten und die Logik der Geschäftsprozesse an einer zentralen Stelle greifbar zu machen. 

 
René: Eine solche Plattform ist dann kein reines IT-Projekt mehr, sondern nimmt organisatorische Ausmaße an, richtig? 

 
Gerrit: Definitiv, das ist ein Grund, warum wir auch in der Erklärung sehr oft sagen, dass wir das Facharchitektur-Modell um eine weitere Fachdomäne Integration erweitern. Das ist etwas, wo Versicherer in der Vergangenheit sehr oft Probleme hatten, und zwar bei der klassischen Frage: Wer ist eigentlich verantwortlich? Wieder ein Beispiel: Die Orchestrierung wird ausgelöst durch eine Vertragsänderung. 
Wer steuert denn dann die Drittsysteme nach hinten raus, also nach Verlassen des originären Vertragssystems? Oder wenn wir sagen, wir haben ein weiteres Attribut im Vertragsmodell, welches wir aus einem der dritten Systeme benötigten: Wer ist dann für die Lieferung oder Nichtlieferung verantwortlich und welche Zeiträume bis zu einer Anpassung sind dafür akzeptabel? 

 
All diese Diskussionen wurden immer wieder auf Architekturebene und fachlicher Ebene unterschiedlich beschieden, unterschiedlich diskutiert, teilweise in einem Haus mehrfach unterschiedlich beschieden. Auch deshalb propagieren wir heute die Plattform an einer zentralen Stelle. Das ist natürlich nicht nur technische Integration, sondern wir schaffen dafür auch die Arbeitsgrundlagen, die organisatorischen Grundlagen, die Teams und wir bündeln das Know How. Das heißt, dass wir im Kern das wirklich relevante Know How eines Unternehmens bündeln und zwar die Antworten auf die Fragen: Wie wollen wir arbeiten? 
Mit welchen Daten wollen wir arbeiten und warum wollen wir das so tun? 

Mit einer solchen Plattform wird das zukünftig in einem Team gebündelt werden können und damit wird es eine effektive Steuerung aus einer Unternehmenszentrale geben. 

 
Matthias: Meine Schlussfolgerung ist, dass Versicherungen nur mit sehr viel Aufwand System-übergreifende KI-Lösungen in den Einsatz bringen können, weil ihre Datenstrukturen und ihr Datenmanagement das noch nicht hergeben. Jedenfalls solange sie eben nicht die Daten mühevoll zusammentragen, die sie für Ihre KI-Lösungen brauchen. Siehst du das auch so? 

 
Gerrit: Das sind aus meiner Sicht zwei verschiedene Paar Schuhe. Das eine ist: wir versuchen, gerade mit dieser Integrationsplattform, eine Lösung zu schaffen, wo die Datenqualität und die Datenverfügbarkeit ein positives Abfallprodukt sind. 

Versicherer haben schon Systeme, mit denen sie auf ihre Daten, wenn auch sehr stark komprimiert, zurückgreifen können. Das sind die bekannten Data Warehouses. 
Man könnte jetzt ganz naiv sagen: Ich nehme einfach alles, was kommt, lasse eine KI drüber laufen und gucke danach, was die KI damit anfangen konnte und welche Muster sie entdeckt. Und das mit all den Folgeproblemen, die daraus entstehen, wie wir wissen. Das klingt einfacher als es ist und die Ergebnisse sind oft nicht so hilfreich, wie man denkt. 

 
Also Daten aus der Vergangenheit, dispositive Informationssysteme, das finden wir bei den meisten Versicherern vor. Aber in dem Augenblick, wo wir KI einsetzen wollen, um operative Steuerung gerne auch auf Basis von historischer Auswertung oder historischer Erfahrung aktiv zu steuern, da wird es kompliziert. 
Also wenn man sich zum Beispiel vornimmt, ein System zu trainieren, um zu erkennen, wie groß die Betrugswahrscheinlichkeit bei bestimmten Aktivitäten und Geschäftsvorfällen ist, dann heißt das, dass ich identische Daten für diese Geschäftsvorfälle brauche, die dem entsprechen, wie ich jetzt auch gerade arbeite. Also ein einheitliches Datenformat, das über längere Zeit zumindest in den wichtigen Attributen stabil geblieben ist. 

 
In der Realität muss ich diese Einheitlichkeit der Daten künstlich herstellen und da steckt definitiv eine Menge Arbeit drin, die heute von Data Scientists geleistet wird. Also Versicherer sind nicht verpflichtet eine Integrationsplattform dafür zu bauen, vereinfacht die Sache an der Stelle halt nur erheblich, wenn ich sie hätte. lacht 

 
René: Wir haben in den letzten Interviews bereits über AI Readiness gesprochen, also: Wie macht man denn einen Versicherer bereit für den Einsatz von KI. Welche Tipps hast du an Entscheiderinnen und Entscheider für genau diese Frage: Wie bekomme ich meine Versicherung bereit für KI? 

 
Gerrit: Wie ist bei einem Unternehmen erstmal ganz entscheidend davon abhängig, wie klar ich meine Arbeitsprozesse kenne – und dann geht es noch gar nicht darum, ob diese Arbeitsprozesse automatisiert sind oder nicht, sondern ich muss erstmal wirklich wissen, wie ich arbeite und warum ich so arbeite. Nur dann kann ich verstehen, wie ich dem Unternehmen jetzt wirklich helfen kann. Das zweite ist: Wie verfügbar sind meine Daten auf die Schnelle wirklich? 
Das sind die beiden Hauptthemen. Dabei kommt man schnell zu Fragen wie Prozessanalytik und Process Mining auf der einen Seite und Daten Analyse und Data Driven Business bzw. AI Readiness.  Je mehr Zeit und Energie ich in diese Themen reinstecke, desto größer werden meine Möglichkeiten und Optionen für die Zukunft beim Einsatz von KI. 

 
René: Tobias hat in unserem Interview darauf hingewiesen, dass man heute schon mit kleinen Projekten im KI-Bereich anfangen sollte, um Wissen aufzubauen. 
Langfristig gesprochen: Glaubst du, dass sich das Einführen so einer Integrationsplattform irgendwie mit diesem Ansatz verbinden lässt? Also Transformationsprojekte & Wissensaufbau gleichzeitig? 

 
Gerrit: Rein kostentechnisch ist die Einführung einer Integrationsplattform nur aus einer Unternehmensdimension betrachtet nicht sinnvoll. Erst die Summe der Vorteile und auch das große Ganze zu sehen lässt einen erkennen, wie wichtig und zielführend dieses Werkzeug ist. Und ein positiver Einfluss auf die Möglichkeiten, KI einzusetzen, lässt sich nicht bestreiten. KI wird helfen, an bestimmten Stellen den Durchsatz von Vorgängen eklatant zu erhöhen. 
Bestimmte Dinge können dunkel verarbeitet werden, keine Frage, Zum Beispiel ob der Fleck auf der Jacke noch reparabel ist oder nicht – das wird irgendein KI-System relativ bald problemlos erkennen können und dann kann man auszahlen oder auch nicht. 
Aber relevant wird es an der Stelle, wo ich KI nutzen kann, um tatsächlich Arbeitsprozesse in der Steuerung zu optimieren. 
Die technischen Voraussetzungen, um das wirklich zu können, sind dann aber so teuer und so hoch, dass ich aus Feldversuchen heraus nicht die Begründung für die Investitionen in eine Integrationsplattform hinkriege. In Summe mit den vorher beschriebenen Vorteilen solch einer Plattform für alle Bereiche, sieht es aber schnell ganz anders aus. Eine weitere Begründung, die es dafür gibt, ist die Möglichkeit, schneller wechseln zu können und Unabhängigkeit zu erreichen. 
Weg von einem Großteil der Hersteller, das sogenannte Vendor-Lock-In, auf eine Plattform in der Mitte, die das Unternehmen dann möglichst auch noch mit den eigenen Leuten weiter betreibt. Im Prinzip heißt das die Abhängigkeiten an zentraler Stelle zu reduzieren und den Rest relativ flexibel zu gestalten. 
Das allein ist schon wirtschaftlich so interessant, dass sich das sehr schnell rechnet. 

Ich komme aber zurück zu der Frage: Wann sollte ich anfangen, mein Know-How aufzubauen? Dort gilt, glaube ich, für alle Technologien und definitiv auch für KI, das gleiche. Viele Unternehmen sagen zum Beispiel, dass sie in die Cloud wollen. Die Technologie ist mittlerweile seit 10 Jahren verfügbar, aber unsere Kunden haben es immer noch nicht geschafft. Das hat etwas damit zu tun, dass sie eben nicht vor 10 Jahren angefangen haben, das Wissen aufzubauen. Es gibt heute kaum jemanden, der in der Lage ist, einen vernünftigen Pott aufzusetzen oder die Grundfragen der Dynamik einer entsprechenden Steuerung in der Cloud auch nur zu verstehen oder die benötigte Performance so weit hoch zu planen, dass man weiß, was das zum Jahresende kostentechnisch bedeutet. Da verlässt man sich auf große Dienstleister und dann entstehen oft finanzielle Überraschungen. Wir kennen Fälle in denen hat man 11 Monate lang wirklich Geld gespart, um dann ab dem 12ten Monat mehr Geld auszugeben, als sonst im ganzen Jahr. Dann muss die Cloud schnell wieder runtergefahren werden, weil man sich der Dimensionierung nicht klar war.

 
Unter dieser Prämisse ist definitiv der früheste mögliche Aufbau und damit die früheste mögliche Nutzung solcher Technologien sehr sinnvoll. Nicht nur, um in der Lage zu sein, bestimmte Innovationen selbst zu machen, sondern um es mit eigenem Know-How selbst steuern zu können, wenn man es nicht selbst macht. Das ist viel wichtiger, denn es wird immer gute Dienstleister geben, die nach Anforderungen umsetzen, was gebraucht wird. Aber was ich im Haus behalten muss, ist das Wissen, was ich wirklich will und warum. 

 
René: Gut also Gerrit, Finale: Welche Empfehlungen hast du an Versicherer, wenn sie jetzt schnell KI in den Einsatz bringen wollen und welche Maßnahmen sind dafür erforderlich? 

 
Gerrit: Also die Empfehlungen sind ganz klar anfangen und das möglichst sofort; allerdings mit realistischen Erwartungen. Also es geht nicht darum, heute alles umzuwerfen. Man sollte nicht davon ausgehen oder darauf warten, dass irgendjemand mit der ultimativ besten Lösung um die Ecke kommt. Es gibt nicht die eine Lösung, die alle Probleme löst und damit macht KI sich selbst unsterblich. Wir haben keine allgemeingültige KI, sondern wir haben spezialisierte Systeme, und diese Anwendungsgebiete müssen wir finden.  

Also muss man Anfangen zu überlegen, welche Maßnahmen dafür erforderlich sind. 
Wo müssen Daten wirklich konsolidiert und vereinheitlicht zur Verfügung gestellt werden? Und dann braucht es Leute, die darüber nachdenken können, die den Sachverstand haben. Das müssen noch nicht mal die Hälfte der Mannschaft sein, die Ahnung von KI haben, sondern die muss einfach nur beschreiben können: Wo liegen Probleme, wo liegen Chancen und was sind Fragen, die ich immer schon mal beantworten wollte? Und diese Fragen tatsächlich dann mit einem KI-Experten versuchen anzugehen. 

Matthias: Vielen Dank, Gerrit! 

 
Gerrit: Danke euch beiden!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

66  +    =  72

Verwandte Artikel