Vor einigen Jahren hat die Entdeckung von „Big Data“ viele Branchen geradezu elektrisiert. In der Theorie besitzen Finanzdienstleister und Versicherer unendliche Datenschätze, die nur darauf gewartet haben, gehoben zu werden. Inzwischen hat sich die Begeisterung für Big Data etwas abgekühlt. Und das ist wenig überraschend.
Kaum eine Präsentation oder ein Fachartikel kam in den vergangenen Jahren ohne das Buzzword „Big Data“ aus. Einstimmig wurden darin die großen Potenziale, aber auch Herausforderungen erwähnt. Mittlerweile werden die Artikel zum Thema allerdings weniger. Es herrscht offenbar die große Ernüchterung.
Vernetzung von Datensilos
Unter den Herausforderungen, die sich im Umgang mit Big Data ergeben, sind die (immer noch) wachsenden Datenmengen noch am wenigsten problematisch. Die stetig wachsende Performance im Computing hält damit Schritt. Doch bevor überhaupt Nutzen aus den Daten gezogen werden kann, müssen diese erst einmal zusammengeführt werden. Viel zu oft und viel zu lange haben Versicherungen ihre Daten in Silos verwaltet. Von der Datenqualität gar nicht erst zu reden.
Über Schnittstellen einen lückenlosen Fluss aller vorhandenen Daten – möglicherweise sogar in Echtzeit – mit eigenen Mitteln umzusetzen, erweist sich als zu aufwändig. Schließlich muss auch noch das Tagesgeschäft abgewickelt werden, das durch Änderungen von Kundenverhalten und Regulatorik ohnehin anspruchsvoll genug bleibt.
Konzepte für die IT-Architektur, die eine übergreifende Vernetzung und damit Auswertung der Datenmengen erlauben, scheitern häufig bereits an der Frage, bei welchen Datentöpfen denn überhaupt angesetzt werden sollte. Beim Auflösen von Datensilos und der Zusammenführung unterschiedlicher Quellen können Profis den Versicherern unter die Arme greifen. Eine ganz wesentliche Aufgabe können sie ihnen jedoch nicht abnehmen: Die Definition von Visionen und Zielen. Hier setzt bei den Versicherungen meist die Ernüchterung ein, weil viele Projekte im Bereich Big Data genau an diesen fehlenden Visionen und Zielen scheitern. Denn die Zusammenführung von Daten allein stellt noch keinen Wert dar.
Nicht den zweiten Schritt vor dem ersten tun
So erinnern viele Unternehmen (da bilden Versicherungsgesellschaften keine Ausnahme) an den Häuslebauer, der sich den Traum vom Eigenheim in erster Linie wegen des zu erwartenden Wertzuwachses erfüllt hat. Und am Ende steht es auch da, das Traumhaus. Wahrscheinlich steigt es auch im Wert – nur davon hat der Eigentümer ja nichts, da er gar nicht verkauft.
So schlummern im Data Warehouse nach wie vor Erkenntnisse und Einsichten, die zu einem besseren Verständnis der Konsumenten beitragen oder die Basis für neue Tarifmodelle oder Serviceangebote darstellen könnten.
Die Integration der Daten, das Auflösen von Datensilos ist eine anspruchsvolle Aufgabe. Sie ist aber eigentlich erst der zweite Schritt. Damit Big Data einen Nutzen erfüllen kann, sollte man zunächst die Frage stellen und auch beantworten, was denn mit den Daten überhaupt passieren soll. Und man braucht Ideen.
KI kann „Big Data“ in „Smart Data“ verwandeln
Statt „Big Data“ braucht es smarte Daten, aus denen neue Einsichten gewonnen werden. Am Anfang steht aber die Ideenfindung. In dieser Phase müssen Fragestellungen und Hypothesen aufgestellt werden, die mit Hilfe der Datenanalysen bestätigt oder verworfen werden. Künstliche Intelligenz und maschinelles Lernen unterstützen Datenanalysen und tragen zur Erhöhung der Datenqualität bei. Aber erst, wenn sinnvolle Hypothesen aufgestellt werden.
Einfach nur einen großen Datentopf zu nehmen und eine Software anzuschaffen, die auf KI setzt, genügt nicht. Abteilungsübergreifend sollten zunächst Ideen generiert werden: Ob es nun um die Identifikation neuer Kundensegmente, Prozesse zur Betrugserkennung oder Ideen für neue Produkte geht. Weitere Diskussionen innerhalb des Unternehmens müssen dann zu einem Portfolio an Konzepten führen, die datengestützt verifiziert werden.
Aus „Big Data“ kann „Smart Data“ werden – aber nur wenn Mensch und KI Hand in Hand arbeiten. Und dazu braucht es eben Ideen.