Eine unzureichende Datenqualität muss nicht unmittelbar auffallen, kann aber gravierende Auswirkungen auf ein Unternehmen haben, wohingegen eine hohe Datenqualität die Basis für viele Digitalisierungsprojekte und die Entwicklung neuer Geschäftsmodelle darstellt. Das sollte für Versicherer Anreiz genug sein, sich mit dem Thema zu beschäftigen.
Kleine Ursache, große Wirkung: Der „Mars Climate Orbiter“ sollte der NASA eigentlich neue Erkenntnisse über die Atmosphäre des Mars bringen. Doch leider führte ein Einheitenfehler dazu, dass die Sonde einen falschen Kurs nahm und im All verglühte. Ein, zugegeben, spektakuläres Beispiel dafür, was unzureichende Datenqualität bewirken kann. Ähnlich gravierend kann sich unzureichende Qualität der Daten aber auch bei Versicherern auswirken, wenn es um die Nutzung von KI geht.
KI ist kein Wunderwerk
Die in KI-Methoden gesetzten Erwartungen sind hoch. Informationen aus dem IoT bilden die Basis für Telematik-Tarife oder parametrische Versicherungen. Mithilfe von Techniken der „Künstlichen Intelligenz“, wie maschinelles Lernen und Predictive Analytics, wollen Versicherer mehr über das Verhalten der Versicherten herausfinden. KI-Analysen sollen wichtige Impulse liefern, um neue Produkte zu entwickeln sowie deren Rentabilität und Risiken zu kalkulieren.
Für viele Entscheider in Unternehmen bleibt der Begriff der KI allerdings abstrakt. Es scheint sich um ein Wunderwerk der modernen IT zu handeln und dabei wird schnell vergessen, dass KI von Menschen entwickelt wird. Und die können weiterhin Fehler machen oder aber ihre eigenen Ansichten und Werte in die Entwicklung von Algorithmen einfließen lassen.
KI ist auf Daten angewiesen. Diese müssen in großen Mengen vorliegen und korrekte Informationen liefern. Und um die Korrektheit steht es dabei nicht immer zum Besten.
Schlechte Daten führen zu schlechten Annahmen
Gerade weil Menschen Fehler machen, kommt es auch immer wieder zur falschen Erfassung von Informationen. Ein Zahlendreher in einer Eingabemaske oder eine falsche Auswahl in einem Formular führen dann etwa zu nicht korrekten Anschriften oder Anreden in den Stammdaten von Kundinnen und Kunden. Eine fehlerhafte Adressierung in einem Mailing wirkt lediglich unprofessionell und kann rasch korrigiert werden.
Gravierender sind aber Falschinformationen spätestens dann, wenn unternehmenskritische Prozesse auf unzureichenden Daten basieren (wie die Risikoanalyse und das Risk Management) oder sie in KI-Analysen einfließen.
KI unterscheidet sich hier nicht von einer Standardsoftware wie Photoshop. Selbst der beste Algorithmus kann aus einem schlechten Foto kein Meisterwerk kreieren. Und die beste KI-Analysetechnik wird das Unternehmen auf die falsche Fährte führen, wenn die Datenqualität nicht stimmt.
Da ist zuerst das menschliche Versagen bei der Erfassung oder Weiterverarbeitung von Informationen zu nennen. Großen negativen Einfluss haben auch Daten-Silos, die fast zwangsläufig zu Problemen führen, weil Informationen redundant und teilweise widersprüchlich vorliegen können.
Und auch tief im Maschinenraum der IT lauern Gefahren für die Qualität der Daten. Wenn Zentrale und Tochtergesellschaften nicht auf dem gleichen Versionsstand ihrer Core-Lösungen arbeiten, kann es durch Veränderungen der Datenmodelle zu Abweichungen und Widersprüchen in den Daten kommen.
Wirken die exemplarisch genannten Fehlerquellen auf den gesamten Datenhaushalt ein, potenzieren sich die Fehler. Und die Qualität der Daten nimmt insgesamt ab.
Warum sich Versicherungsunternehmen für den Einsatz von KI entscheiden und wie das erfolgreich geschieht, erfahren Sie in unserem kostenlosen Whitepaper.