Actuarial Data Science – die Macht der Daten

Big Data, small solutions – information overload! Teil 1

Erst vor Kurzem erfuhr ich von einer Bekannten von einer mobilen App, die es ermöglicht, Live-Daten vom Aufenthaltsort eines Users auf dem eigenen Smartphone zu erhalten. In diesem Falle ermöglicht das Tool dem Partner meiner Bekannten, ihre Heimfahrt mit dem Auto (es handelt sich um eine Fernbeziehung) live zu verfolgen, um mögliche Unfälle in Sekundenschnelle zu erkennen und zeitnah zu handeln. Gleichzeitig vermittelt die App beiden während der Fahrt ein Gefühl der Sicherheit.

Diese kurze persönliche Anekdote möchte ich zum Anlass für meinen heutigen Blogeintrag nehmen.

Das Bedürfnis der Sicherheit ist gewiss keine neuartige Erkenntnis. Jedoch lässt sie sich idealerweise auf die – speziell aufgrund der Digitalisierung – veränderten Ansprüche eines Versicherungskunden beziehen. Dieser wünscht heutzutage eine ständige Erreichbarkeit (auf allen Kanälen), individuelle Beratung sowie Produkte und vor allem im Leistungsfall eine schnelle Reaktion. Zusammengefasst wird also mehr als nur der Standard gewünscht.

Hierfür lassen sich die scheinbar unendlichen Mengen an verfügbaren Daten - Stichwort Internet of Things oder noch weiter gedacht: Internet of Everything - hervorragend nutzen, sofern sie denn wahrgenommen werden. Unser Beispiel liefert mit Hilfe des Live-Trackings über GPS bereits eine Ausprägung der möglichen Datenquellen. Die Aufgabe für Versicherer besteht nunmehr darin, verschiedenste Datenstrukturen aus unterschiedlichsten Quellen zu standardisieren, logisch und vorausschauend miteinander zu verknüpfen und somit individuelle Services für den Kunden zu liefern. Um hierbei eine umfassende Analyse zu gewährleisten, sollten die bereits bekannten Themen Big Data und Predictive Analytics sinnvoll verknüpft und genutzt werden.

Das Ziel dieses intelligenten Datenerhebungsprozesses stellen adaptive Produkte dar, die auf die jeweils individuellen Bedürfnisse eines Kunden zugeschnitten sind. Sich ändernde Umstände können in Echtzeit erfasst und erkannt werden und Produkte kontinuierlich an die Situation angepasst werden. Dazu gehört neben der Aktualisierung und Erweiterung von Versicherungsschutz und ‑leistungen ebenso eine Dynamisierung der Prämien. In anderen Worten wird dem Kunden eine „Echtzeit-Absicherung“ geboten, die ausgehend von seinen persönlichen historischen und Live-Daten ergänzt mit weiteren risikorelevanten Informationen individuell kalkuliert werden kann.

Zusätzlich zu der Auswertung und Strukturierung von riesigen Datenmengen erwartet den Versicherer mit der Erhebung persönlicher Daten eine weitere Herausforderung. Hierzu muss dem Kunden der Mehrwert adaptiver Produkte im Tausch zur Bereitstellung und Berechtigung zur Nutzung seiner persönlichen Informationen dargestellt werden. Insbesondere im Zuge der Regulatorik (z. B. EU_DSGVO) keine leichte Aufgabe.

Grundsätzlich entsteht also eine Win-Win-Situation, sofern der Versicherer seine Strategien, Techniken und Prozesse zielgerichtet aufbaut, um relevante Daten und Informationen sinnvoll für die Entwicklung adaptiver Produkte zu nutzen. Freuen Sie sich an dieser Stelle schon einmal auf den zweiten Teil des Blogs.

Vor dem Hintergrund der Anforderungen, die durch die Weiterentwicklung und die Möglichkeiten der heutigen Datennutzung entstehen, müssen sich unter anderem auch die Aktuare über die zukünftigen Aufgaben ihres Berufsfeldes Gedanken machen. Innerhalb der Versicherer werden Think Tanks gebildet, um neue Risikokalkulationsansätze unter Berücksichtigung der neuen Datenerhebungsalternativen zu entwickeln. Neben neuen Herausforderungen können sich für Aktuare durch die Nutzung von Datenmengen auch Chancen – Stichwort Data Scientist – ergeben. Nicht ohne Grund hat der DAV (Deutscher Aktuar Verband) das Thema Actuarial Data Science als eigenen Agenda-Punkt aufgenommen.

Abschließend möchte ich eine Kernfrage aus unserer Einleitung aufgreifen: Welche Informationen sind für die Strategie und das Geschäftsmodell der kommenden Jahre interessant? Hierzu erlaube ich mir die prägnante und vielleicht etwas provokative Aussage: Alle persönlichen bzw. individuellen Daten sind interessant!

Beste Grüße
Bo

Bo Lennart Andresen ist gelernter Kaufmann für Versicherungen und Finanzen und Bachelor der Betriebswirtschaftslehre. Bei PPI arbeitet er als Consultant im Bereich Versicherungen. Mit dem Fachwissen aus dem Versicherungsalltag bildet er die Schnittstelle zwischen fachlichen Anforderungen und der Umsetzung im technischen Bereich.

#Digitalisierung #Versicherungen #Data&Analytics #ActuarialDataScience #Big Data #PredictiveAnalytics  #Data #Datenschutzgrundverordnung #EU-DSGVO,

Digitale neue Welt - Cyberrisiken als Kumulrisiko für Versicherer?

Kumulrisiko - bei dem Wort schrillen die Alarmglocken bei den Versicherungsunternehmen.

Befindet sich in meinem Portfolio ein Kumulrisiko? Ist dieses Kumulrisiko an einen Rückversicherer weitergegeben, und wie hoch ist der Schaden im Worst Case?

Für Leser, die mit dem Begriff „Kumulrisiko“ nichts anfangen können, eine kurze Erklärung:
Wenn ich als Versicherer nur Gebäude an der Westküste Amerikas versichern würde, habe ich ein gut überschaubares Risiko. Und bis zur „Hurrikansaison“ werde ich abends auch ruhig schlafen können. Sobald sich jedoch ein Hurrikan ankündigt und mit voller Wucht auf die Westküste zuzurollen droht, würde ich ins Schwitzen geraten. Denn sollte dieser Hurrikan dort tatsächlich eintreffen, habe ich mit einer hohen Wahrscheinlichkeit Schadenfälle an meinem gesamten Bestand.

Kumulrisiko ist also vereinfacht gesprochen das Eintreten eines zufälligen Schadenereignisses, das mehrere meiner versicherten Objekte betrifft. Daher versuchen Versicherer so gut es geht, Kumulrisiken im Vorfeld zu identifizieren und zu vermeiden und ihr Portfolio soweit wie möglich zu streuen.
Das klappt in oben angesprochenem Beispiel in der Praxis ganz gut. Ich kann die Gebäude, denen ich einen Versicherungsschutz anbiete, ja einfach über Amerika verteilen.

Im Bereich Cyber sieht das jedoch ganz anders aus. Was ist denn ein Kumulrisiko im Bereich von Cyber? Wie kann ich dieses Risiko identifizieren und vor allem wie bekomme ich einen Überblick hinsichtlich meines Bestands?
Eine Kumulbildung Cyber ist nicht so einfach nach geografischen Daten zu ermitteln. Das Internet vernetzt uns heutzutage alle in einer Form miteinander und funktioniert ortsunabhängig, sodass hier die Kumulfindung schwierig ist. Ein Kumul kann z. B. durch die Anbindung an dasselbe Rechenzentrum erfolgen oder durch Verwendung derselben Software.

Ein vielleicht etwas hochgegriffenes Beispiel: WannaCry
WannaCry, eine Cyberattacke vor gar nicht allzu langer Zeit, die u. a. die Bahnanzeigetafeln lahmlegte, war besonders für Rechner mit dem Betriebssystem Windows 8 und Windows XP gefährlich.
Wäre ich jetzt als Versicherer der Meinung, dass ich mit Apple nichts anfangen kann und daher nur auf Windowsrechner vertraue und dementsprechend nur Unternehmen mit Windowsrechnern Versicherungsschutz anbiete, habe ich automatisch ein Kumulrisiko, sobald sich eine Attacke, die Exploits in Windowssystemen nutzt, im Umlauf befindet.

Jetzt fragt sich der eine oder andere Leser vielleicht „So etwas zu messen und nachzuhalten ist doch viel zu aufwändig“. Ja, da gebe ich Ihnen Recht. Ich kann nicht von jedem Unternehmen erfassen, welche Rechner mit welchen Patches dort im Detail betrieben werden.

Aber ich kann in anderen Bereichen sehr wohl mit verhältnismäßig geringem Aufwand Kumule identifizieren: 

  • RZ-Identifikation mittels IP-Adressen
  • Verwenden veralteter Verschlüsselungstechnologien
  • Blacklist-Überprüfungen auf korrumpierte Netze
  • Identische Hard- und Software
  • Nutzung derselben Netzwerke

Dies sind nur ein paar Beispiele für mögliche Cyberkumule und sie zeigen eins, dass Cyberkumule nicht ortsgebunden sind und sich über den ganzen Globus erstrecken können.

Bis zum nächsten Beitrag


Beste Grüße und bis bald
Jonas Schwade


Jonas Schwade ist Diplom-Kaufmann und arbeitet bei der PPI AG als Consultant im Bereich Versicherungen. Seine Schwerpunkte liegen im Bereich der Kommunalversicherungen sowie in allen gesundheitlich relevanten Fragen rund um das Thema Versicherung. Jonas ist Key-Account-Manager des PPI Cyber Thinktanks und generiert Use Cases in diesem Kontext.

#Kumulrisiko #Cyber #Cyber-Rating #Cyber-Security-Programm #Cyberrating #Cyberrisks #Digitalisierung #Finanzindustrie #Risikoberatung #Risikobewertung #Risikolage #Versicherungen #Cyberattacke #Kumulbildung #Kumulfindung #Industrie 4.0


Entwicklung der digitalen DNA in Versicherungen - Braucht ein großes agiles Vorhaben eine kurz- und mittelfristige Releaseplanung? (Teil 3) #Planungspoker

Einige Anregungen aus unserer täglichen Projektpraxis:

Der eine oder andere Blog-Konsument wird sich vielleicht an den 1. Teil dieser Beitragsserie aus dem Mai erinnern und sich jetzt fragen, war da nicht ein anderes Thema für den 3. Teil angekündigt?

Sie haben Recht, aber aufgrund meines aktuellen Projektkontextes habe ich mich entschlossen, heute - und wahrscheinlich auch in meinen nächsten Beiträgen - über ein anderes Thema zu schreiben.

Und so befasst sich dieser Beitrag mit dem DNA-Handlungsfeld des gemeinsamen digitalen Denkens von Fachbereich und IT. Unter dieser Überschrift verstehen wir bei PPI auch alle Methodiken, die z. B. in größeren agilen Vorhaben eine zielorientierte, aber flexible Erarbeitung einer Digitalisierungsplattform in einem großen Team ermöglichen.

Auch in einem agilen Umfeld sind Fragen der folgenden Art absolut sinnvoll, und eine Antwort ist notwendig:
  • Welche Kapazität ist wichtig, um ein Minimal-Viable-Product (MVP) umsetzen?
  • Wie passt meine vorhandene Fachbereichs- und Umsetzungskapazität zu meiner Umsetzungsroadmap? 
  • Wie sieht mein grober Umsetzungsplan für die nächsten 9-18 Monate aus? 
  • Zu welchen Zeitpunkten brauche ich Zulieferungen von Delivery-Einheiten außerhalb meines Projektes? 
  • Wie kann ich überprüfen, ob meine Produktivität im Rahmen der Umsetzung hoch genug ist?
Für eine erfolgreiche Umsetzung dieser und weiterer Vorhaben gilt es, die richtigen und angemessenen Antworten in einem agilen Umfeld zu finden.

Übrigens ist es nach meiner Praxiserfahrung ganz normal, sich dann mit diesen Fragestellungen zu befassen, wenn man sich bereits mitten in einer Umsetzung befindet. Es ist eben manchmal für bestimmte Unternehmenssysteme sinnvoll, erst einmal mit einigen kleinen Themen und einer großen Produktvision in einigen Köpfen loszulaufen und dann in diese Fragestellungen einzutauchen.

So genug der Vorrede, werden wir etwas konkreter. Wie kann ich mit vertretbarem Aufwand und vernünftiger Qualität den Umfang und die notwendige Kapazität eines großen Vorhabens (Planungsbudget: mittlerer zweistelliger Millionenbetrag über 5 Jahre) schätzen, ohne dass ich schon ein detailliertes Konzept für den Gesamtumfang vorliegen habe? Denn Sie erinnern sich, wir befinden uns notwendigerweise in einem agilen Umfeld.

Indem wir einem bewährten Schätzansatz aus der agilen Welt auf angemessene Art und Weise adaptieren – wir „spielen“ Planungspoker auf einem höheren Abstraktionslevel.

Die Grundidee des Planungspokers ist sehr einfach. Die Größe einer fachlichen Anforderung (die normalerweise in Form einer Userstory vorliegt) wird nicht in ihrer absoluten Größe, sondern relativ zu einer Vergleichsfunktionalität geschätzt: „Der Umfang und die Komplexität der Userstory B ist ungefähr X-mal so groß wie der Umfang und die Komplexität der Userstory A.“ Zweiter wichtiger Aspekt dieses Planungspokers ist das zweistufige Schätzen in einer Gruppe (Team). Im ersten Schritt schätzt jedes Mitglied der Schätzgruppe einzeln für sich. Im Rahmen von Workshops wird über die Vorabschätzungen diskutiert und ein einheitlicher Wert vereinbart. Die Größe dieser Userstory B (im Vergleich zu Userstory A) wird dann in sogenannten Storypoints festgehalten. Üblicherweise geschieht dies in einer Skala der Form 1 (=Größe der Vergleichsuserstory A), 2,3,5,8,13,20,40,100 Storypoints und im Vorfeld einer Sprintplanung. Userstories mit einem Storypoint-Wert > 8 werden üblicherweise nicht in einen Sprint aufgenommen, sondern der Wert ist ein Indiz dafür, dass eine Zerteilung sinnvoll ist.
  1. Wenn dieses Grundprinzip und die darin liegende Hypothese, dass das Schätzen einer relativen Größe deutlich einfacher für erfahrene Entwickler ist, als das Schätzen einer absoluten Größe, akzeptiert haben, brauchen Sie nur noch vier Dinge, um hieraus eine valide Kapazitätsschätzung herzuleiten:Mut, um dieses Verfahren auf einem höheren Abstraktionslevel (nämlich auf der Ebene von Epics) durchzuführen
  2. eine Liste von priorisierten Epics als Grundlage für den Planungspoker
  3. eine geeignete Schätzgruppe
  4. ein Vergleichsepic, das Sie umrechnen können

ad 1: Tja, hier sind Sie selbst gefragt oder Sie lassen sich unterstützen.

ad 2: Falls Sie sich an den Oktober erinnern, dort habe ich das Instrument einer UserStoryMap vorgestellt. Aus einer UserStoryMap lässt sich mit relativ geringem Aufwand eine priorisierte Epic-Liste ableiten. Im vorliegenden Fall haben wir das Verfahren mit knapp 100 Epics durchgeführt. Jedes Epic war dabei mit 1-2 Sätzen beschrieben, und wir haben auf dieser Basis die internen und externen Abhängigkeiten aufgezeigt.

ad 3: Wenn Sie keine hierfür geeigneten Menschen an Bord haben, helfen weder Mut noch geeignete Methodik.

ad 4: Für so etwas hilft die Tatsache, dass Sie sich bereits in der Umsetzung befinden, enorm.

Natürlich ist das Thema im Rahmen dieses Beitrags etwas simplifiziert dargestellt. Und vor allem bei dem Schritt Umrechnen von Epic-Points in Kapazität sind noch ein paar Dinge zu tun, aber ich kann Ihnen versichern, es funktioniert!

In der Hoffnung Sie nicht gelangweilt zu haben, sondern Ihnen ein paar Denkanstöße geliefert zu haben, verbleibe ich nach deutlich über einem Jahr digitale DNA bei PPI mit der Empfehlung

„Finden Sie Ihre Ansätze und entwickeln Sie die digitale DNA Ihres Unternehmens (weiter).“ 

Beste Grüße
Tobias Kohl

Online Kundenportale – „Joy of Use“ anstatt Frustration

Beim Versicherungskunden tritt der Schadensfall ein. Was will er also tun?
Er will dieses Problem abgeben und so schnell wie möglich seiner Versicherung melden. In einer digitalen Welt erwartet man eine digitale Lösung. Und hier beginnt die Odyssee an Frustrationen mit Kundenportalen und Online-Schadenmeldungen, denn erst einmal muss die richtige Homepage oder App gefunden auf der der Schaden gemeldet werden kann. Ist die richtige Seite erst einmal gefunden, führen dann zusätzlich aufwendige Authentifizierungsverfahren dazu, dass Kunden ihren Schadensfall nicht schnell und unkompliziert melden können. Grund dafür sind Medienbrüche und lange Registrierungszeiten. Ist der Zugang zum Kundenprotal freigeschalten, wird der Kunde oft mit überladenen und überflüssigen  Funktionen konfontiert.

Das geht auch anders, oder?

Ja, es geht auch anders - aber nicht unbedingt besser. Oft täuschen mäßig konzeptionierte und schlecht umgesetzte Kundenportale den Versicherungskunden, denn es handelt sich hierbei meist um ein Online-Formular, das keinerlei Schnittstellen zu den Systemen der Versicherer aufweist und somit auch keine zügige Schadensbearbeitung ermöglicht. Dort fehlen einfach die nötigen Prüfungen der Daten und die strukturierten Daten am Prozessende.

Ist das wirklich das Ende der Fahnenstange?

Nein, mit dem Customer Self Service Portal (CSSP), einem Produkt der PPI AG, endet die Ära der Frustration. Nicht nur für den Kunden, sondern auch für den Versicherer.  Das Customer Self-Service Portal, als konfigurierbare und einfache Out-of-the-box Lösung, positioniert sich genau zwischen „overengineerten“ Anwendungen und zu flachen Online-PDF-Formularen.
Durch konfigurierbare Business Rules bestimmt der Versicherer die Prüfung von Eingaben und erhält nur valide Daten am Prozessende. Das spart dem Sachbearbeiter Zeit und Nerven. Diese zukunftssichere Lösung benötigt keine Anpassung an der Infrastruktur und ist sowohl mobil als auch Desktop Anwendung nutzbar.
CSSP bietet eine Kundenportallösung ohne Einstiegshürden oder aufwendige Authentifizierung. Das freut den Anwender, der direkt loslegen kann. Die benutzeroptimierte Führung während einer Schadenerfassung fördert den Joy of Use und das sehen auch die Kunden unseres Referenzkunden BD24 Berlin Direkt Versicherung so. Mit einer durchschnittlichen Bewertung von vier Sternen bei möglich fünf. Und ganz nebenbei reduzierte die Implementierung des Customer Self Service Portals bei der BD24 die mittlere Schadenbearbeitungsdauer um 75 Prozent.

Wir denken voraus!
Der Eingang strukturierter Daten zur Abarbeitung im automatisierten Prozess ist bereits möglich. Prozessautomatisierung und dunkelverarbeitete Auszahlungen im Schadensfall sind für 2018 geplant.
Dieser Erfolg blieb nicht unbemerkt und erregte u.a. das Aufsehen von TREND REPORT - lesen Sie hier den Artikel.

Beste Grüße
Ihr Moritz Abt


Moritz Abt arbeitet bei PPI im Bereich Versicherung. Er vereint ökonomisches Fachwissen mit Expertenwissen zum Versicherungsmarkt. Neben seinen klassischen Aufgaben als Projektmanager für das Projekt „Kundenportal und Online-Schadenmeldung“, bildet er mit seinem Wissen aus dem Bereich Test- und Anforderungsmanagement die Schnittstelle zwischen Kundenanforderungen und SW-Entwicklung. Moritz wird diesen Blog regelmäßig mit Beiträgen rund um das Thema Kundenportale und Self-Services versorgen.
#Digitalisierung #Versicherungen #Prozessautomatisierung #Kundenportale #Self-Services

Inflation der Digital Labs

Die Projekte und Programme der Digitalisierung sind im Grundsatz simpel beschrieben:
  • IT-Altlasten verringern
  • Geschäftsprozesse optimieren
  • Kundennähe steigern 
  • und vor allem: ein klares Bekenntnis der Führungsebenen zur Digitalisierung sichern
Bereits 2015 wurden Digitalisierung und Automatisierung von Prozessen, datengetriebene Entwicklungen und Entscheidungen, Agilität für Transformationsprozesse, digitale Governance für die Risikoreduzierung, digitale Plattformen als Einstieg zum Ökosystem, Koproduktion als Spin-off von digitalen Plattformen, unternehmensübergreifende Konvergenz und Integration sowie Transparenz über alle Kanäle als DIE Schlüsseldisziplinen (cio.de 2015) der Digitalisierung identifiziert.

Heute entwickeln immer mehr Versicherer ihre Digitalstrategie in sogenannten Digital Labs weiter. Allianz, Axa, Ergo oder Signal Iduna haben mittlerweile ihre eigenen Hubs, um neue und vor allem digitale Geschäftsmodelle zu entwickeln. Typischerweise befinden sich die Digital Labs irgendwo im Zentrum des Start-up-Hotspots Berlin. Sie sollen dort die Möglichkeit haben, die digitalen Services mitzuentwickeln und so neue Geschäftsmodelle zu erschließen. Ebenso sollen die Kundenpräferenzen in den Finanzdienstleistungsmärkten von morgen, innovative Produkt- und Leistungsangebote als auch der erfolgreiche Weg der etablierten Finanzdienstleister in die digitale Welt erschlossen werden.

Vielerorts stellt sich die Frage: Alles nur bunt oder auch wertschöpfend?

Bunte Klebezettel, Design Thinking Workshops, Designer-Möbel mit Loftcharakter… oftmals sind dies die Dinge, an die wir als erstes denken, wenn es um Digital Labs geht. Der Auftrag der Labs unterscheidet sich dabei wesentlich. Das Spektrum reicht von Start-up-Inkubatoren, über Marketing- und Digitalagenturen, Technologie- und Methodenschmieden bis hin zu Hands-on-Change-Verantwortlichen.

Unabhängig vom Auftrag ist eine messbare und abgrenzbare Zielsetzung eines Digital Labs essenziel. Viele Digital Labs haben keine smarten Ziele und sind damit per Definition nicht erfolgreich – sie können nie ihr Ziel erreichen. Darüber hinaus sollten Digital Labs neue und bestehende Technologien verbinden, um sowohl das Umsatzwachstum als auch die Rentabilität zu unterstützen.

Doch nicht jeder Handgriff muss selbst umgesetzt werden – nutzen Sie digitale Multiplikatoren! Nutzen Sie die Expertise von FinTechs und anderen Intermediären und beteiligen Sie sich gleichzeitig an den erfolgversprechendsten Geschäftsmodellen. Doch gehen Sie behutsam mit Ihren Investitionen um – eine gleichmäßige Verteilung auf die relevanten Geschäftsbereiche ist erfolgskritisch.

Es gilt also: Definieren Sie die Ziele Ihres Digital Labs smart und messen Sie sie stetig daran. Dann haben Digital Labs einen wirklichen Nutzen und sind mehr als nur bunt.

Beste Grüße
Ihr Julian Schmidt

#Versicherungen #Digitalisierung #DigitalLabs #Digitalstrategie