In der Schaden-/Unfallversicherung haben sich verallgemeinerte lineare Modelle (Generalized Linear Models, GLMs) als Standardwerkzeug zur Bestimmung bedarfsgerechter Prämien auf Basis eigener Schadendaten etabliert. Typischerweise werden GLMs in einem iterativen Prozess an Vergangenheitsdaten zu Bestand und Schäden kalibriert. Der Aktuar geht hierbei üblicherweise schrittweise vor, indem er zunächst diejenigen Risikomerkmale identifiziert, für die ein statistischer Zusammenhang mit dem beobachteten Schadenbedarf vorliegt, diese dann sukzessive in die Modellgleichung aufnimmt und schließlich manuell so transformiert, dass sie den tatsächlichen Effekt auf den Schadenbedarf möglichst präzise und robust abbilden.
Bedingt durch die auftretenden Wechselwirkungen ist nach Aufnahme eines zusätzlichen Merkmals die Modellstruktur erneut zu prüfen. Die Risikomodellierung und die dafür notwendige Vorverarbeitung der Daten bilden deshalb einen iterativen Prozess, der erst nach mehreren Schleifen zu einem geeigneten GLM führt.
Ersatz durch Machine-Learning-Verfahren?
Ein viel diskutierter Vorschlag für eine stärker datengetriebene Schätzung des vertragsindividuellen Schadenbedarfs sind Machine-Learning-Verfahren. Allerdings: der verlockende Ansatz, die Risikomodellierung durch solch eine Black Box zu ersetzen, birgt Gefahren wie unentdeckte Strukturbrüche und unkontrollierbare Variabilität in der Risikoprämie über die Zeit. Vor allem aber lässt ein solches Verfahren offen, wie die Tarifmodellierung erfolgen soll. Insgesamt führt dies häufig zu erheblichen Akzeptanzproblemen.
Aus unserer Sicht können Machine-Learning-Verfahren oder andere komplexere Analysemethoden dennoch gewinnbringend zur Unterstützung der bestehenden GLM-Modellierung eingesetzt werden.
Um aber die Risikomodellierung an sich effizienter und datengetriebener zu gestalten, schlagen wir vor, mittels moderner Data-Analytics-Verfahren die GLM-Modellierung selbst zu optimieren. Dazu hat Lukas Hahn auf der DAV-Jahrestagung 2019 in Düsseldorf einen von uns implementierten White-Box-Ansatz vorgestellt.
Unser Ansatz erhält die zugrundeliegende GLM-Struktur des Risikomodells. Das GLM wird in einem ganzheitlichen Prozessschritt unter simultaner Kalibrierung aller Merkmale und unmittelbarer Berücksichtigung der Ausgleichseffekte angepasst. Rein datengetrieben werden nicht-lineare Transformationen von Merkmalen oder Binning einzelner Merkmalsausprägungen erkannt und automatisch an die beobachteten Daten angepasst. Zum Einsatz kommt hierbei eine eigens angepasste Form von sog. elastischen Netzen.
Da die Risikofaktoren des resultierenden Modells in bewährter GLM-Struktur vorliegen, ist die nahtlose Integration in den weiteren Tarifierungsprozess gegeben. Der Algorithmus automatisiert die Auswahl der Risikomerkmale und typische Vorverarbeitungsschritte, sodass deutliche Zeitgewinne erzielt werden. Er eignet sich insbesondere auch für Anwendungsfälle, in welchen noch keine komplexen Risikomodelle vorliegen oder neue Datenquellen integriert werden sollen.
Die Zukunft der Lebenserwartung ist aktuell so unsicher wie selten zuvor. Das ifa hat im Rahmen der Herbsttagung der DAV auf diese Unsicherheit hingewiesen und vorgestellt, wie Aktuare in der Produktentwicklung und im Risikomanagement mit dieser Unsicherheit umgehen können. [mehr]
Value for Money und der Nachweis eines angemessenen Kundennutzens von Lebensversicherungsprodukten ist stark in den Fokus der BaFin gerückt. Vor diesem Hintergrund stellt die Rechnungszinserhöhung eine doppelte Chance dar. Zum einen entsteht die Möglichkeit, die Attraktivität der Produkte im Neugeschäft zu erhöhen. Zum anderen bietet sich die Chance... [mehr]
BaFin veröffentlicht Erkenntnisse aus der Wohlverhaltensaufsicht Lebensversicherung [mehr]
Transparenz und Kontrolle bei Methoden, Modellen und Tools [mehr]
BaFin beschreibt Zuordnungsansatz für Vermögenswerte im Rahmen der EU-Offenlegungsverordnung [mehr]
Value for Money bei Altersvorsorgeprodukten [mehr]
Update des Branchenstandards für PRIIP der Kategorie 4 erfordert Modellanpassungen [mehr]