Data is niets en van niemand!

Wie is de eigenaar van de data? Met name in 2017 hebben al vele juristen en advocaten gepubliceerd over dit vraagstuk. Een vraagstuk dat ondanks alle publicaties nog steeds een hoge actualiteitswaarde heeft en tot veel discussies leidt binnen de verzekeringsbranche. Met betrekking tot de privacy. Of binnen het kader van big-data (risico)analyse en klantprofileringen. Vreemd genoeg stellen vooral verzekeraars zich daarbij nogal bezitterig op. Zo pleiten verzekeraars zelfs tot vrije toegang tot voertuigdata. Maar data is niets! Niemand kan eigenaar zijn van data. De wet kent dat begrip alleen voor fysieke goederen.  Er is hooguit een soort van “data eigendom” voor databankproducenten die data zelf niet-exclusief hebben verzameld. Want iedereen bepaalt zelf aan wie hij of zij data levert en heeft het recht op vergetelheid!

Het lijkt tijd voor een paradigma shift. Je mag werken met de data die je geleverd krijgt en de leverancier heeft het recht nee te zeggen.  Maar als jij als leverancier weigert (voldoende) data af te leveren is het natuurlijk altijd mogelijk dat bepaalde ‘diensten’ onmogelijk worden.  Deze paradigma shift – is het wel een shift? – vinden wij eigenlijk ook al terug in de Algemene verordening Gegevensverwerking. “Gegevensverwerking” geeft  aan dat de data geen eigendom wordt maar op basis van een dataleveringsovereenkomst – vaak in de vorm van een privacyverklaring – niet-exclusief wordt geleverd aan de gegevensverwerker die hooguit een soort van mede-eigenaar wordt als databankproducent.

Mijn DATENSCHUTZ

Alleen als je data geheim houdt, heb je er grip op. Maar tegenwoordig kom je daar niet ver meer mee. Allerlei processen en webwinkels lopen vast. Om mijn privacy te beschermen is het erg prettig als leveranciers niet alles weten. In een omnichannel wereld leidt de versnippering van data tot kleine min of meer geïsoleerde gebieden (datasets). Maar hoe bepaal ik de minimale databehoefte bij leveranciers. Kan ik erop vertrouwen dat zij alleen de noodzakelijke data opvragen en productdata niet combineren of hergebruiken? Want waarom zou mijn autoverzekeraar geïnformeerd moeten worden over de waarde van mijn huis, de inboedel of mijn inkomen?

Binnen de data-distributieketen in de verzekeringsbranche speelt het intermediair  een cruciale rol. Hij is de eerste databankproducent die als vertrouwenspersoon zelfs de meest gevoelige data van de klant verzameld. De eerste data-firewal,l die vervolgens kan bepalen welk selectieve deel van de data uit zijn databank weer noodzakelijk geleverd moet worden aan één of meer verwerkers. Het intermediair is daarmee bewaker van de privacy van de klant. Hij verdeeld en heerst vanuit een één-op-één relatie naar een één-op-veel relatie met als doel een compleet pakket aan dienstverlening voor de klant te assembleren.

Steeds vaker werkt het intermediair samen met één of meer (tot de eigen groep behorende) gevolmachtigde agenten. Ook deze databankproducenten bouwen een niet-exclusieve verzameling op. Verzekeraars beroepen zich op een uitbestedingsovereenkomst om deze data op te eisen. Maar gevolmachtigde agenten leveren bijna altijd diensten die juist alleen voor het intermediair toegevoegde waarde hebben. In de pre-contractuele fase wordt middels tools van de gevolmachtigd agent data verzameld om de klant te kunnen adviseren en het juiste product of de juiste verzekeraar te selecteren. In een klantgericht schadebehandelingsproces wordt eerst data verzameld over de schadeoorzaak om daarna te onderzoeken of de schade onder de dekking valt van één of meerdere verzekeringen. De gehele databank valt daarmee buiten de reikwijdte van de uitbestedingsovereenkomst. De gevolmachtigd agent zal vervolgens een selectief deel van de data uit zijn databank kunnen verwerken voor de verzekeraar en ook eventueel leveren aan diezelfde verzekeraar. Voor dat deel van de data wordt de verzekeraar hooguit een soort van mede-eigenaar, maar nimmer op basis van exclusiviteit. De tweede data-firewall is een feit.

Zowel het intermediair als gevolmachtigd agenten opereren  onafhankelijk van de verzekeraar(s). Daarnaast zorgen zij voor de versnippering van data, terwijl zij wel gelijk een compleet pakket aan dienstverlening en “best of verzekeringen” assembleren. En als ik vergeten wil worden, begin ik heel gemakkelijk weer bij mijn eerste databankproducent.

Is het dan niet vreemd dat er zo weinig aandacht binnen de keten is voor privacy en echte onafhankelijkheid? Is het niet juist het intermediair én de gevolmachtigd agent die privacy én onafhankelijk kunnen inzetten als unieke toegevoegde waarde? Juist omdat het vertrouwen van de klant in verzekeraars nog steeds zo slecht is en het voortbestaan van het Keurmerk Klantgericht Verzekeren zelfs ter discussie staat. De tijdperken van Trust me en Tell me zijn voorbij. Wij  leven in een wereld die eist: Show me!

Show me!

Het intermediair kan zelf het initiatief nemen door een ‘Onafhankelijkheidsverklaring’ af te geven. Heel normaal voor Accountants maar nog steeds niet gebruikelijk onder bijvoorbeeld leden van Adfiz als branchevereniging van (onafhankelijk) financieel adviseurs. Gevolmachtigd agenten kunnen aanvullend verklaren dat zij schaden onafhankelijk afhandelen omdat zij niet direct belanghebbende zijn – in tegenstelling tot de risicodragende verzekeraars –  bij het beoordelen van de dekking en het vaststellen van de omvang van de schade.

Een verwerkersovereenkomst regelt alleen de verantwoordelijkheden bij de verwerking van persoonsgegevens en is onvoldoende. Terwijl de privacyverklaring te veel de nadruk legt op de bescherming van gegevens. Om grip te houden op de datahuishouding is het belangrijk om tussen alle schakels in de keten aanvullend over levering en gebruik van data duidelijke afspraken te maken tussen de (gegevens)leverancier en afnemer: een overeenkomst waarin onder andere wordt vastgelegd welke data geleverd wordt, met welk doel de ontvanger de data mag gaan gebruiken, met wie en waarom welke data gedeeld mag worden en de wederdiensten die daar tegenover staan. Zo’n dataleveringsovereenkomst kan onderdeel uitmaken van bijvoorbeeld de Algemene voorwaarden. Zodat ook in de big data wereld het klantbelang centraal staat!

Amsterdam, 20 november 2019

De (on)zin van premiedifferentiatie

De verzekeringsbranche is gebouwd op de fundamenten van de actuariële en juridische disciplines. Disciplines die getraind zijn in het terug kijken in het verleden. Maar behaalde resultaten in het verleden bieden geen garanties voor de toekomst. Zo luidt toch het motto dat door de sector zelf is uitgevonden?

En toch ligt het verleden aan de basis van de steeds verder gaande premiedifferentiatie, die overigens een averechts effect lijkt te hebben. Onder druk van de premiedifferentiatie komen wij uit een periode van krimp (lagere gemiddelde premies) en verslechterende resultaten. Ook zijn er praktijk cases bekend waarbij data driven re-underwriting geresulteerd heeft in een halvering van de omzet én blijvend slechte resultaten. Daarnaast ondermijnt premiedifferentiatie de solidariteit in Nederland.

Meer factoren, meer onzekerheid

Door de steeds verder gaande premiedifferentiatie neemt het aantal premiebepalende factoren toe. Daarmee stijgt ook de kans dat de uitkomst niet aansluit bij de (actuariële) verwachtingen.

De gemiddelde schadefrequentie bij Woonhuisverzekeringen bedraagt 10% (Verbond van Verzekeraars, Verzekerd van Cijfers, exclusief volmachttekening, 2015). In dezelfde periode ligt de schadefrequentie binnen een aantal individueel representatieve portefeuilles geanalyseerd door KoKo Kroup tussen de 9% en 11%. Een afwijking van 10% bij een variabele lijkt ‘gewoon’ en acceptabel.

Maar stel dat binnen het actuariële model meer dan één risicofactor gehanteerd wordt voor het inschatten van de schadefrequentie ? De formule 1 x 1 x 1 x 1 tot in het oneindige kent nog altijd als eindwaarde 1. Maar als wij bij iedere variabele met een afwijking van 10% rekening houden en het actuariële model kent slechts 10 (risico) variabelen? Dan ligt de uitkomst in het uiterste geval tussen de 0,35 en 2,59. 

Indien het aantal factoren en/of de onzekerheidsmarge groter is, dan neemt de kans toe dat de verwachte uitkomst – vaak achteraf niet of moeilijk te verklaren – flink afwijkt van de uiteindelijke waarheid.  En zo wordt de blackbox van de verzekeraar een blackbox voor de verzekeraar.

Wij organiseren solidariteit en maken risico’s beheersbaar, aldus de Gedragscode van Verzekeraars aangesloten bij het Verbond van Verzekeraars. Waar gaat het dan mis? Hebben verzekeraars nog wel voldoende verstand van verzekeren?

Premiedifferentiatie: alleen indien de verzekeringnemer de differentiatie zelf kan beïnvloeden.

Door de ontwikkelingen rond big data krijgen verzekeraars steeds meer mogelijkheden om de premies van een verzekering af te stemmen op het daadwerkelijke risico. Tot zo ver de theorie, want deze stelling gaat er vanuit dat het risico gedifferentieerd kan worden op basis van objectief meetbare criteria die voldoende voorspellende waarde bieden. Uit de analyse van schaden blijkt bijvoorbeeld dat alleen premiedifferentiatie op basis van factoren die de verzekeringnemer zelf kan beïnvloeden en/of gerelateerd zijn aan zijn of haar gedrag zinvol is. 

Ook de verzekeringnemer denk er zo over. De Vereende heeft  onderzoek laten uitvoeren door het onderzoeksbureau MWM2. Conclusie is dat Nederlanders solidair willen zijn. Wel is er verschil in solidariteit; de solidariteit is afhankelijk van of de verzekerde wel of niet iets aan dat hogere risico kan doen. Bij ‘eigen schuld’ is de bereidheid tot solidariteit beduidend lager. Deze ‘wijsheid van de massa’ zouden klantgerichte verzekeraars kunnen adopteren en het aantal criteria beperken tot gedragsvariabelen die de verzekeringsnemer ook zelf kan beïnvloeden.

Amsterdam, 26 september 2019

European Motor Insurance Markets, waar staan wij?

Insurance Europe is de Europese verzekering- en herverzekeringsfederatie waar 34 landenleden zoals het Verbond van Verzekeraars bij aangesloten zijn. In februari publiceerde Insurance Europe het rapport “European Motor Insurance Markets, february 2019”.

Het rapport is gebaseerd op de data t/m 2016 die door de individuele leden is aangeleverd. Niet alle data is beschikbaar voor alle landen. Helaas is Nederland één van de negatieve uitzonderingen. Blijkbaar is de (kwaliteit van de) aangeleverde data onvoldoende om bij alle kengetallen Nederland te plaatsen binnen een Europees perspectief. Hierdoor kunnen wij eigenlijk alleen algemene conclusies trekken:

  • de gemiddelde premie in Nederland ligt boven het Europese gemiddelde;
  • de Combined ratio ligt in Nederland boven het Europese gemiddelde.

De Europese markt voor Motorrijtuigenverzekering is in 2016 gegroeid met 4% tot iets meer dan € 135 miljard. De gemiddelde schadelast per schade is gestegen, terwijl gelijktijdig juist de schadefrequentie is afgenomen. Per saldo resulteerde dit in een Combined ratio van 98,6% (2016). De Combined ratio voor de subbranche Aansprakelijkheid (MTPL – Motor Third-Party Liability) bedraagt 100,9% (2016) , De Combined ratio voor de subbranche Motorrijtuigen Overige (Damage) bedraagt 89,4%.

Het rapport “European Motor Insurance Markets, february 2019” kunt u hier downloaden. Ook alle onderliggende datatabellen kunt u downloaden en gebruiken voor een nadere analyse.

Amsterdam, 3 maart 2019

Big data, Big Bang!

Ik weet het niet, maar mij bekruipt het gevoel dat de adoratie van het Big data denken door verzekeraar wel eens het begin van het einde kan betekenen. Het zijn tenslotte juist de verzekeraars die – zeker sinds het einde van de 80er jaren – als één van de eerste partijen beschikte over veel, heel veel data. Over het bezit van een huishouding, de samenstelling van een huishouding, het reisgedrag van een huishouding, de gezondheid van de gezinsleden en het inkomen. Plotseling lijken zij nu het ei van Columbus gevonden te hebben en roeptoeteren in het verbondskoor dat Big Data krachtige gereedschappen zijn voor verzekeraars. Waarschijnlijk hoor je er niet bij als je niet op de vrijdagmiddagbigdatainnovatieborrel aanwezig bent (en was je gewoon aan het werk geweest om je toegevoegde waarde naar je klanten te bewijzen).

Meer selecteren
Het geautomatiseerd ontsluiten van de van oudsher aanwezige data in het verzekeringsbedrijf heeft nu al geresulteerd in een vergaande premiedifferentiatie en een risicoselectiemodel. Niet te vergeten de vele budgetvarianten van verzekeringen met allerlei verborgen gebreken en schadesturing naar de hersteller met de meest uitgeknepen prijs. Met nog meer data kan je nog meer selecteren.

Uiteindelijk zullen er daardoor risico’s overblijven die feitelijk economisch onverzekerbaar zijn. Zoals de nieuwe Vespa scooter waarvoor de Cascopremie in Amsterdam bij een bepaalde verzekeraar zelfs boven de nieuwprijs ligt (maar de verzekeraar met droge ogen wel een offerte durft toe te sturen)! Natuurlijk, het Verbond roept dat er altijd wel een partij is die dit soort risico’s wil verzekeren, maar tegen welke prijs? Verzekeren is gebaseerd op het solidariteitsbeginsel en een vergaande premiedifferentiatie en risicoselectie tasten het bestaansrecht aan. In de Zorgverzekeringswet is risicoselectie nu al niet toegestaan. Betekent dit dat wij straks voor alle verzekeringen toegroeien naar een basisverzekering? Zo ja, dan is het een kleine stap om de dure verzekeringsfabrieken op te heffen en de uitvoering onder te brengen in een staatsbedrijf. Persoonlijk word ik wel een beetje verdrietig van het gegeven dat de verzekeraars zich zelf in de gaten moeten gaan houden via een jaarlijkse ‘Solidariteitsmonitor’.

Niveau
Maar nog veel meer zorgen maak ik mij over het niveau van de actuariële (kern)competentie bij verzekeraars: het voorspellen van de kans op schade, waarop de premie wordt afgestemd. Verzekeraars beschikken nu al over een grote hoeveelheid data aan de hand waarvan premiemodellen zijn gebouwd. Regelmatig (zo niet dagelijks) blijkt in de praktijk dat de werkelijke uitkomst afwijkt van de voorspelde uitkomst. Door het gebruik van big data neemt het aantal variabelen in de risicoberekening exponentieel toe. Alle variabelen worden berekend aan de hand van data uit het (recente) verleden, die – zoals verzekeraars zelf wel heel erg duidelijk hebben gemaakt – geen garanties bieden voor de toekomst.

Verzekeraars moeten ook nog leren omgaan met fuzzy logics, waarbij het ene (risico)hokje net een beetje anders is dan het andere (risico)hokje. De financiële gevolgen van een kleine marge in de voorspellingen voor de variabelen zijn niet te overzien. Natuurlijk staat de uitkomst van 1 x 1 x 1 x 1 vast, maar wat als er een kleine afwijking van 1% optreedt? De uitkomst van 1,01 x 1,01 x etc. is bij slecht 100 risicovariabelen 2,7 , een afwijking van ruim meer dan 100%.

Privacy
En o ja, dan hebben we nog het aspect van de privacy waarover de Autoriteit Persoonsgegevens en Bits of Freedom zich hebben uitgesproken. De tijdperken van Trust me en Tell me zijn voorbij. Verzekeraars leven in een wereld die eist: Show me. Lastig als dan de small data index van het Consumentenvertrouwen in verzekeraars nog maar op een stand staat van -9.

Draagt big data bij aan het beperken van het risico voor verzekeraars of vergroot big data juist het risico? Het risico op substitutie door een basisverzekering, disruptieve verliezen en een opnieuw afnemend consumentenvertrouwen?

Eerste publicatie door am:web

Amsterdam, 22 april 2016