Approfondimenti

Big Data, il Garante della privacy mette in guardia le Compagnie assicurative

Big Data (2) ImcSiamo lieti di ospitare su Intermedia Channel un nuovo intervento dell’avv. Ivan Dimitri Calaprice (del quale ricordiamo anche l’ultimo lavoro pubblicato per Giuffrè Editore, collana Officina del Diritto: “Gli acquisti online”), incentrato sul fenomeno dei Big Data, sull’importanza sempre maggiore che stanno assumendo nel settore assicurativo e sulle possibili ripercussioni in materia di privacy, anche alla luce dell’intervento di ieri del Presidente del Garante per la protezione dei dati personali, Antonello Soro

I più attenti lettori di testate giornalistiche assicurative avranno notato come di recente si sia sviluppata una generalizzata vocazione a dare sempre più eco alle voci sulle implicazioni delle nuove tecnologie sul mercato assicurativo.

Una di queste è rappresentata dal fenomeno dei c.d. Big Data, espressione semplice e di portata semantica apparentemente elementare e tuttavia in grado di evocare scenari di politica industriale assai complessi, oltre che di incommensurabile portata. Tanto da polarizzare l’attenzione anche sulle pagine di Intermedia Channel.

Affascina, e non poco, l’idea che l’oceano di informazioni che vengono riversate sul web in ogni istante ed a tutte le latitudini possa aiutare ad anticipare l’evoluzione di tendenze, individuali e collettive, nonchè consentire l’elaborazione di modelli socio-economici predittivi idonei a condizionare scelte di impresa e finanche determinare decisioni di matrice politica.

Nella giornata del 19 novembre u.s. il Garante della protezione dei dati personali ha pubblicato sul proprio portale un intervento del suo Presidente – ad un consesso pubblico – proprio su questo tema.

Ci pare utile riprendere un breve passaggio di questo intervento sia perché esso appare originale e distante dal coro delle unanimi prese di posizione di monocorde entusiasmo sull’argomento sia perché esso demitizza – assai sensibilmente – il fenomeno, mettendo in guardia – anche il mercato assicurativo – dai rischi connessi a “nuove forme di discriminazione che possono derivare per gli individui da profìlazioni sempre più puntuali ed analitiche”.

Infatti – sostiene il Regolatore – pro futuro gli stessi dati che svolgeranno un’utilità sociale in un determinato contesto – qui l’esempio è quello dei dati sensibili utilizzati per ricerche scientifiche – potrebbero potenzialmente provocare un grave pregiudizio in un altro.

E qui, invece, sorprendentemente, l’esempio portato è quello della richiesta di attivazione di coperture assicurative.

La teorica portata di questa affermazione – seppur obiettivamente troppo poco strutturata per elevarsi a pensiero generale – fa comunque riflettere.

Ci pare, infatti, che letto a contrario, il pensiero espresso dall’Autorità si possa tradurre in questo concetto: un’indagine capillare sul complesso di informazioni reperibili su un determinato soggetto rischia – ove condotta con tecnologie particolarmente sofisticate – di pregiudicarne la posizione contrattuale in occasione della manifestazione della esigenza di una copertura assicurativa.

Di conseguenza: un modello altamente evoluto di approccio distributivo in cui – al momento della assunzione del rischio – sia teoricamente possibile acquisire aliunde più informazioni di quanto è possibile reperire oggi dal diretto interessato potrebbe astrattamente provocare un “grave pregiudizio” all’individuo e alla collettività.

In extremis: la strada verso la profilazione scientifica dei soggetti NON è necessariamente un bene.

Ci sia consentito di dire – pur ribadendo il carattere di assoluta incidentalità con cui questo tema è stato espresso – che, anche se poco circostanziata, l’idea espressa dal Garante genera qualche interrogativo.

E tanto se si pone mente al fatto che tutto l’impianto del nostro Codice civile – nel disciplinare in termini generali l’istituto del contratto di assicurazione – ricollega degli effetti giuridici alle fattispecie in cui le dichiarazioni dell’assicurando rese in sede di stipula siano inesatte (ovvero non aderenti alla realtà) oppure reticenti (ovvero incomplete): è il senso, come noto, degli artt. 1892 e 1893 c.c..

In altri termini: il rischio deve essere fotografato senza edulcorazioni di convenienza.

Ad oggi, però, il valore della verità delle informazioni è spesso filtrato dalla soggettività dell’individuo/assicurando chiamato a descrivere il proprio microcosmo di interessi, rischi, esigenze e relazioni, magari con il pallido deterrente dell’avvertimento delle conseguenze civili e penali in caso di mendacio.

Prospetticamente lo stesso valore potrebbe essere invece filtrato da una sistematica obiettività delle informazioni, desunte da attività professionali di acquisizione ed analisi di dati disseminati altrove. Con il vantaggio che verrebbe drasticamente compresso (o addirittura pretermesso) il diaframma temporale fra momento della dichiarazione e momento della verifica del carattere esatto e completo (in una parola: veritiero) di essa.

Ma la verità non è mai un optional e comunque venga accertata essa dovrebbe sempre essere una cornice obbligatoria nel rapporto fra impresa e contraente.

Quale il rischio allora? Dove potrebbe insinuarsi e annidarsi il grave pregiudizio cui il Garante allude?

Senz’altro un sistema talmente efficiente ed efficace da consentire di contestare, in tempo reale, la veridicità e completezza delle informazioni rese potrebbe recare l’opportunità di abbattere i fenomeni di frode in sede assuntiva.

Ma ciò non pare poter profilare alcun nocumento all’individuo o alla società. Anzi.

Parimenti – fuori dall’ipotesi delle coperture obbligatorie – la scelta di un’impresa di negare la stipula di un contratto a soggetti in relazione ai quali si sia accertata una radicata (e socialmente patogena) propensione al rischio assicurando o alla frode non sarebbe né eticamente né giuridicamente scorretta, e anzi, in certi casi, proprio quella contraria di ammettere comunque questi ultimi nel ciclo della mutualità assicurativa potrebbe configurare una presa di posizione potenzialmente non etica e contraria al diritto da parte dell’impresa stessa.

Certo, è vero: una comunità contraddistinta da dinamiche relazionali altamente digitalizzate in cui ciascuno di noi espone alla mercè di tutti – magari solo sui social network – la propria posizione finanziaria, i propri orientamenti economici, le proprie preferenza politiche o il proprio credo religioso implica l’emergere di un intrinseco rischio di limitazione dei propri spazi di manovra nel consesso sociale, riducendo al minimo le possibilità di decolorare con qualche (opportunistica) menzogna la propria reale identità e il proprio effettivo ruolo sociale.

Obiettivamente ciò pregiudica le possibilità di gradimento di chi abbia degli standard particolarmente elevati nella scelta dei propri interlocutori contrattuali.

Ma – ciononostante – verità e iperdettaglio delle informazioni che i Big Data tenderanno a garantire non possono essere letti – nel loro complesso – come potenziale controtipo della libertà (pre)contrattuale, giacchè quest’ultima ha – nella teoria e nelle prassi del contratto, anche assicurativo – limiti rigorosi connessi proprio all’obbligo giuridicamente rilevante di garantire effettiva aderenza alla realtà di ogni dato personale personalmente esplicitato.

Forse – ma lungi da chi scrive l’idea di voler “interpretare” le parole del Garante o attribuire ad essa troppi significati – il concetto che si voleva effettivamente esprimere è quello secondo cui un livello di informazioni compiuto e strutturato (quale è quello che i Big Data assicureranno nel tempo), potrebbe stendere definitivamente al tappeto soggetti economicamente deboli la cui storia finanziaria, magari, sia contraddistinta da capitoli particolarmente bui o burrascosi.

Ma, quand’anche così fosse, perché – allora – elevare quale esempio di contraente debole l’interlocutore delle sole compagnie assicurative (addirittura parlando di grave pregiudizio) e non quello di qualsiasi soggetto che offra prodotti o servizi, e dunque qualsiasi interlocutore che vedrebbe la propria posizione (pre)contrattuale pregiudicata dalla circostanza che i suoi dati – nella società dei Big Data – sarebbero già conosciuti?

E comunque: farebbe davvero differenza – sul piano etico – il fatto che potrebbe essere un software a pre-determinare una verità, così prevenendo il rischio che il potenziale contraente menta o pretermetta delle informazioni rilevanti?

A chi scrive sembra che il tema si coniughi perfettamente con quello del diritto all’oblio sollevato dalla Corte di Giustizia dell’Unione europea in relazione agli output di ricerca sul motore di Google.

Perché se è vero – come è vero – che esiste un indubbio diritto alla riservatezza esso andrebbe anche contemperato con quello (altrettanto meritevole) alla conoscenza di chi – potendo acquisire preventivamente un quadro assai più completo di informazioni – vedrebbe ridotto o annichilito il rischio di operazioni economicamente sconvenienti o addirittura fraudolente in suo danno.

Sapere esattamente e con estrema dovizia di particolari chi è il proprio cliente, il proprio partner commerciale, il potenziale contraente, non pare affatto un male, in sé.

E – soprattutto– non pare ledere particolari valori etici.

Certamente lo sarebbe se i dati su cui una valutazione (pre)contrattuale si fondasse fossero sbagliati. Ma in tutti gli altri casi?

Ad ogni buon conto, il Garante ha indicato una strada, affermando, per bocca del suo Presidente: “Poiché è crescente il numero di soggetti (banche, compagnie assicurative, enti di ricerca ma anche organi di sicurezza) interessati a sfruttare le potenzialità che derivano dalle analisi dei dati, è opportuno che vengano preliminarmente bilanciati i possibili benefici sociali, per gli individui e per la collettività, con il pregiudizio che anche solo potenzialmente può essere arrecato alla privacy. Occorre dunque un approccio etico sull’utilizzo responsabile dei dati, sulla sostenibilità sociale delle attività di analisi che possono essere consentite”.

Nella visione dell’Authority dunque, occorre mettere sui piatti della bilancia benefici sociali e tutela della privacy e agitare il setaccio dell’etica per valutare ciò che è giusto e ciò che non lo è.

Ma – in questo – siamo proprio sicuri che il track record di casi di moral hazard di cui ogni compagnia assicurativa oggi dispone non sia già sufficiente ed imponga ulteriori nuovi passaggi burocratici o giuridici e nuove verifiche?

Brutalmente: è davvero etico porsi all’infinito problemi di etica ?

Avv. Ivan Dimitri Calaprice (in collaborazione con Intermedia Channel)

Articoli correlati
ApprofondimentiNews

Continua l’escalation dei furti di moto in Italia (+16,59%)

Secondo l’Osservatorio Viasat 2023, tra moto, scooter e ciclomotori ne spariscono oltre 31mila…
Leggi di più
ApprofondimentiIn EvidenzaNews

Pierangelo Colombo: gli agenti sono la spina dorsale del mercato assicurativo italiano e continueranno a esserlo

Sul PreventIvass il presidente del GAAV dichiara: “Non riusciamo a comprendere sul piano pratico…
Leggi di più
ApprofondimentiIn EvidenzaNews

UnipolSai chiude il 2022 con numeri in crescita

Risultato netto consolidato di 651 milioni di euro, rispetto ai 723 milioni di euro dell’anno…
Leggi di più
Newsletter
Iscriviti alla nostra Newsletter
Resta aggiornato sulle ultime novità, sugli eventi e sulle iniziative Intermedia Channel.