Nell’ultimo approfondimento ci siamo occupati del rapporto tra Intelligenza Artificiale (“IA”) e mutualità dei rischi nell’industria assicurativa. Argomento ad esso strettamente contiguo è il potenziale effetto discriminatorio causato o enfatizzato dall’utilizzo dell’IA nell’industria assicurativa.
I pregiudizi algoritmici
Una prima considerazione generale da cui partire – al fine di aprire una riflessione – è che in settori diversi dalle assicurazioni si sono riscontrati sistemi di IA discriminatori, non perché il sistema fosse di per sé “cattivo” ma perché ereditava comportamenti sbagliati che poi ripeteva “ad libitum” nel futuro. Pensiamo – senza menzionare specifici precedenti – all’ipotesi di uso di un’IA per la selezione del personale di un’azienda: un sistema che si basi prevalentemente su dati del passato (“negli ultimi 20 anni sono stati assunti solo dirigenti maschi sopra i 40 anni”) può giungere a selezionare in maniera distorta i candidati (ossia, nell’esempio, l’IA selezionerà i curricula scartando tutte le donne e tutti coloro che hanno meno di 40 anni, a prescindere dalle loro competenze).
La tailorizzazione dei contratti assicurativi tramite intelligenza artificiale, i rischi
Fatta questa premessa, ci si chiede quindi se l’enfasi sulla personalizzazione del prodotto assicurativo, volto a rispondere alle esigenze assicurative del cliente (principio valorizzato dalla IDD), realizzata tramite l’uso di IA possa avere quale contraltare l’accentuare un effetto di eccessiva selettività, considerando che l’IA, lavorando per obiettivi, non ha la sensibilità per gestire eventi e casi “extra ordinari” rispetto a quelli già contemplati dal sistema; altro problema, completamente diverso ma che si origina dalle stesse caratteristiche dell’IA, è invece quello legato al fatto che un’estrema personalizzazione della tariffa possa risultare in una vera e propria condotta discriminatoria oppure in ogni caso condurre ad un’eccessiva selettività del processo (nei rischi da assumere o nel premio da applicare) o ad un’eccessiva tailorizzazione del testo contrattuale.
Si pensi ad esempio – per quanto concerne il primo tema – al cliente che non ricade nel target market positivo: l’intermediario avrebbe comunque la possibilità di vendere il prodotto, assicurandosi che comunque (i) il cliente non ricada nel target market negativo e (ii) il prodotto soddisfi comunque le esigenze assicurative del cliente. Una distribuzione assicurativa totalmente automatizzata, che non sia in grado di compiere questa analisi di secondo livello, potrebbe difatti scartare tout court il cliente dal paniere in quanto extra target market positivo e si limiterebbe a non permettergli di acquistare il prodotto.
Il secondo tema è più complesso, ma non del tutto nuovo (almeno per quanto riguarda i canoni del ragionamento): si tratta difatti del dilemma tra una tariffa riguardante un insieme omogeneo di soggetti (tra cui si crea una mutualità) e la necessità per l’assicuratore di attribuire il premio più corretto per l’assicurato, previa applicazione di parametri di personalizzazione (che hanno il pregio peraltro di diminuire l’asimmetria informativa a carico dell’assicuratore). Il problema si ripropone ora, se possibile con una maggiore intensità, laddove i criteri di personalizzazione (pur definiti dall’assicuratore) sono affidati alla valutazione operata da un’IA. Oltre ad un problema di trasparenza nei confronti dell’assicurato in merito alle metodologie ed ai criteri utilizzati, l’uso di nuove tecnologie difatti, deve armonizzarsi con la legislazione vigente, ed in tema di contrasto alla discriminazione, la normativa europea e nazionale trova una molteplicità di fonti: dal “TUI” (Testo Unico sull’Immigrazione) alla normativa in materia di discriminazione razziale, dalla “Carta di Nizza” fino alla Direttiva del Consiglio 2004/113/EC con cui viene sancito il principio di non discriminazione di genere nell’accesso a beni e servizi.
Da un punto di vista dell’assicuratore che realizza il prodotto, in un’ottica di bilanciamento di interessi contrapposti (selezione ed assunzione dei rischi volti al mantenimento della stabilità finanziaria dell’impresa versus non discriminazione rispetto a modelli precostituiti) gli è consentito operare una discriminazione laddove ciò possa essere il frutto di una scelta basata su criteri obiettivi ed in presenza di cause giustificatrici.
Già infatti nel TUI (art. 55 quater, comma 2) veniva stabilito che sono consentite differenze proporzionate nei premi o nelle prestazioni individuali, ove il fattore sesso sia determinante nella valutazione dei rischi, in base a dati attuariali e statistici pertinenti ed accurati […] (come noto, il pincipio fu poi superato dal divieto sancito dal diritto comunitario, a seguito della pronuncia della Corte di Giustizia nel Test/Achats case C236/09). Così come è stato ribadito anche dalla Corte Costituzionale nella (pronuncia n. 432 del 2 dicembre 2005) che un trattamento discriminatorio, che non leda principi fondamentali della persona, può essere “giustificato” in presenza di una “specifica, trasparente e razionale causa giustificatrice idonea a spiegare, sul piano costituzionale, le ragioni poste a base della deroga”.
Peraltro, con riferimento all’RC Auto, il medesimo codice delle assicurazioni private prevede che le compagnie possano legittimamente e liberamente selezionare i fattori di rischio per la determinazione del premio, a condizione che tale metodologia sia giustificata da basi tecniche e statistiche, riferite almeno ai cinque anni precedenti, e certificate da un attuario (si vedano in proposito artt. 34 e 35 CAP).
La discriminazione (rectius: selezione) dell’assicuratore viene quindi svolta su base statistica a cui poi si aggiungono, per mitigarne o migliorarne l’efficienza, altri fattori che tengono conto del quadro normativo (si veda ad esempio l’obbligo a contrarre nella RCA) e del contesto sociale (si veda ad esempio allo sviluppo dei prodotti assicurativi cyber, visto l’incremento degli acquisti on line da parte dei consumatori).
L’uso cauto dell’Intelligenza Artificiale
L’uso dell’IA può aiutare a selezionare meglio il paniere dei rischi, a formare classi di rischio più omogenee o a ripartire meglio il rischio all’interno della collettività degli assicurati, proprio perché riesce, meglio e più velocemente di quanto si possa fare “tradizionalmente” ad elaborare modelli statistico predittivi sulla base dei dati raccolti.
Fino a che punto si può tuttavia affidare ad un’IA la valutazione di una variabile di personalizzazione, o comunque l’assunzione di un rischio o il premio corretto da applicare allo stesso?
In proposito, convinti che non vi sia in assoluto incompatibilità tra l’uso dell’IA ed i processi assuntivi dei rischi, abbiamo alcuni suggerimenti:
1) l’utilizzo dovrà essere cauto allorquando si agisca su di un parametro rientrante nel novero dei dati sensibili, o nell’ambito dei parametri non utilizzabili ai fini discriminatori. Si pensi ad esempio:
(i) ad un sistema di IA che calcoli il premio sulla base dell’età apparente del cliente (rilevata attraverso webcam), correggendo quello che risulterebbe all’esito dell’età anagrafica effettiva. Laddove l’IA fosse strutturata in maniera tale da penalizzare sistematicamente una determinata etnia, si presenterebbe difatti un chiaro caso di discriminazione razziale sanzionato dalle normative sopra menzionate; ovvero
(ii) al caso in cui l’IA rilevi le abitudini alimentari del cliente, calcolando il premio (ex ante o in corso di contratto) in base alle stesse: si potrebbe sostenere che si tratti di una discriminazione indiretta di talune comunità e dunque di talune razze (secondo l’equivalenza nazionalità=razza statuita dalla nostra giurisprudenza)?
(iii) ad un’assicurazione tutela legale, che si basi, per la quantificazione del premio, sui dati raccolti circa la provenienza geografica ed etnica del cliente e sul suo patrimonio, poiché in base alle statistiche, si è rilevato che la popolazione carceraria ha una determinata percentuale di popolazione che proviene da determinate aree geografiche ed è priva di reddito (se non quello frutto di attività illecita).
Un tale uso dell’IA sarebbe evidentemente fallace, concretizzandosi quell’uso deterministico che invece si vuole scongiurare.
Del resto le normative da noi elencate sono (correttamente) di ambito applicativo molto ampio, dal momento che sanzionano non solo le ipotesi di discriminazione diretta, ma anche quelle di discriminazione indiretta (quali risulterebbero, verosimilmente, quelle degli esempi delinati).
Inoltre, è stato sollecitato anche da parte delle istituzioni europee una vigilanza “rinforzata” sull’uso di IA, soprattutto quando il trattamento dei dati si basa direttamente o indirettamente su dati “sensibili”, che possono includere l’origine razziale o etnica, le condizioni socio-economiche, le opinioni politiche, la fede religiosa o filosofica, l’appartenenza a un sindacato, i dati genetici, i dati biometrici, i dati sanitari o i dati relativi alla vita sessuale o all’orientamento sessuale e (nell’ambito “Orientamenti etici per un’IA affidabile”) si è espressamente ricordato che “l’uguaglianza implica che il funzionamento del sistema non possa generare risultati ingiustamente distorti (ad esempio, i dati utilizzati per istruire i sistemi di IA dovrebbero essere il più inclusivi possibile e rappresentare gruppi di popolazione diversi)”.
2) Il discorso precedente varrà naturalmente non soltanto con riferimento al premio, ma anche con riguardo al testo contrattuale di polizza, laddove il sistema di IA sia in grado di proporre un normativo di prodotto esattamente disegnato sulle specifiche caratteristiche del cliente (sul tema ci eravamo già espressi nel precedente articolo, laddove parlavamo dell’esigenza di testi contrattuali omogenei, in conformità al principio di mutualità).
3) Al fine di non giungere ad un meccanismo non conforme al principio di mutualità della classe di rischio, è opportuno che i parametri di personalizzazione, quando arrivino all’estremo dettaglio (ad es. perché correlati all’attività fisica effettivamente svolta e rilevata in corso di contratto) agiscano come un meccanismo premiale a favore del singolo assicurato, nei limiti della sostenibilità del fabbisogno tariffario.
In conclusione, un buon uso dell’IA deve essere accompagnato da presidi di controllo e verifica da parte di chi se ne avvale, al fine di verificare che i procedimenti ed i parametri adottati siano conformi alla normativa volte a scongiurare la discriminazione, diretta o indiretta. Punto di partenza utile, oltre alle singole norme specifiche del mercato assicurativo, è sicuramente costituito dagli Orientamenti etici per un’IA affidabile e dal decalogo di misure da adottare al fine di verificare che l’IA risulti equa e non discriminatoria.