Quando si parla di Intelligenza Artificiale si pensa subito ad un dispositivo elettronico che presto sostituirà le mansioni dell’uomo e inevitabilmente ci si sente in qualche modo a disagio se non addirittura minacciati.
Percepiamo che, sebbene questi strumenti possano agevolare di gran lunga il nostro lavoro, possano allo stesso tempo peccare sotto l’aspetto della sensibilità e umanità.
Non c’è dubbio che il fattore umano nel lavoro di intermediazione assicurativa sia fondamentale, e alcune volte, quasi necessario. Infatti, parlando di AI non parliamo mai di una totale sostituzione della figura dell’intermediario, bensì di un supporto “tecnico”, proprio per permettere all’intermediario di enfatizzare e lavorare di più sul rapporto umano con il suo cliente con una probabilità di errare ridotta al minimo.
Da quello che emerge dall’articolo di Agrawal et al, tutte le attività umane possono suddividersi in 5 elementi di base: acquisizione di dati, previsioni, giudizio, azione e risultati. L’intelligenza artificiale, in particolare nelle forme del machine learning e dell’analisi predittiva, è in grado di gestire efficacemente i primi due elementi (l’acquisizione di dati e le previsioni).
Partendo da questo principio, infatti, l’intenzione di utilizzare l’AI nel settore assicurativo nasce dal desiderio di poter far adempiere alle macchine i compiti richiesti dai primi due elementi elencati, sarebbe molto più complesso d’altro canto pensare che possa risolvere questioni appartenenti al terzo elemento (il giudizio). Questo perché per questo compito è necessario valutare la situazione nella sua unicità e sarebbe riduttivo ed errato pensare che possa essere un mero lavoro meccanico.
Riflettendo sull’argomento e passando in rassegna una breve disamina della letteratura, la domanda che sorge spontanea è legata a come effettivamente si possono affrontare e vengono regolati i princìpi etici legati all’utilizzo di tali sistemi.
È interessante sapere che l’utilizzo dell’AI nel settore finanziario è soggetto alle medesime disposizioni di legge che regolano le modalità operative più tradizionali.
“la consulenza prestata tramite chatbox, ad esempio, deve assicurare il pieno rispetto delle previsioni di legge o regolamentari che si applicano a tale tipologia di operatività se prestata da una persona fisica” Sottolinea IVASS.
L'autore Floridi e i suoi collaboratori nel 2018 sono riusciti a sintetizzare i 5 criteri fondamentali che dovrebbero guidare l’utilizzo e l’applicazione dei sistemi di intelligenza artificiale:
1) principio di Beneficenza: l’AI deve essere impiegata in modo da promuovere il benessere, preservando la dignità umana e la sostenibilità ambientale
2) principio di Non Maleficenza o del primum non nocere: l’AI deve garantire il rispetto della privacy, della sicurezza dei dati e deve prevenire gli effetti indesiderati derivanti dal suo utilizzo.
3) principio di Autonomia: nell’utilizzo dell’AI è implicita la rinuncia a parte del potere decisionale della componente umana in favore di strumenti non umani, ciò al fine di rendere più efficienti i meccanismi decisionali, a livello individuale e collettivo.
4) principio di Giustizia: l’uso dell’AI deve promuovere il benessere preservando la solidarietà tra diverse categorie di persone
5) principio dell’Esplicabilità dell’AI attraverso trasparenza e accountability. La spiegabilità dell’AI va intesa come risposta a due domande complementari: come funziona (trasparenza) e chi è responsabile per il modo in cui funziona (accountability).
Alla luce di quanto esposto dovremmo tutti essere più favorevoli allo sviluppo e all’integrazione di sistemi di Intelligenza Artificiale ed essere consapevoli che si sta progredendo rispettando i principi fondamentali che da sempre regolano i più basilari rapporti umani.