TECNOLOGIA SOLIDALE

Qualche principio per una via eticamente responsabile all’intelligenza artificiale

“L’intelligenza artificiale è una tecnologia rivoluzionaria, ma è importante che venga sviluppata e utilizzata in modo eticamente responsabile”, dice Enrico Martines, direttore sviluppo e innovazione sociale in HPE. Che invita a rispettare i principi di Asilomar, scritti nel 2017 in California

Pubblicato il 24 Nov 2023

Enrico Martines

Caro Enrico, sono proprio contento di ritrovarci mercoledì…

“Anche io, Antonio! Potremo riprendere gli antichi discorsi su come usare in modo morale le tecnologie, a partire dall’intelligenza artificiale.”

E su questo mi sembra tu abbia le idee abbastanza chiare…
“L’intelligenza artificiale è una tecnologia rivoluzionaria che ha il potenziale di migliorare la nostra vita in molti modi. Può essere utilizzata per automatizzare attività noiose o pericolose, per prendere decisioni più accurate e per creare nuove forme di arte e di intrattenimento. Tuttavia, è importante che venga sviluppata e utilizzata in modo eticamente responsabile.”

Beh, fin qui siamo tutti d’accordo o almeno dovremmo esserlo. Ma per la tua esperienza, in che modo l’intelligenza artificiale dovrebbe essere progettata per essere eticamente responsabile?
“Innanzitutto, l’intelligenza artificiale dovrebbe essere progettata per funzionare “con” gli esseri umani, migliorando le loro capacità cognitive e decisionali. L’obiettivo non deve essere sostituire l’uomo, ma creare interazioni sinergiche tra l’intelligenza artificiale e le nostre capacità, in modo da poter affrontare sfide complesse in modo più efficace…”

“Con” e non “al posto di” mi sembra un punto di partenza decisivo…
“Per avere un quadro d’insieme di riferimento, sarebbe utile rispettare i Principi di Asilomar per lo sviluppo e l’utilizzo dell’intelligenza artificiale. Questi principi sottolineano l’importanza di sviluppare e utilizzare l’intelligenza artificiale in modo che non danneggi l’umanità, quindi sia sempre sotto il controllo umano, costruita in maniera trasparente e comprensibile, sviluppata e utilizzata in modo equo.”

Per chi non lo sapesse, i Principi di Asilomar sono un insieme di 23 principi che forniscono un quadro etico per lo sviluppo e l’utilizzo dell’intelligenza artificiale. Furono scritti nel 2017, ad Asilomar, in California, durante una conferenza organizzata dal Future of Life Institute, con la partecipazione di oltre 250 esperti di intelligenza artificiale, etica, politica e diritto.
“I Principi di Asilomar sono stati adottati da oltre 5.000 persone e organizzazioni di tutto il mondo. Sono citati in numerose pubblicazioni e documenti governativi e hanno contribuito a sensibilizzare l’opinione pubblica sulle implicazioni etiche dell’intelligenza artificiale. Nascono da una preoccupazione per le potenziali implicazioni negative dello sviluppo e dell’utilizzo dell’intelligenza artificiale e forniscono un quadro etico per lo sviluppo e l’utilizzo dell’AI in modo che possa essere utilizzata a beneficio dell’umanità.”

Però sono precedenti all’introduzione dell’intelligenza artificiale generativa e conversazionale, che Sam Altman e OpenAI hanno lanciato sul mercato grosso modo un anno fa, con un semplice tweet. Inoltre, il Future of Life Institute è sì un’organizzazione non profit nata nel 2014 che si occupa delle implicazioni etiche e sociali della ricerca sull’intelligenza artificiale, ma è stata fondata da Elon Musk, Sam Altman, Max Tegmark e altri esperti di intelligenza artificiale.
“Capisco dove vuoi arrivare e aggiungo che fu proprio il Future of Life Institute a lanciare nel marzo scorso l’appello per fermare lo sviluppo dell’intelligenza artificiale generativa…”

Esatto. Mi sembra che il combinato disposto che ne viene fuori, abbia luci e ombre…
“Al netto degli interessi di Altman e Musk, e anche se la loro enunciazione precede l’avvento dell’intelligenza artificiale generativa e conversazionale, questi principi mantengono intatta la loro forza.”

Puoi farmi qualche esempio?
“Ti sintetizzo i primi quattro principi: 1. L’intelligenza artificiale non deve essere utilizzata per danneggiare l’umanità. 2. L’intelligenza artificiale deve essere sotto il controllo umano. 3. L’intelligenza artificiale deve essere trasparente e comprensibile. 4. L’intelligenza artificiale deve essere sviluppata e utilizzata in modo equo.”

Principi che confermano la regola aurea: non tutto quello che è tecnicamente fattibile è eticamente e umanamente accettabile.
“Proprio così. Abbiamo davanti molte sfide da affrontare, è necessario un approccio complessivo, che tenga conto di tutte le implicazioni etiche, sociali e tecnologiche. Serve un’ampia collaborazione tra ricercatori, tecnologi, imprese, politici e società civile.”

È la stessa tesi che il 22 agosto ha esposto in una intervista pubblicata da Il Sole 24 Ore Martin Hellman, uno dei padri della crittografia moderna e premio Turing (Nobel per l’informatica). Secondo lui l’approccio decisivo per affrontare l’impatto che questa nuova versione di intelligenza artificiale sta avendo e avrà nei prossimi anni necessita di “una collaborazione internazionale tra gli Stati, le imprese e gli stessi scienziati”, perché l’intelligenza artificiale generativa e conversazionale è “una innovazione che impone l’evoluzione etica delle persone”.
“Hellman ha ragione. La questione non è solo tecnica ma è soprattutto culturale e antropologica e si articola su diversi piani. Per esempio, è importante garantire che l’intelligenza artificiale rispetti la privacy individuale e protegga ed utilizzi i dati personali in modo responsabile. Ancora, ed è necessario stabilire chiare linee di responsabilità per le decisioni prese, nonché a chi ascrivere eventuali danni provocati dall’uso scorretto dell’AI, in conformità con i principi di Asilomar che richiedono che l’intelligenza artificiale sia trasparente e comprensibile e sia sempre sotto il controllo umano. Allo stesso modo è importante che l’intelligenza artificiale venga progettata e utilizzata in modo da non perpetuare o esacerbare le disuguaglianze esistenti, per essere utilizzata in modo equo”

Sono tutti nobili principi e ideali, ma a volte, guardando la realtà viene da scoraggiarsi. Quando mi succede, penso però che da un lato avere principi e valori ti rende “più intelligente”, più capace di trovare soluzioni nuove, non scontate, anziché seguire la strada più semplice, che però rischia di portare nella direzione della “banalità del male”, come diceva, in tutt’altro contesto, Hanna Arendt…
“Guardando a come ti sei mosso da deputato e anche alla mia oramai lunga esperienza in azienda, posso dirti che è davvero così. Per questo non è mai tempo perso continuare a ricordare e a indicare principi, valori e ideali. Questo vale per le giovani generazioni, ma anche per le persone di esperienza. Cambiare è sempre possibile, serve qualcuno che indichi la rotta o che ne faccia memoria a chi l’avesse perduta”

Fermiamoci qui, Enrico. Altrimenti quando ci vedremo mercoledì non avremo più niente da dirci…inoltre, in tutto questo nostro dialogo non abbiamo detto chi sei. Non vorrei che chi ci legge pensasse a un dialogo con un software di intelligenza artificiale…
“Confermo che sono un essere umano! Mi chiamo Enrico Martines, sono il direttore sviluppo e innovazione sociale in HPE, Hewlett Packard Enterprise, e ti rivedrò con piacere all’incontro che faremo mercoledì prossimo, al Centro Nemo presso l’ospedale di Niguarda a Milano, per dialogare di intelligenza artificiale come sfida alla nostra umanità, assieme al direttore del Centro, Stefano Regondi, e alla vice rettrice dell’Università Bicocca, Gabriella Pasi.”

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Antonio Palmieri
Antonio Palmieri

Antonio Palmieri, fondatore e presidente di Fondazione Pensiero Solido. Sposato, due figli, milanese, interista. Dal 1988 si occupa di comunicazione, comunicazione politica, formazione, innovazione digitale e sociale. Già deputato di Forza Italia

Articoli correlati

Articolo 1 di 2