Intelligenza artificiale, la notizia della settimana è l’approvazione della
proposta di legge europea fatta giovedi 11 maggio dalle commissioni Mercato interno e Libertà civili del Parlamento europeo.
Una delle novità più importanti aggiunte al testo originario proposto dalla Commissione europea nell’aprile 2021 sono
i sei principi generali (art. 4a General principles applicable to all AI systems) che tutti gli operatori dell’Intelligenza artificiale dovranno rispettare nello sviluppo e nell’utilizzo dei
sistemi di AI.Intelligenza artificiale, i sei principi del Parlamento europeo
Eccoli qui:
1. Intervento umano e supervisione
“I sistemi di IA devono essere sviluppati e utilizzati come uno strumento al servizio delle persone, rispettando la dignità umana e l’autonomia personale e funzionando in modo tale da poter essere adeguatamente controllato e supervisionato dagli esseri umani”.
2. Solidità tecnica e sicurezza
“I sistemi di IA devono essere sviluppati e utilizzati in modo da ridurre al minimo i danni non intenzionali e imprevisti, nonché essere adeguati in caso di problemi non intenzionali ed essere resilienti contro i tentativi di alterare l’uso o le prestazioni del sistema di IA in modo da consentirne l’uso illecito da parte di terzi malintenzionati”.
3. Privacy e governance dei dati
“I sistemi di IA devono essere sviluppati e utilizzati nel rispetto delle norme vigenti in materia di privacy e protezione dei dati, trattando i dati in modo tale da soddisfare standard elevati in termini di qualità e integrità”.
4. Trasparenza
“I sistemi di IA devono essere sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo al tempo stesso consapevoli gli esseri umani che comunicano o interagiscono con un sistema di IA e informando debitamente gli utenti delle capacità e dei limiti di tale sistema IA e le persone interessate sui loro diritti”.
5. Diversità, non discriminazione ed equità
“I sistemi di IA devono essere sviluppati e utilizzati in modo da includere attori diversi e promuovere la parità di accesso, l’uguaglianza di genere e la diversità culturale, evitando impatti discriminatori e pregiudizi sleali vietati dall’Unione o dalle leggi nazionali”.
6. Benessere sociale e ambientale
“I sistemi di IA devono essere sviluppati e utilizzati in modo sostenibile e rispettoso dell’ambiente, nonché in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando al contempo gli impatti a lungo termine sull’individuo, sulla società e sulla democrazia”.
Le responsabilità di chi finanzia e degli sviluppatori
Perché questi principi sono importanti? Perché richiamano sia chi finanzia sia chi scrive i software di AI alla responsabilità che sono chiamati ad avere nei confronti dell’intera società. Il primo punto sta nell’essere consapevoli che non tutto ciò che è tecnicamente possibile lo è anche eticamente e umanamente. Per questo, dato che l’intelligenza artificiale non esiste in natura ma è una costruzione di noi esseri umani, accanto alle norme occorrono consapevolezza e responsabilità da parte di chi la produce.
Non è un discorso da anime candide è il presupposto per avere una intelligenza artificiale davvero solida(le) e quindi realmente generativa. È lo stesso invito che il presidente Biden ha formulato accogliendo il 4 maggio alla Casa Bianca i rappresentanti di alcune grandi aziende tecnologiche, invitandoli ad assicurarsi che i loro prodotti siano sicuri prima di essere resi pubblici.
Intelligenza artificiale. E noi? L’incontro della Fondazione Pensiero Solido
Inizieremo con la presentazione della ricerca Youtrend/Fondazione Pensiero Solido “Gli italiani e l’intelligenza artificiale. Cosa ne pensano, cosa si aspettano” e continueremo con gli interventi di 25 relatori. Ci saranno i rappresentanti delle grandi aziende tecnologiche (Google, Amazon Web Services, Microsoft, IBM, Meta), importanti realtà come CNR e IIT e alcune delle principali università italiane, Sapienza, LUISS, Politecnico e Università Cattolica di Milano.
Dialogheremo con persone che operano e riflettono sulle opportunità e sulle conseguenze pratiche ed etiche dell’uso dell’intelligenza artificiale. Avremo con noi alcune aziende di AI, che prefigurano una possibile “via italiana” all’intelligenza artificiale.
Sarà un pomeriggio di intenso lavoro e di approfondimento delle sfide dell’intelligenza artificiale, che ci riguardano tutti. In attesa che l’Unione europea completi l’iter della legge (prima che possano iniziare i negoziati con il Consiglio Ue sulla forma finale della legge, il testo deve essere approvato dall’intero Parlamento nella sessione del 12-15 giugno), chi può ha l’obbligo di approfondire e comunicare.