“L’intelligenza artificiale è potenzialmente più pericolosa del nucleare”: la spiazzante affermazione è contenuta in un recente tweet di Elon Musk, Ceo di Tesla Motors, azienda automobilistica impegnata nella creazione di veicoli elettrici ad alte prestazioni per il mercato di massa. Un “cinguettio” che ha immediatamente suscitato commenti e re-tweet, perché lascia trapelare uno scenario già descritto nei libri di fantascienza in cui gli oggetti dotati, appunto, di intelligenza artificiale arrivano a prendere il controllo sugli esseri umani.
► Ecco chi è Elon Musk e perché è un imprenditore che fa tendenza
In particolare Musk – imprenditore statunitense nato in Sudafrica, conosciuto soprattutto per aver creato la Space Exploration Technologies Corporation, di cui è tuttora amministratore delegato e Cto, e Tesla Motors, di cui è chairman e Ceo – ha scritto nel suo tweet:
“È valsa la pena leggere Superintelligence di Bostrom. Dobbiamo essere super-attenti nei confronti della AI (Artificial Intelligence). È potenzialmente più pericolosa del nucleare”.
Il libro Superintelligence a cui si fa riferimento l’impenditore è quello scritto da Nick Bostrom, fondatore del Future of Humanity Institute di Oxford. Si tratta, come si legge nel sito, di un istituto di ricerca multidisciplinare dell’Università di Oxford che riunisce selezionati talenti nella matematica, filosofia e scienza per rispondere alle grandi domande dell’umanità e riuscire a intravedere le sue prospettive future. Di recente l’istituto ha stretto una collaborazione con il Centre for the Study of Existential Risk di Cambridge per studiare come la nanotecnologia, la robotica, l’intelligenza artificiale e altre innovazioni possono un giorno “spazzarci tutti via”.
Durante una conferenza lo stesso Bostrom, a chi gli chiedeva se dovremmo essere spaventati dalle nuove tecnologie, rispondeva: “Sì, ma spaventati per le cose giuste. Ci sono enormi minacce esistenziali, ci sono minacce alla sopravvivenza stessa della vita sulla terra, che possono scaturire dall’intelligenza artificiale. Questo non accadrà oggi ma se raggiungeremo una sorta di super-intelligenza nel futuro”.
In Superintelligence Bostrom si chiede “cosa succederà quando le macchine sorpasseranno gli umani nell’intelligenza” e se “gli agenti artificiali ci salveranno o ci distruggeranno”. Un suo college di Cambridge, Martin Rees, ha detto del suo lavoro: “Quelli pronto a liquidare il ‘dominio della AI’ come fantascienza dovranno ripensarci dopo aver letto questo libro originale e ben argomentato”.
Nel dipingere il futuristico scenario Bostrom comunque sottolinea che l’umanità ha un vantaggio: può fare la prima mossa. Quindi si domanda: “Sarà possibile costruire un’intelligenza artificiale in modo da sopravvivere ad essa? Come si può ottenere un’esplosione controllata?”.
Il libro uscirà in lingua inglese il mese prossimo, ma la riflessione di Elon Musk è frutto di una lettura in anteprima.
Da qui il suo grido d’allarme. Il fatto che l’AI sia a suo dire “potenzialmente più pericolosa”, non costituisce ovviamente motivo sufficiente per rinunciare all’investire nella ricerca: proprio Elon Musk è infatti uno dei maggiori investitori in Vicarious, startup di San Francisco che utilizza i principi computazionali del cervello per costruire software che possano pensare e apprendere come un essere umano.
Ma Bruno Olshausen, docente a Berkeley e uno dei consulenti di Vicarious, ritiene che siamo ancora molto lontani dal comprendere il perfetto funzionamento del cervello per essere in grado di creare qualcosa che sia veramente rivoluzionaria.
“In assenza di un cambiamento significativo di paradigm, qualcosa di imprevedibile al presente – dice Olshausen – non direi che siamo al punto in cui dovremmo essere realmente preoccupati di un’AI fuori controllo”.
Ma in ogni caso è qualcosa “da tenere d’occhio”. (L.M.)