Spesso, in molti contesti divulgativi, all’Artificial Intelligence si affiancano altri termini quali “Machine Learning” e “Deep Learning” come se fossero interscambiabili senza, in realtà, esserlo. Dunque, qual è la differenza tra Artificial Intelligence, Machine Learning, e Deep Learning?
Usando la simbologia degli insiemi, Artificial Intelligence (AI), Machine Learning (ML) e Deep Learning (DL) possono essere considerati come tre ambiti scientifici annidati l’uno nell’altro, come tre matrioske, partendo dal primo che ingloba gli altri due fino al DL, che è la scienza concettualmente più ristretta.
Osservandoli al contrario, si può definire il Deep Learning come un sottoinsieme del Machine Learning che, a sua volta lo è dell’Artificial Intelligence, il termine più ampio per definire qualsiasi programma per computer che agisca secondo una logica raziocinante.
In altre parole, tutto ciò che fa parte del Machine Learning è anche parte dell’Intelligenza Artificiale, ma non tutta ciò che è definito come Intelligenza Artificiale può essere indicato con gli altri due termini.
Artificial Intelligence, un po’ di storia
Il termine Artificial Intelligence (AI), nato per primo, ha più di 60 anni. Coniato nel 1956, fu usato per la prima volta alla Dartmouth Conference organizzata da Marvin Minsky (Università di Harvard), John McCarthy (Darthmouth College), Claude Shannon (Bell Telephone Lab) e Nathan Rochester (IBM).
John McCarthy, in particolare, è riconosciuto come uno dei padri dell’AI, che definì come “la scienza e l’ingegneria della fabbricazione di macchine intelligenti”, e del “lancio” dei primi linguaggi di programmazione (Lisp nel 1958 e Prolog nel 1973) specifici per l’AI.
Questi linguaggi permisero di creare moltissimi programmi di AI in domini molto diversi tra loro, che agli inizi, negli anni ’70, venivano chiamati anche “sistemi esperti”, con lo scopo di simulare il comportamento di una persona esperta di un settore specifico.
Tra le pietre miliari dell’AI molti ricordano le macchine programmate in modo da imitare e sfidare i migliori giocatori, come Deep Blue che riuscì a battere a scacchi l’allora campione del mondo, Kasparov (1997).
La prima definizione di McCarthy dell’AI è stata poi ripresa ed elaborata:
- Una branca dell’informatica che si occupa della simulazione del “comportamento umano intelligente” nei computer.
- La capacità di una macchina di imitare un comportamento umano intelligente.
- Un sistema informatico in grado di svolgere compiti che normalmente richiedono intelligenza umana, come percezione visiva, riconoscimento vocale, processo decisionale e traduzione tra le lingue.
Necessariamente, quindi, lo sviluppo dell’AI deve basarsi sullo studio del nostro comportamento e del nostro modo di ragionare.
Intelligenza artificiale: la differenza tra AI debole e AI forte
Partendo dall’analisi funzionale di peculiari azioni intellettive umane, sono state individuate alcune funzioni di base che un’Intelligenza Artificiale deve essere in grado di compiere, per essere definita tale:
- Compiere una o più azioni autonomamente
- Risolvere un problema attraverso specifiche funzioni cognitive (pensare ‘umanamente’)
- Pensare razionalmente
- Agire razionalmente, ovvero avviare un processo che conduca al miglior risultato atteso sulla base delle informazioni e delle conoscenze a propria disposizione
Secondo le definizioni fornite dallo studioso di neuroscienze John Searle, riconosciamo due principali teorie relative all’AI:
- “AI forte” o AGI (Artificial General Intelligence) si basa sulla convinzione che le macchine possano effettivamente essere intelligenti.
- “AI debole” o ANI (Artificial Narrow Intelligence) invece, in modo più realistico e pragmatico, pensa che le macchine possano comportarsi come se fossero intelligenti.
- Nell’AI debole (ANI) non esiste la necessità di comprendere totalmente i processi cognitivi dell’uomo e non si cerca di ricreare l’autoconsapevolezza. Essa si occupa esclusivamente di problem solving, ovvero la risoluzione di problemi. Tutte le applicazioni oggi definite e genericamente come AI rientrano in questa categoria.
- Mentre nell’AI forte (AGI) , si applica ad un processo software intelligente quanto un essere umano e quindi in grado di eseguire, con lo stesso percorso intellettivo, qualsiasi compito.
Nonostante sull’AGI ci sia qualcuno che sta investendo, tanto che oggi si è arrivati a parlare anche di ASI Artificial Super Intelligence, oggi quando si tratta di applicazioni di AI intendiamo ancora e solo l’AI debole.
La scopo dell’AI oggi non è tanto quello di realizzare macchine che riproducano in toto l’intelligenza umana, quanto quello di creare sistemi che possano agire con successo in alcuni ambiti funzionali complessi, come ad esempio la traduzione automatica di testi, come la nota applicazione di Google.
L’AI applicata al problem solving può essere descritta come una serie sequenziale di istruzioni base dell’informatica “if-then” dove If è la condizione e Then l’azione (se si verifica una determinata condizione, allora avviene una certa azione) o anche espressa con un modello statistico più complesso che associa i dati sensoriali di input (condizione) a categorie simboliche per raggiungere un certo scopo (azione o output).
L’insieme di queste istruzioni simboliche if-then sono chiamate motori di regole, sistemi esperti, grafi della conoscenza.
Nell’AI, le istruzioni if-then sono regole esplicitamente scritte da una mano umana ma l’avvento dei BIG DATA ha aperto la strada anche a regole e programmi di “auto apprendimento” come il Machine e il Deep Learning.
Le applicazioni dell’Artificial Intelligence
Google non è nuova all’impiego dell’Intelligenza artificiale e oltre al traduttore l’AI viene utilizzata anche per catalogare automaticamente, all’interno della sua applicazione di posta elettronica, i messaggi ritenuti indesiderati (SPAM Filtering).
Ai giorni nostri sono state raggiunte mete impensabili solo qualche anno fa, quali il riconoscimento del parlato (Voice recognition) e della calligrafia.
L’Intelligenza Artificiale, oggi, consente di produrre automobili dotate di sensori (Radar, telecamere lidar..) che, in determinati contesti, non prevedono l’intervento umano (self driving car).
I sistemi di profilazione sono un altro risultato dell’AI, che attraverso l’applicazione di particolari algoritmi, permettono a molte piattaforme di elaborare modelli specifici in grado di suggerirci, in base ai nostri interessi, la musica da ascoltare, i libri da acquistare e così via. L’Intelligenza Artificiale consente anche di prevedere quali saranno i futuri consumi di energia elettrica di un utente o addirittura comprendere se ci si trova di fronte a un soggetto con comportamenti potenzialmente rischiosi.
Dall’inizio degli anni 60 ad oggi, l’AI ha trovato, progressivamente, applicazione nel quotidiano e in molti settori prima impensabili.
L’AI può anche essere definita come l’insieme di tecniche informatiche per trasformare intelligentemente un input (A) in un output (B) mentre il Machine Learning e il Deep Learning sono degli strumenti per rendere questa trasformazione più performante.
Machine Learning e Deep Learning
Il Machine Learning (in italiano apprendimento automatico) e il Deep Learning (in italiano apprendimento profondo) possono essere considerati come insiemi di algoritmi e metodi di programmazione a servizio dell’IA.
La differenza risiede nell’uso della programmazione in quanto il Deep Learning usa strettamente le reti neurali per simulare il comportamento cellulare del nostro cervello.
I modelli per il ML e il DL hanno la stessa finalità dell’AI cioè a partire da determinati input (A) ottenere e calcolare l’output (B).
Infatti, il ML è quell’insieme di metodi che consentono ad un programma software di adattarsi e di apprendere autonomamente, senza cioè che vi sia un sistema pre-programmato che stabilisce come
debba comportarsi. Si tratta di algoritmi in grado di imparare dai propri errori, in grado di essere allenati grazie a un insieme di dati utilizzati come esempio: fase di training con dati degli input A e B, per prevedere come comportarsi con input A nuovi e diversi e predire, cioè calcolare, B in autonomia.
Perché ora si parla di Machine Learning e Deep Learning?
La notevole disponibilità di informazioni, grazie all’evoluzione dei BIG DATA, ha dato di fatto un impulso a questo settore, grazie all’utilizzo di dati già opportunamente catalogati e consentendo agli algoritmi di imparare di giorno in giorno e migliorare le loro prestazioni. Le applicazioni di AI sono in continua evoluzione, raggiungendo elevati livelli di complessità e risultati affascinanti, nella traduzione di testi, nel riconoscimento facciale, nell’interpretazione di comandi vocali, spam filtering, ecc …
E’ intuitivo come le aziende capaci di raccogliere e catalogare i dati in modo corretto si candidino ad essere ai primi posti nel settore dell’AI.
La storia del Machine Learning
Il termine Machine Learning fu coniato per la prima volta nel 1959 da Arthur Samuel che lo ha definito come un “campo di studio che offre ai computer la capacità di apprendere senza essere esplicitamente programmato” e ripreso successivamente da Tom Mitchell che ne ha dato una definizione formale e attuale:
“Si dice che un programma per computer apprenda dall’esperienza E rispetto ad alcune classi di attività T e che misurino le prestazioni P se le sue prestazioni nel realizzare le attività in T, misurate da P, migliorano con l’esperienza E”.
In altre parole, se un computer migliora nello svolgere un’attività, rispetto un’esperienza passata, si dice che ha imparato.
Sono programmi di apprendimento automatico, in un certo senso, si adattano in risposta ai dati a cui sono sottoposti (come un bambino appena nato che adegua la sua comprensione del mondo in risposta all’esperienza). A differenza delle precedenti istruzioni “if-then” dell’AI, i programmi di ML e DL non sono registrati su computer ma sfruttano il risultato della fase di apprendimento.
Arthur Samuel insegnò a un programma per computer a giocare a dama, con l’obiettivo di essere superato autonomamente dallo stessa macchina, cosa che, ovviamente, non avrebbe potuto programmare esplicitamente. Ci riuscì, e nel 1962 il suo programma superò il campione di dama dello stato del Connecticut.
Questo è ciò che fanno anche le reti neurali o il Deep Learning. Continuano a misurare l’errore e a modificare i loro parametri fino a quando non riescono a ottenere meno errori.
Sono, in breve, un algoritmo di ottimizzazione. “Allenandosi” correttamente, minimizzano gli errori indovinando, indovinando e indovinando ancora.
Deep Learning, come definirlo
I termini “Deep Learning” e “Rete Neurale” (ANN Artifical Neural Network) possono essere interscambiati poiché hanno di fatto lo stesso significato.
Le reti neurali sono un insieme di algoritmi di ML che hanno stabilito nuovi record in termini di accuratezza.
Ad esempio, il DL fa parte del noto AlphaGo dell’algoritmo di DeepMind, che ha battuto l’ex campione del mondo Lee Sedol a Go all’inizio del 2016 e l’attuale campione del mondo Ke Jie all’inizio del 2017.
Quindi al DL si potrebbe applicare la stessa definizione che Arthur Samuel ha fatto per il ML: “un campo di studio che offre ai computer la capacità di apprendere senza essere programmato esplicitamente” – aggiungendo che il DL tende a fornire una maggiore precisione, sebbene richieda più hardware e tempo di calcolo, ed è in grado di eseguire operazioni eccezionalmente precise anche su dati non strutturati come immagini, testi e video.
Qual è il prossimo passo per l’Artificial Intelligence?
I progressi compiuti dai ricercatori di DeepMind, Google Brain, OpenAI e varie università stanno accelerando. L’intelligenza artificiale è in grado di risolvere problemi sempre più difficili meglio di chi l’ha programmata.
Ciò significa che l’IA sta cambiando più velocemente di quanto la sua storia possa essere scritta, quindi anche le previsioni sul suo futuro diventano rapidamente obsolete.
Le scuole di pensiero sulle possibili evoluzioni dell’AI sono varie ma i progressi li sperimentiamo ormai giornalmente, rendendo la nostra vita quotidiana sempre più facile e stimolante ma anche sempre più dipendente.