L'ANALISI

ChatGPT e altri, stiamo entrando nell’era della parola sintetica che scardinerà imprese e mercati

La capacità di simulare la lingua (Chat GPT e simili) non è solo un avanzamento tecnico nel processamento del linguaggio naturale. È piuttosto un passaggio di civiltà che scardinerà economie, imprese e mercati. Il filosofo Cosimo Accoto spiega perché e con quali possibili effetti

Pubblicato il 16 Gen 2023

Chat GPT, Intelligenza Artificiale

ChatGPT, ormai ne parlano tutti e tutti vogliono provare il chatbot lanciato da OpenAI, società della costellazione Elon Musk. È gratuito, per il momento, e quindi è spesso bloccato causa eccesso di richieste. Il sistema è solo uno dei tanti software di intelligenza artificiale che lavorano per riprodurre la capacità umana di creare testi, ma anche immagini, video e audio. In questo contributo Cosimo Accoto va oltre la curiosità e l’hype del momento per capire il senso più profondo di questo radicale cambiamento cambiamento nella gestione del linguaggio.
Filosofo, research affiliate e fellow al MIT (Boston) e adjunct professor (UNIMORE), Cosimo Accoto è autore di un’originale trilogia filosofica sulla civiltà digitale (Il mondo in sintesiqui una recensione del libroIl mondo ex machina – qui un’intervista sul libroe Il mondo dato). Ecco la sua analisi su ChatGPT e la famiglia di software a cui appartiene. 

ChatGPT e la questione dei linguaggi sintetici

Affrontare oggi la questione dei linguaggi sintetici, simulativi e inflattivi (ChatGPT et similia) significa fronteggiare un passaggio di civiltà epocale e non episodico. Un passaggio – direi – molto commentato al momento, ma forse poco esplorato e poco compreso nella sua portata. Tecnicamente, il dispositivo che istanzia un ‘modello linguistico su larga scala’ (LLM o large language model) è un assemblaggio socio-tecnico generativo fatto di abilità diverse connesse a molteplici architetture computazionali e risorse informative.

La capacità di simulare il linguaggio nella sua forma testuale, di aggiustarlo in modalità contestuale, di archiviare conoscenza e informazione, di eseguire istruzioni e compiti linguistici, di sintetizzare temi con affinamento scalare, di originare sequenze di argomentazioni e tentativi di ragionamento per step, di articolare risposte e costruire dialoghi sono il frutto di un’orchestrazione complessa fatta di programmi software, dati e archivi informativi, algoritmi di apprendimento profondo e anche a rinforzo umano, modelli matematico-stocastici della lingua.

Dunque, è un insieme di tecnicalità e operatività ingegneristico-computazionali intrecciate (training on code, transformers, pre-training modeling, instruction tuning, words tokenization, reinforcement learning con human feedback…) in grado di sequenziare statisticamente il linguaggio naturale umano. Il tutto -in molti dicono per bilanciare e contrastare l’hype del momento- senza relazione di senso col reale. Vale a dire, cioè, senza che quel linguaggio sintetico sappia in realtà nulla del mondo e senza che abbia una qualche comprensione dei suoi significati. L’espressione usata “pappagalli stocastici” evoca questa scrittura simulativa insensata.

Che cos’è un LLM, large language model?

Ma cos’è, in ultima istanza, un large language model? Possiamo dire che un LLM è un sequenziatore linguistico-probabilistico a bassa crossentropicità. Dunque, ridotto ai suoi minimi termini, è un modello matematico della distribuzione di probabilità delle parole di una lingua scritta che si sforza di minimizzare la crossentropia (cioè lo scarto tra due potenziali distribuzioni di frequenza) massimizzando, di conseguenza, la sua capacità performativa come text predictor.

Questo approccio è il frutto di un lungo percorso (Li, 2022)  nella storia moderna del processamento del linguaggio naturale (NLP) che partendo dalle catene di Markov a inizio Novecento applicate alla letteratura (sequenza di vocali e consonanti di un romanzo) e passando per i lavori di Shannon e Weaver a metà anni Cinquanta sulla misura dell’entropia e la distribuzione delle probabilità (n-grams e sequenza probabilistica di parole nella lingua), arriva a inizio anni Duemila con Bengio e colleghi all’applicazione delle reti neurali artificiali per il processamento del linguaggio naturale (neural NPL). Con importanti sviluppi recenti come l’impiego dei trasformatori (transformers) in grado di incorporare nell’analisi probabilistica del linguaggio la dimensione contestuale delle parole nelle frasi.

Per questo, come ha ben scritto Shanahan (2022): “è molto importante tenere a mente che questo è ciò che i modelli linguistici di grandi dimensioni fanno realmente. Supponiamo di dare a un LLM la richiesta “la prima persona a camminare sulla Luna è stata…” e supponiamo che risponda “Neil Armstrong”. Che cosa stiamo chiedendo in realtà? In misura significativa, non stiamo chiedendo chi è stato il primo a camminare sulla Luna. Quello che stiamo chiedendo al modello è la seguente domanda: data la distribuzione statistica delle parole nel vasto corpus pubblico di testi (in inglese), quali sono le parole che più probabilmente seguono la sequenza “La prima persona a camminare sulla Luna è stata…”? Una buona risposta a questa domanda è “Neil Armstrong”.

La necessità di nuove pratiche disciplinari

Da qui anche la necessità di nuove pratiche disciplinari come il prompt engineering e design. Interrogazioni, istruzioni, dati, esempi sono di norma gli input impiegati per sollecitare la macchina a produrre, attraverso un modello matematico ottimizzato su token linguistici, l’output desiderato (una conversazione, un testo, un riassunto …).

Per una buona produzione dell’output, l’ingegneristica dello spunto (prompt engineering) necessita di avere una qualche comprensione del meccanismo/modello impiegato dalla macchina oltre che una qualche conoscenza del dominio disciplinare di riferimento. In ogni caso, ad oggi potenzialità e meraviglie, ma anche limitazioni, allucinazioni, inventive, errori lessicali, sintattici, semantici e retorici di GPT et similia sono conseguenti a questa peculiare modalità operativa di processamento computazionale, probabilistico e simulativo, della lingua.

In questo frangente, qualcuno velocemente viene riproponendo il ban platonico delle arti imitative (“della cosa imitata l’imitatore non sa nulla che valga nulla” scriveva Platone nella Repubblica) nella sua versione contemporanea degli stochastic parrot, dei pappagalli probabilistici, come anticipavo. Altri ingenuamente si stupiscono delle nuove meraviglie tecnologiche simulacrali e del grado di verosimiglianza raggiunto e sempre più via via affinato a superamento di soglie un tempo immaginate invalicabili (e tra l’altro siamo in attesa, dopo GPT-3, di GPT-4 di molte magnitudini superiore).

Di volta in volta, l’umano fronteggia la presa di parola della macchina o con palese sufficienza (non c’è comprensione del senso) o con facile entusiasmo (una svolta nella generazione del linguaggio). Sono tuttavia visioni filosofiche deboli del momento e del passaggio che viviamo perché cercano di depotenziare o banalizzare l’impatto culturale spaesante dell’arrivo dei linguaggi sintetici. Che non riguarda la questione di assegnare e riconoscere o meno intelligenza, coscienza, senzienza alle macchine. Piuttosto e in prospettiva, l’arrivo del “linguaggio sintetico” (Bratton) scardina e decostruisce (Gunkel) in profondità gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante così come della scrittura e dell’autorialità. La presa di parola della macchina sarà un’operazione più profonda e spaesante nel lungo periodo.

Gli effetti del passaggio alla “parola non-umana”

In primis, il fatto che non ci sia ‘comprensione di senso’ (punto da approfondire e da non dare per già facilmente sciolto) non significa, ad esempio, che non ci sia comunque produzione/circolazione di senso e di impatto per l’umano preso nell’assemblaggio sociotecnico. Il senso circola sempre in qualche forma attraverso l’intelligenza (o non intelligenza) dell’umano che leggerà. E, come sottolineo sempre, la cosiddetta ‘intelligenza artificiale’ non è pensabile in sé e per sé (come mero artefatto tecnico) come spessissimo viene intesa, ma sempre con altri e per altri (come assemblaggio sociale). E, qui, antropomorfismi e sociomorfismi sono sempre all’opera con i loro pregi e i loro rischi.

D’altro canto, dire che è una svolta nella produzione del linguaggio lascia inesplorata la natura di questa operazione senza precedenti di “strutturalismo sperimentale”, come l’ha definita Rees. Quindi, sostenere a proposito dei LLM che si tratta di meri pappagalli stocastici significa non comprendere la portata culturale epocale di questo passaggio alla “parola non-umana” (Rees).

La prerogativa storica della parola ai soli umani mostra segni di cedimento. Passaggio che, secondo Gunkel (2022), la teoria letteraria e la filosofia continentale avevano anticipato. Ad esempio, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e Foucault (Qu’est-ce qu’un auteur?) tra gli altri. In questa prospettiva, dice Gunkel, la parola/scrittura della macchina rappresenterebbe la fine dell’autorialità (per come l’abbiamo conosciuta, trasformata e operazionalizzata storicamente finora) e l’inizio di un nuovo percorso/discorso della parola, del linguaggio, della scrittura. Con tutte le sue opportunità e tutte le sue inquietudini, vulnerabilità e rischi. Dunque, continua nei suoi post Gunkel, non sarebbe la fine della scrittura, ma la fine dell’autore (nella sua forma storica attuale).

Ma insieme all’autorialità che entra in questione e in crisi, siamo anche all’avvio più complessivamente di una nuova era inflazionaria della parola (e dei media più in generale). Che, come tutti i passaggi mediali inflattivi, scardina per un verso e istituzionalizza per l’altro nuovi ordini del discorso, nuovi regimi di verità e falsità, nuove logiche e dinamiche di economia politica e di potere. Come ha scritto Jennifer Petersen nel suo recente How Machines Came to Speak (2022) e ne cito un passaggio “…molti impieghi dei bot e dell’apprendimento automatico ristrutturano il discorso, riorganizzando le posizioni di chi parla, del testo e del pubblico – e così facendo, cambiano ciò che significa essere un soggetto parlante … il momento attuale potrebbe essere un’occasione per ripensare alcuni dei nostri assunti fondamentali sul discorso”. Come direbbe Foucault, in che forme sorprendenti e arrischiate verremo allora parlati dalla nuova lingua sintetica? In e per quali campi di forze si evocherà la sua potenza?

Quel che è certo è che con i linguaggi sintetici non siamo di fronte solo a nuovi problemi tecnologici, ma anche e soprattutto a nuove o rinnovate provocazioni culturali e sorprendenti paradossi (tra il dentro e il fuori del testo, tra il linguaggio e la sua relazione col mondo, tra la presa di parola della macchina e l’esperienza dell’umano che viene parlato). E se i problemi tecnici richiedono una soluzione ingegneristica, le provocazioni intellettuali ci sollecitano piuttosto all’innovazione culturale. Di questa abbiamo un urgente bisogno per attraversare e abitare, più solidamente e più solidariamente, queste nuove uncanny valley.

Per approfondire la questione dei linguaggi sintetici

  • Li (2022), Language Models: Past, Present, Future
  • Shanahan (2022), Talking About Large Language Models
  • Rees (2022), Non-Human Words: On GPT-3 as a Philosophical Laboratory
  • Bratton, Aguera Y Arcas (2022), The Model is The Message
  • Gunkel (2022), ChatGPT is the event that 20th century continental philosophy had been preparing us for (twitter post)
  • Petersen (2022), How Machine Came to Speak

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Cosimo Accoto, filosofo del digitale
Cosimo Accoto, filosofo del digitale

Filosofo, research affiliate e fellow al MIT (Boston), adjunct professor (UNIMORE), startup advisor e instructor, Cosimo Accoto è autore di un’originale trilogia filosofica sulla civiltà digitale (Il mondo in sintesi, Il mondo ex machina, Il mondo dato). Ha pubblicato su Economia & Management (Bocconi), Harvard Business Review, Sole 24Ore, Sistemi & Impresa, Aspenia. È speaker nei convegni Ambrosetti, Aspen Institute, Harvard Business Review e ospite frequente di trasmissioni televisive e radiofoniche (Codice, Rai1 e Smart City, Radio24).

Articoli correlati

Articolo 1 di 3