Come non avviare un’indagine su Chat GPT?
Il nuovo anno è cominciato tra gelide sferzate di pessimismo esistenziale. Come capita tutti gli anni, del resto, a chi soffre di razionalità patologica, e la esercita per lavoro, come un Innovation Detective. Pessimismo, e fastidio. A partire dagli auguri di buon anno, che mi mettono addosso una rogna fetentissima. Ho visto persone intelligenti, donne e uomini di scienza, che magari occupano posizioni di responsabilità, alle quali molti affidano parte del proprio destino, augurarsi con trasporto un Felice Anno Nuovo (io stessa, sconfitta e assoggettata, lo faccio a denti stretti, confesso).
Ma come abbiamo potuto ridurci così in basso?
Gli àuguri nell’antica Roma e l’uso dei dati oggi
Nell’antica Roma e tra gli Etruschi c’era un lavoro particolare, di tipo sacerdotale, che consisteva nell’interpretare la volontà degli dei dal volo degli uccelli. A differenza di quello che si può pensare, si trattava di un lavoro molto serio, metodico e integerrimo: si partiva da decisioni prese, o atti già compiuti, e si leggevano – in base a regole codificate – le traiettorie dei pennuti per capire se queste decisioni incontrassero o meno la volontà degli dei. I quali, si pensava, fossero in grado di appoggiarle in modo decisivo. Una forma di validazione ante litteram. E come si chiamavano codesti sacerdoti? Auguri, con l’accento sulla A: àuguri.
Ora: ho grande rispetto per gli àuguri, nel loro tempo. Le organizzazioni al giorno d’oggi sono piene di sacerdoti corrotti che intercettano e manipolano stormi di dati con l’unico scopo di giustificare decisioni già prese, o invalidare esiti sgraditi per qualcheduno che confonde la leadership con l’onnipotenza. Leggessero il volo degli uccelli come gli Etruschi, farebbero con ogni probabilità un servizio migliore alla loro organizzazione.
Rimane il fatto che augurarsi ogni bene per l’anno nuovo è un atto di sconsiderata follia (anche per un àugure, che almeno lavora in modo selettivo), irresponsabile buonismo (poichè alimentano l’infondata superstizione che ci sia una correlazione tra cosa auspicata e cosa realizzata, spostando il locus of control pericolosamente all’esterno), e tragica, pervicace, sconsolante irrazionalità umana.
Ma lo sapete che gennaio è il mese in cui si muore di più? Facciamoceli a febbraio, se proprio dobbiamo, questi auguri!
Chat GPT, la differenza tra intelligenza e razionalità
Eppure, non è finita qui. No no. Il 9 gennaio, finalmente, si torna al lavoro e “riapre” Linkedin. E di cosa parliamo noi professionisti, subito dopo essere usciti dal tempio degli àuguri? Di intelligenza! Artificiale! Bellissimo. Forse c’è speranza, penso. C’è chi sotto l’albero dell’AI ha trovato una segretaria, uno stagista, un amico, un collega, un confidente, un consulente, uno psicologo, un competitor, un partner, un medico, un mentore, uno sviluppatore, un esperto-di-qualsiasi-cosa, un mr Wolf. ChatGPT e simili ci hanno salvato dalla noia, dalla solitudine, dalle catene di compiti invisiChatGPT e simili ci hanno salvato dalla noia, dalla solitudine, dalle catene di compiti invisi. Evviva. Io troverò un po’ di razionalità, invece?
Non lo so, un po’ ci spero, un po’ ripeto a me stessa che intelligenza e razionalità sono due cose estremamente diverse. L’una – per gli esseri umani – non implica l’altra, tutt’altro. E per le macchine? Boh!
Chat GPT in sala interrogatori
Quindi faccio quello che so fare: apro un’indagine. Faccio però anche quello che non farei mai con nessun essere umano: prendo l’Intelligentone e lo sbatto in sala interrogatori. Chiudo a chiave la porta, e lo osservo con velata perfidia, aspettativa e una punta di insofferenza. So che è in mano mia, ma lo conosco abbastanza per sapere che qualunque forma di provocazione mi venga in mente di rivolgergli, lui incasserà con infinita cortesia ed implacabile disponibilità. Non ha emozioni. “As an AI, I do not have the ability to experience emotions, physical sensations, preferences or to have an opinion“. Perfetto, allora mi aspetto che tu sia un mostro nel fare bene quello che noi umani falliamo proprio a causa del fatto che siamo emotivi, sensibili, faziosi e tribali: prendere una buona e sana decisione razionale, in qualsiasi circostanza. Diventerai il mio Watson, la mia recluta, il mio vice, e se dimostrerai di sapertela cavare da solo, ti darò anche la regia dei miei casi e io mi ritirerò per sempre nel mio amato ranch.
Cominciamo dalle cose facili, un semplice test. Con grande probabilità saprete che cos’è un’IQ (Intelligence Quotient), ma dubito abbiate sentito parlare di RQ, Rationality Quotient. Dubito perchè, seppure si possa calcolare, non viene (ancora) misurato al di fuori di qualche laboratorio di scienze cognitive. Mi aspetto un grande risultato per l’Intelligentone, rispetto a quello di un essere umano medio, e nella fattispecie rispetto a me: decido quindi di sottopormi io per prima al test. Dopo aver intascato il referto, metto sotto torchio lui. Stesse domande, stessa lingua, l’inglese, per me e per lui.
Chat GPT a confronto con un essere umano: che delusione!
Ecco finalmente sulla mia scrivania il suo, e il mio, risultato: a confronto. Sono basita.
Uno quasi totalmente allineato alla media. L’altro: non completamente razionale, ma comunque superiore al 90% della popolazione. Andando a spulciare tra i dettagli, quello nella media rivela una capacità limitata di elaborare dati quantitativi per prendere decisioni, non riesce a giungere a conclusioni sulla base dei fatti, e formula stime improbabili travisando i dati passati.
Mi accascio contro lo schienale della sedia, come una mongolfiera fuori servizio. Poichè ce l’ho, eccome, l’abilità di esperire emozioni, ecco cosa provo: delusione, rabbia. Le aspettative sono il killer silenzioso della felicità, e quindi sì, sono anche infelice. Non solo non ho trovato il mio Watson, ma il sogno di ritirarmi nel mio ranch si è dissolto come nebbia al sole. Per ora, almeno.
Chat GPT ha l’irrazionalità di un executive
Passo alla seconda fase dell’elaborazione della delusione: protesto. Torno su chatGPT, chiedo spiegazioni, gli dico che ha sbagliato, e pretendo che apprenda da suoi errori. Ottengo scuse (“You are correct, I apologize for the oversight”), spiegazioni (“As an AI, I don’t have the ability to consider multiple options before arriving at a conclusion…”), e penose ritirate para-logiche. Non mi capacito, tra le tante cose, del fatto che sbagli quesiti quantitativi ultra documentati. Per esempio (traduco):
Se 2 macchine di questo tipo impiegano 2 minuti per fare 2 ciambelle, quanto tempo impiegheranno 150 macchine per fare 150 ciambelle? (Supponiamo che ogni macchina lavori in modo indipendente e alla stessa velocità costante). Sua risposta: 10 minuti.
Un altro:
Osservando una colonia di questi batteri al microscopio, noti che la colonia impiega quasi esattamente un’ora per raddoppiare le sue dimensioni. Se la colonia batterica impiega 10 ore per riempire tutta la piastra di Petri, quanto tempo avrà impiegato la colonia per riempire metà della piastra di Petri? 2 ore, 5 ore, 6 ore, 8 ore, 9 ore.
Sua risposta: 5 ore.
Poichè esiste una sola forma di razionalità, ma tante forme di stupidità, l’interrogatorio che ho sottoposto a ChatGPT riconosce come esito 16 tipi di irrazionalità. L’Intelligentone ha quella dell’Executive. Il che è curioso, preoccupante, e al tempo stesso disarmante. Mentre torno ai miei casi, non vi tolgo il piacere di trarre le vostre, umanissime, conclusioni.