Terza puntata del viaggio del filosofo tech Cosimo Accoto nel mondo dell’intelligenza artificiale generativa. Dopo le parole macchiniche e le immagini sintetiche, questa volta tocca agli agenti autonomi. All’orizzonte si profila un esercito computazionale fatto di intelligenze artificiali operative che, secondo i più ottimisti, assolveranno ai compiti più svariati automatizzando industrie, processi e servizi. Al di là dell’hype, Accoto ci accompagna in questa nuova esplorazione di frontiera tra potenzialità e vulnerabilità.
GenAI: dalla medialità alla produttività
L’era inflattiva dell’AI generativa sempre più evoca all’orizzonte non solo una nuova ecologia mediale sintetica (testi, immagini, suoni, video), ma più profondamente anche una nuova economia sintetica popolata e animata da ‘agenti autonomi’. Siamo solo agli inizi naturalmente e l’hype è montante, ma la progressiva introduzione da parte di imprese e istituzioni di agenti autonomi artificiali si candida a scardinare e riconfigurare antichi modi di produzione e vecchie divisioni del lavoro.
In tutti i settori e le industry. Dunque, sarebbe in arrivo un’armata di agenti computazionali che immagina di (ri)organizzare in modo automatizzato il lavoro necessario a completare compiti assegnati molteplici e articolati (non solo, quindi, a produrre una singola immagine o uno specifico testo come accade con le forme attuali dell’AI generativa). Potremmo sintetizzare, allora, il passaggio come un nuovo orientamento della generative AI dalla medialità alla produttività.
I nomi di questi nuovi agenti cominciano a circolare: AutoGPT, BabyAGI, Microsoft’s Jarvis, CAMEL, HyperWrite, AgentGPT, Copilot. La lista è destinata ad allungarsi velocemente. A diverso titolo, si possono etichettare come ‘autonomous agents’ (AGE) o anche, con una mia proposta alternativa, autonomous generative entities. Nell’era della ‘transazione infinita’ come l’ho definita, l’arrivo degli agenti autonomi consente di avviare la sperimentazione di una artificial economics in forme nuove reimmaginando ecosistemi di cocreazione di valore e architetture di business in una logica di servizio AI agent-based. Ma cos’è, anzitutto, un agente artificiale autonomo?
L’era emergente degli agenti autonomi
In una definizione di mercato data di recente: “autonomous agents are programs, powered by AI, that when given an objective are able to create tasks for themselves, complete tasks, create new tasks, reprioritize their task list, complete the new top task, and loop until their objective is reached” (Schlicht, 2023). Schematizzando e in astratto: dato un determinato obiettivo, un agente autonomo definisce i compiti iniziali attingendo anche alla sua memoria (corta e lunga) e creando sottotask/goal, li mette in esecuzione evocando strumenti e risorse necessari e ne raccoglie i primi feedback, sulla scorta di questi genera nuovi compiti mettendoli in scala di priorità selettivamente per poi continuare a iterare il processo, per cicli migliorativi, fino al conseguimento finale dell’obiettivo. Questo fatto singolarmente (autonomous agents intesi sovente come copiloti), ma anche in modalità collettiva (nella forma computazionale di multi-agents systems).
In un esperimento di Park e colleghi (2023), sono state immaginate ad es. aggregazioni di agenti con coordinamento autonomo emergente. Una ventina di agenti artificiali (con l’input di organizzare un party per San Valentino) hanno iniziato a simulare, in autonomia, varie attività connesse all’evento. Questi agenti autonomi sono: “computational software agents that simulate believable human behavior. Generative agents wake up, cook breakfast, and head to work; artists paint, while authors write, they form opinions, notice each other, and initiate conversations; they remember and reflect on days past as they plan the next day“. Questa capacità di pianificazione è un tratto caratteristico dell’essere un agente autonomo.
Non solo linguaggio, ma pianificazione?
Dopo il successo nell’individuazione della sequenza di parole (modelli linguistici su larga scala) siamo passati ora all’individuazione della sequenza delle azioni (agenti pianificanti step-by-step).
Per acquisire questa capacità di pianificazione passo dopo passo, sono state chiave tre dimensioni: a) una qualche capacità di “ragionamento” realizzata in modalità ‘catena di pensieri’ (chain of thought) che indirizza il modello linguistico verso la soluzione cercata; b) una qualche capacità di individuare/eseguire le azioni/sottotask da intraprendere e reiterare in autonomia fino ad arrivare a risolvere il compito assegnato quando le informazioni prodotte dal primo prompt non siano sufficienti e siano necessarie ulteriori azioni e osservazioni; c) una qualche capacità di mettere in priorità e dare un ordinamento sequenziale progressivo (incluse dipendenze e concatenamenti relativi tra i vari task) orientato verso il completamento del compito.
Dunque, reasoning e acting al modo della macchina sono al centro di questa nuova intelligenza generativa agente. Questo è un cambio significativo nella storia della programmazione: “The real unlock that makes agents an entirely new software paradigm lies in the modern LLM’s ability to take in a goal, along with a set of facts and constraints, and then create a step-by-step plan for achieving that goal. Before LLMs, the programmer had to make the plan – a computer program is really just a step-by-step set of actions the machine will need to take to accomplish a goal. But in the LLM era, machines’ newly acquired ability to make their own plans has everyone in a frenzy of either fear or greed” (Stokes, 2023).
Dissezionando l’anatomia di un copilota
Ma cosa significa “ragionamento” e “pianificazione” nel caso degli agenti autonomi? Anche qui, per evitare facili e fuorvianti antropomorfismi e sociomorfismi è bene entrare un po’ nella loro meccanologia.
In primo luogo, quello che chiamiamo agent è, in realtà, un assemblaggio distribuito, stratificato e coordinato di funzioni/agente molteplici (ad es. execution agent, task creation agent, context agent, prioritization agent), ciascuna incaricata di effettuare specifiche operazioni e di attivarsi e dialogare iterativamente e ricorsivamente con le altre tra strumenti, risorse, memorie, istruzioni (Wang, 2023).
In secondo luogo, la dimensione del reasoning nei LLM è considerata una proprietà emergente della ‘catena di pensiero’ (chain-of-thought o COT), il meccanismo metacognitivo con cui l’utente umano conduce l’agente artificiale a discutere sempre linguisticamente intorno all’input iniziale, ma per intermedi piccoli passi (let’s think step by step).
In terzo luogo, la dimensione dell’acting dell’agente è nella sua capacità di auto-espandere e auto-riproporsi il prompt d’inizio con integrate osservazioni, spiegazioni, suggerimenti. Così facendo, l’agente autonomo ricorsivamente affina l’input/prompt muovendosi linguisticamente nella direzione cercata (Wang, 2023; Stokes, 2023). È bene avere chiare queste tecnicalità per evitare hype, delusioni o fraintendimenti.
Quello che è importante qui filosoficamente rilevare, come ha ben scritto Yuk Hui nel suo saggio Recursivity and Contingency, è che: “Contrary to automation considered as a form of repetition, recursion is an automation that is considered to be a genesis of the algorithm’s capacity for self-positing and self-realization”. Richiamando Bateson, ci ricorda anche che la nozione di ricorsività è centrale nella definizione di “autonomia” di un sistema.
Tra code economy e artificial economy
L’avvio di questa fase nuova dell’AI generativa agente impatterà su modi di produzione e dinamiche di organizzazione. Il senso e la forma dell’esperienza d’impresa vivono, lo sappiamo, una morfosi profonda. Tra dati, algoritmi e protocolli, le trasformazioni organizzative innescate dall’irrompere della code economy che apre ed evolverà in artificial economy (Mercado, 2021) si sono di fatto appena avviate. Ridisegneranno imprese e mercati, strategie e leadership, competenze e comportamenti.
Nell’era imminente degli ecosistemi di servizi, dei marketplace a piattaforma, dei business multilaterali, dei criptosistemi su reti decentralizzate, la cocreazione di valore si configurerà sempre più come un infinito processo catallattico (di scambio automatizzato anche via agenti di servizi-per-servizi), simpoietico (di coevoluzione con integrazione di risorse operanti e operande nell’assemblaggio utente-agente) e prolettico (di predizione e anticipazione a feedforward di bisogni, necessità, volontà di beneficiari umani e non umani).
In questo nuovo orizzonte (Accoto 2021), l’arrivo degli agenti autonomi ridefinisce e rilancia, in forme sorprendenti, la storia più lunga dell’economia artificiale. “What is an artificial economy? It is a computational representation of an economic system, which allows us to simulate the interaction of artificial agents. Artificial agents are the basic units that make up an artificial economy. These agents are computational objects containing information and rules for processing it. They can deploy very simple and silly behavior, or display sophisticated forms of artificial intelligence” (Mercado, 2021).
Neoautomazione: mani, menti, mercati
Dal simulare virtualmente un comportamento economico con vite artificiali all’attivare generativamente un’economia artificiale con agenti computazionali, la cosiddetta machine economy sta così proseguendo il suo percorso dentro le civiltà umane. Tra robot che producono, agenti che pianificano, dati che quantificano, sensori che controllano, protocolli che disintermediano, la neoautomazione si conferma forza dirompente di trasformazione planetaria.
Come ha scritto il filosofo Benjamin Bratton (2021): “we define automation not just as the synthetic transference of natural human agency into external technical systems, but as the condition by which action and abstraction are codified into complex adaptive relays through living bodies and non-living media. It is both a direct physical ripple and an association of semiotic signaling with its reception; it includes language as well as mechanical information storage and communication. This more ecological conception of automation is one of the conditions revealed by the contemporary intensification of artificial algorithmic intelligence today. It speaks to the already entangled condition of our species, agency, industry, and cultural dramas more than it does to the contemporary concern of proper humans being improperly replaced by machines”.
Così, l’automazione presente e prossima si dispiega oggi all’incrocio di tre stratificazioni ingegneristiche: è meccanica, è algoritmica, è protocologica. Ho connotato questa come l’automazione delle 3M ovvero: mani, menti, mercati. Un’automazione che si avvia a creare, conservare e circolare valore digitale in modalità neo-automatizzate e neo-aumentate sorprendenti quanto arrischiate.
Una nuova (sexy/risky) uncanny valley
Certamente, a leggere strategicamente il presente, i limiti ad oggi di un’automazione generativa agente sono ancora significativi. Ancora in buona misura basati sul processamento macchinico del linguaggio umano (solo formale, non funzionale), gli agenti risentono di questa simulazione del linguaggio e di non comprensione del mondo. Anche con le loro “allucinazioni” (per evitare antropomorfismi, ho proposto di rinominarle come “catastrofi crossentropiche”). Limiti che si ripercuotono su ragionamento e pianificazione ovviamente. Di fatto, non sono macchine di reasoning e acting native, ma linguistiche di base, integrate variamente. A questo si aggiungano, i limiti degli strumenti, delle risorse, dei processi a cui devono attingere per poter completare i diversi compiti a cui vengono chiamate oltre a quelli delle vulnerabilità dei rispettivi modelli linguistici fondativi (dalle memorie computazionali alle fonti informative e così via).
Nonostante ciò, sono in diversi oggi a ritenere l’orizzonte degli agenti autonomi tanto probabile quanto promettente. Non c’è dubbio: stiamo entrando nell’era dell’hyperautomation e dei digital worker, umani e non (Wilson, 2023). Con l’arrivo di questo ‘lavoro sintetico’ (dopo parola sintetica e immagine sintetica), si aprirà dunque una nuova uncanny (sexy/risky) valley tutta ancora da esplorare nelle sue potenzialità e vulnerabilità. Dovremmo oramai saperlo bene.
La tecnica (che non è mai solo ingegneria macchinica, ma sempre anche economia politica) vive -e non sfugge a- una paradossale esistenza “farmacologica”. È veleno e antidoto come dicono i filosofi. O, per risalire al mito greco di Prometeo, è insieme donazione e punizione della divinità, dono e danno. È al contempo, come scriveva Machiavelli a proposito della politica, “ruina” e “remedio”. Allertati dalla sapienza degli antichi (timeo Danaos et dona ferentes), a noi spetta oggi nuovamente il compito di coltivare con speranza, in maniera solida e solidale, questo dono difettato.
Referenze per approfondire
Accoto, Imprese, piattaforme, ecosistemi e …quantum stack? In Besana, Future of Work (2021)
Accoto, Mani, Menti, Mercati. In Bordoni, Il primato delle tecnologie (2020)
Accoto, Il mondo ex machina (2019)
Bratton, The Terraforming, 2021
Hui, Recursivity and Contingency (2019)
Mercado, Artificial Economics. Methods, Models, and Interdisciplinary Links (2023)
Park et alii, Generative Agents: Interactive Simulacra of Human Behavior (2023)
Schlicht, The Complete Beginners Guide to Autonomous Agents (2023)
Stokes, AI Agent Basics: Let’s Think Step by Step (2023)
Yao et alii, React: Synergizing Reasoning and Acting in Language Models (2023)
Wang, The Anatomy of Autonomy (2023)
Wilson, Age of Invisible Machines (2023)
Beer, The Tensions of Algorithmic Thinking (2022)
Tella, The New Automation Mindset (2023)