Il rilascio di ChatGPT alla fine del 2022 ha creato un’ondata di interesse per l’intelligenza artificiale (AI) generativa, ha già generato molti casi di applicazione e chiama in causa tutti coloro che lavorano in azienda, a partire dai CEO che dovranno prendere importanti decisioni al riguardo. Partendo dai cosiddetti “dati di addestramento”, combinati con gli algoritmi, è capace di generare contenuti apparentemente nuovi e realistici, come testi, immagini e audio. Grazie alle sue pressoché illimitate possibilità di applicazione, oggi chiunque può generare siti web, campagne pubblicitarie o video. Questo perché una delle caratteristiche principali dell’AI generativa è quella di essere low-code no-code, ossia non richiede particolari competenze o codici di creazione. Possiede inoltre una memoria apparentemente “infinita” perché usa una mole straordinaria di dati.
Che cos’è ChatGPT, la chat innovativa che ha conquistato il mondo
ChatGPT, il più noto tra i “generatori di conversazione” con utenti umani, è un modello di chatbot sviluppato dalla no profit statunitense OpenAI e si basa su intelligenza artificiale e apprendimento automatico. Non appena l’utente fornisce un input al chatbot, il modello di rete neurale chiamato “trasformatore” analizza rapidamente i dati e genera in automatico un testo comprensibile agli esseri umani. Per riuscire in questa impresa, dal 2018 è stato addestrato con informazioni pubblicamente disponibili su Internet. Per capire la portata della sua incredibile memoria, si è stimato che solo in quell’anno siano stati prodotti circa 2,5 quintilioni di byte di nuovi dati al giorno. Il chatbot di OpenAI è quindi in grado di creare diverse tipologie di testo tra cui descrizioni di prodotti, articoli, risposte brevi in supporto ai clienti.
L’AI generativa, uno strumento prezioso al servizio delle aziende
L’AI generativa, se usata correttamente, ha quindi il potenziale per portare grandi vantaggi alle aziende: può ad esempio ridurre i tempi e i costi nella produzione di documenti, accelerare i processi di sviluppo di codici o contenuti di marketing. Ma come possono le aziende trarre benefici a lungo termine da questi strumenti e allo stesso tempo arginare eventuali pericoli? Secondo un report di Boston Consulting Group (BCG), società leader di consulenza strategica di alta direzione, le scelte dei CEO dovranno concentrarsi su tre principali campi di azione:
- la definizione degli uses cases ossia le funzionalità che il sistema deve implementare per soddisfare determinate esigenze;
- la formazione e la riorganizzazione delle risorse umane;
- l’istituzione di limiti etici e legali di operatività;
CEO e ChatGPT: 2 esempi di successo
L’AI ha il pregio e il difetto di essere altamente “democratica” il che significa che tutti, competitor inclusi, avranno accesso agli stessi strumenti. Molti di questi infatti si basano su applicazioni LLM (Large Language Model) esistenti.
Il primo step per un CEO per differenziarsi dai propri concorrenti consiste nell’identificare i giusti “uses cases” del sistema di IA, ossia quelli che apportano un vero vantaggio competitivo e creano maggiore impatto economico. Tali casi d’uso possono essere individuati in qualsiasi punto lungo la catena del valore, ad esempio nella riduzione del time-to maker, ossia il tempo di rilascio di un prodotto, oppure nel rapporto con i clienti. Ad esempio Intercom, azienda nel settore del servizio clienti, ha lanciato un nuovo bot chiamato Fin, basato su GPT-4 di OpenAI. Fin offre risposte accurate alle domande dei clienti, riducendo di fatto sia i tempi di risposta che il lavoro del team di supporto. Nel febbraio 2021, la società biotech di Hong Kong Insilico Medicine, ha annunciato la prima sperimentazione clinica di fase 1 per un farmaco antifrotico sviluppato interamente dall’intelligenza artificiale. La sperimentazione ha richiesto meno di 30 mesi ed è costata 2,6 milioni di dollari. Tempi e costi davvero irrisori rispetto a quelli richiesti da un farmaco tradizionale.
Differenziarsi attraverso gli LLM: due possibili strade per i CEO
Una volta individuati gli uses cases, i CEO dovranno decidere se utilizzare modelli di intelligenza artificiale già esistenti, come ChatGPT, oppure personalizzarli.
La strada più economica è sicuramente quella di mettere a punto modelli open source o a pagamento già esistenti. Snorkel AI, società di piattaforme AI incentrate sui dati, ha stimato che ottimizzare un modello LLM per la classificazione di documenti legali costa tra i 1915 e i 7418 dollari. La stessa operazione, svolta da un avvocato, può costare fino a 500 dollari l’ora. Ma questo approccio presenta anche delle limitazioni: le funzionalità dipendono infatti completamente dal modello principale sia per quantità di dati che per la dimensione del modello linguistico usato. Inoltre offrono opzioni limitate per la protezione dei dati proprietari.
L’addestramento di un LLM personalizzato offre invece una maggiore flessibilità, ma anche costi più elevati. AI21, società di Tel Aviv che sviluppa sistemi di intelligenza artificiale, ha stimato che addestrare un modello da 1,5 miliardi di parametri costa 1,6 milioni di dollari. Sempre AI21 Labs ha stimato che Google ha speso circa 10 milioni di dollari per la creazione del suo sistema di Machine Learning per l’elaborazione del linguaggio naturale noto come BERT, mentre OpenAI ha speso 12 milioni di dollari per una singola sessione di formazione di GPT-3.2 .
Si parla quindi di investimenti ingenti, anche in termini di infrastrutture richieste e risorse umane. Inoltre, se fino a poco tempo fa le ricerche sull’IA generativa erano pubbliche e open source, oggi gran parte della ricerca si sta svolgendo a porte chiuse e i modelli open source sono già molto indietro rispetto a soluzioni d’avanguardia. Se GPT-2 era open source, la versione più evoluta, GPT-3, è proprietario.
In futuro quindi, l’AI potrebbe diventare molto meno “democratica”, i progressi potrebbero essere appannaggio esclusivo delle grandi multinazionali, lasciando indietro piccole e medie imprese.
ChatGPT e CEO: come cambieranno ruoli, responsabilità e competenze
L’introduzione dell’intelligenza artificiale generativa nelle aziende porterà inevitabilmente dei cambiamenti anche nell’organizzazione delle risorse umane. Secondo BCG sarà necessario ridefinire ruoli, responsabilità e competenze. Ma soprattutto, adottare modelli aziendali cosiddetti “agili” o “bionici”, in cui è presente il giusto equilibrio tra tecnologia e capacità umane.
I miglioramenti dei processi produttivi sono spesso associati alla riduzione del personale. Se da un lato è vero che l’IA semplificherà molte attività, l’apporto umano rimarrà comunque necessario per garantire che essa operi in modo efficace e soprattutto etico. Si pensi ad esempio all’impiego dell’IA in un ufficio marketing: uno strumento come Jasper.ai può essere utilizzato per creare le prime bozze di un documento, consentendo ai dipendenti di concentrarsi sul perfezionamento dei contenuti. Stesso discorso per l’ufficio IT: Github Copilot può “confezionare” un codice su cui poi i programmatori lavoreranno per migliorarne la qualità e gli standard di sicurezza.
È invece probabile che l’introduzione di questa tecnologia favorisca la nascita di nuove figure professionali o l’introduzione di team di “data science” e “ingegneria di dati”, e appositi reparti di Ricerca e Sviluppo con il compito di creare o personalizzare gli LLM. O ancora, nuovi ruoli apicali come il “Chief AI officer”, che sovraintenda tutte le iniziative di IA.
ChatGPT e CEO: le policy aziendali per garantire qualità e sicurezza
L’AI generativa, compresa chatGPT, non è immune dai pericoli, e i CEO ne devono essere consapevoli: violazione del copyright e fughe dei dati proprietari sono i rischi più noti se non si usa correttamente questo strumento. Bisogna infatti partire dal presupposto che l’IA generativa “non sa” ancora quando le informazioni sono effettivamente errate. Questa caratteristica è nota come “allucinazione” e può provocare enormi danni se non controllata. Ecco perché deve essere prioritario per le aziende la formazione dei propri dipendenti sull’utilizzo dell’IA generativa. Le proprietà “low-code e no-code” dell’IA generativa possono portare i dipendenti a svolgere attività che travalicano le proprie competenze. Il personale di un ufficio marketing ad esempio, potrebbe aggirare le regole IT aziendali e scrivere un codice per creare un nuovo strumento di marketing. Secondo uno studio condotto dal Centro per la Cybersecurity dell’Università di New York, circa il 40% del codice generato dall’intelligenza artificiale non è sicuro.
Secondo BCG, all’introduzione dell’IA generativa deve corrispondere anche un insieme di norme e regolamenti che disciplinano la condotta dei dipendenti rispetto a questa specifica tematica. Le policy in questione dovrebbero:
- creare linee guida che aiutino i dipendenti ad usare questa tecnologia in modo corretto e istituire un comitato interno di revisione dei prodotti sviluppati tramite il supporto di IA;
- limitare l’uso improprio di software che utilizzano IA attraverso l’utilizzo di licenze come la Responsible AI License (RAIL);
- limitare la condivisione di dati sensibili con chatbot pubblici;
- spostare i modelli on-premise, cioè eseguire i modelli su server proprietari, in modo da non divulgare i dati proprietari ad altre aziende;
L’insieme di queste strategie dovranno essere adattate e aggiornate man mano che la tecnologia evolve. Solo in questo modo l’azienda potrà davvero rimanere competitiva sul mercato nel medio e lungo termine.