Due problemi (insormontabili?) dell’IA generativa

0

di Leopoldo Papi

ROMA (Public Policy) – A distanza di due anni dalla presentazione al pubblico di Chat GPT da parte di OpenAI (novembre 2022) e di altri servizi di intelligenza artificiale generativa basata su reti neurali artificiali LLM (Large Language Model) la bolla di euforia sta lasciando il posto a valutazioni più sobrie e realistiche sulle sue effettive prospettive di applicazione. Durante l’estate appena trascorsa vi è stata la prima esplicita ondata di scetticismo nelle propensioni di investimento su queste tecnologie, alimentata dai dubbi sulla loro capacità di tradursi effettivamente in nuovi prodotti e servizi, capaci di remunerare gli enormi capitali già investiti o quelli considerati necessari per il loro sviluppo. Tra i vari motivi di perplessità – oltre a quelli relativi agli enormi costi operativi, infrastrutturali ed energetici, che queste tecnologie implicano – almeno due aspetti sembrano emergere come particolarmente problematici, perché potrebbero in sostanza rivelarsi limiti intrinseci insormontabili: la disponibilità di dati validi e aggiornati e su cui addestrare i modelli, e l’affidabilità e validità dei contenuti generati.

Per quanto riguarda il primo, se negli scorsi anni le aziende di sviluppo IA potevano utilizzare enormi quantità di dati e informazioni liberamente accessibili su internet per addestrare i loro modelli, oggi lo scenario sta rapidamente cambiando, per una semplice ragione: i proprietari dei dati sono contrari al loro libero – e gratuito – utilizzo per tale finalità. Uno studio di recente pubblicazione della Data Provenance Initiative, un gruppo di ricerca guidato dal MIT, ha evidenziato una crescente “crisi di consenso” a rendere disponibili all’IA i propri dati da parte di molte piattaforme e domini web. Dalla ricerca, condotta su 14.000 siti parte di tre database tra i più comunemente utilizzati per addestrare l’IA – chiamati C4, RefinedWeb e Dolma – è emerso che il 5% di tutti dati, e il 25% dei dati di più elevata qualità, è stato sottoposto di recente a restrizioni REP (Robot Exclusion Protocol) per impedire l’accesso ai “crawlers”, bot automatici utilizzati per raccogliere informazioni sul web. Almeno nel caso di un dataset – C4 – le limitazioni hanno riguardato il 45% dei dati. “Dalla metà del 2023 c’è stata un’impennata delle restrizioni di accesso a programmi di “crawling” da parte di migliaia di siti web” ha detto Shayne Longpre, il primo autore dello studio. Un effetto negativo di tali restrizioni, ha osservato, è che se da un lato limitano l’accesso alle AI, ciò vale anche per altri usi tradizionali e non commerciali, come la ricerca accademica.

La rete si sta dunque spontaneamente adattando per difendersi dalla “fame” di dati dell’intelligenza artificiale generativa, rendendo sempre più difficile l’approvvigionamento di materiali per lo sviluppo e l’aggiornamento di servizi LLM. Ma senza informazioni valide aggiornate sulla realtà, qualsiasi chatbot rischia di avere la stessa utilità per gli utenti di un vecchio giornale: scarsa o nulla. Ed è non a caso anche sul copyright dei contenuti giornalistici che si è aperto, negli scorsi mesi, uno dei fronti più caldi relativi all’applicazione dell’IA generativa, relativo al rapporto tra editori e aziende del settore. Le piattaforme giornalistiche sono infatti “generatori” di informazioni sull’attualità, in continuo aggiornamento e sottoposte a una responsabilità editoriale ufficiale. Ciò ne rende i contenuti,  diversamente da altri materiali non ufficiali diffusi in rete, valide fonti certificate per addestrare e aggiornare l’IA. Ma un tale utilizzo se privo di autorizzazione rappresenterebbe una violazione del copyright, ed in ogni caso, comporterebbe per gli editori il rischio di alimentare con i propri contenuti servizi che, nei fatti, sono alternativi e concorrenti. Per far fronte a questo problema, l’industria editoriale ha adottato strategie contrapposte: intentare costosissime cause legali – come l’azione avviata dal New York Times contro OpenAI – o stipulare accordi sull’uso dei contenuti, come nel caso dell’accordo da 250 milioni di dollari tra il Wall Street Journal e OpenAI, di un accordo con Associated Press, o della tedesca Axel Springer. Rimane da capire l’effettivo mutuo vantaggio per i contraenti derivante da queste operazioni.

L’accesso a dati sempre aggiornati e affidabili è condizione necessaria ma non sufficiente  per lo sviluppo di applicazioni significative delle tecnologie LLM. Come scritto dal giornalista esperto di tecnologia Chris Taylor, al momento le migliori (o uniche?) applicazioni concrete dell’IA generativa hanno riguardato l’assistenza in piccole attività, come la stesura o la sintesi di documenti, la scrittura di email, o l’aiuto nella scrittura di codice informatico. Il discorso cambia radicalmente rispetto a contesti ed esigenze in cui è necessario garantire l’autenticità e veridicità delle informazioni e la cogenza dei ragionamenti e delle inferenze, al fine di valutare correttamente rischi e opportunità di scelta, nelle situazioni reali. L’IA può o potrà mai essere un “consulente” affidabile ad esempio in ambito giuridico, per imbastire un’azione legale o interpretare una progetto di legge, o nel fornire informazioni o stime corrette sulle quali basare decisioni strategiche aziendali, o di politica pubblica? Allo stato dell’arte della tecnologia, la risposta sembra negativa, a causa delle cosiddette “allucinazioni”, termine che nel gergo tecnico informatico indica la generazione di risposte inventate e talvolta assurde, anche se all’apparenza plausibili da parte dei chatbot LLM.

Al di là di casi eclatanti di cronaca – come quello dell’avvocato di New York sanzionato per aver utilizzato delle false citazioni legali frutto di “allucinazioni” di ChatGPT – si tratta di un problema aperto e cruciale per il futuro di questa tecnologia, e per la redditività dei miliardi di dollari di investimenti che ha attivato. Molti dei presunti utilizzi dell’IA “non saranno mai efficienti dal punto di vista dei costi, non funzioneranno mai correttamente, occuperanno troppa energia o si riveleranno inaffidabili”, viene affermato in una lettera del Fondo Elliott ai propri clienti di inizio agosto, in cui si definisce “bolla” la straordinaria crescita di Nvidia, il gigante tecnologico produttore dei chip usati nei datacenter su cui girano le reti LLM. Investitori, operatori economici e pubblico generalista si interrogano con crescente urgenza sul fatto se l’AI possa essere di reale supporto nelle decisioni. PWC ha pubblicato lo scorso giugno un “vademecum” con accorgimenti per mitigare i rischi delle allucinazioni dei chatbot nell’uso professionale. D’altronde il problema degli errori e delle allucinazioni è riconosciuto dagli stessi leader del settore, come un elemento strutturale di questa tecnologia, che si può forse ridurre, ma non eliminare del tutto. “Le allucinazioni sono un problema ancora irrisolto. Per certi versi, sono una caratteristica intrinseca. È ciò che rende questi modelli molto creativi. È il motivo per cui può scrivere immediatamente una poesia su Thomas Jefferson nello stile di Nilay. Può farlo. È incredibilmente creativo. Ma i LLM non sono necessariamente l’approccio migliore per arrivare sempre alla fattualità” ha dichiarato lo scorso maggio il Ceo di Google Sundar Pichai intervistato da The Verge. Con un’argomentazione simile, il Ceo di OpenAi Sam Altman alla conferenza Dreamforce 2023, pur sottolineando gli sforzi dell’azienda per contenere il problema delle allucinazioni, si è spinto a ribaltare la prospettiva dandone una connotazione positiva. “Una delle cose non ovvie è che molto valore di questi sistemi è strettamente correlato al fatto che hanno allucinazioni”, ha dichiarato. “Molto del loro potere sta nel fatto che possono produrre nuove idee ed essere creative. A volte le vogliamo creative, a volte fattuali, ed è ciò su cui stiamo lavorando”.

Simili considerazioni, riflettono forse, per le aziende IA, il tentativo di applicare la strategia per cui in certe circostanze la miglior difesa è l’attacco. La posta in gioco è d’altronde altissima, e se dopo enormi investimenti un problema tecnico risulta strutturale e insormontabile, può essere utile provare a presentarlo come un valore e un’opportunità. Tuttavia queste descrizioni sono state e sono continuamente sottoposte a critiche serrate, da parte di molti operatori ed esperti del mondo scientifico e tecnologico. Uno degli aspetti al centro della critica – avanzato tra gli altri da Gary Marcus della New York University – uno dei più noti studiosi “scettici” dell’IA – riguarda lo stesso funzionamento dei LLM e la loro natura di meri predittori probabilistici del linguaggio, del tutto ciechi e indifferenti rispetto alla cogenza logica interna e al valore di verità o falsità delle proposizioni da loro generate. I LLM, scrive Marcus “sono semplicemente dei veri e propri predittori di parole successive (o, come ho detto una volta, “autocompletamento con gli steroidi”), senza alcun modo di verificare se le loro previsioni sono corrette”. E ancora: “le ‘allucinazioni’ dei LLM nascono, regolarmente, perché (a) non conoscono letteralmente la differenza tra verità e falsità, (b) non hanno processi di ragionamento affidabili che garantiscano la correttezza delle loro inferenze e (c) non sono in grado di verificare il proprio lavoro. Invece, tutto ciò che i LLM dicono – vero o falso – deriva dallo stesso processo di ricostruzione statistica di quali parole sono probabili in un certo contesto. Non controllano MAI quello che dicono. Alcune cose sono vere, altre false. Ma anche con dati perfetti, il processo di ricostruzione stocastica produrrebbe comunque alcuni errori. Lo stesso processo che i LLM usano per generalizzare crea anche allucinazioni”.

Poiché i testi e i contenuti elaborati dai LLM sono il prodotto di un generatore probabilistico di concatenazioni di parole e frase dotate di senso, ma cieco al loro significato e al loro valore di verità, anche definire gli errori ‘allucinazioni’, argomenta un articolo scientifico dell’Università di Glascow dal titolo provocatorio “ChatGPT is bullshit” (2024), è fuorviante:  “Chiamare i loro errori ‘allucinazioni’ – si afferma – non è innocuo: si presta alla confusione che le macchine stiano in qualche modo percependo male, ma stiano comunque cercando di trasmettere qualcosa che credono o hanno percepito. Questa, come abbiamo detto, è la metafora sbagliata. Le macchine non stanno cercando di comunicare qualcosa che credono o percepiscono. La loro imprecisione non è dovuta a una percezione errata o a un’allucinazione. Come abbiamo sottolineato, non stanno affatto cercando di trasmettere informazioni”.

Il progressivo esaurirsi delle fonti di dati sul web, e la “neutralità” dei LLM rispetto ai fatti e alle nozioni di verità e falsità, rappresentano sfide forse decisive per il settore. Qualora questi aspetti si rivelassero essere limiti intriseci insormontabili, si tratterebbe di una presa d’atto dell’inaffidabilità intrinseca degli attuali modelli di IA generativa, e quindi della una certificazione non solo della sua scarsa utilità, ma anche dei suoi rischi: una tecnologia che induce gli utilizzatori in errore, oltre ad essere inutile diventerebbe un effettivo pericolo, talvolta grave, in qualsiasi ambito di applicazione. Non è difficile immaginare le conseguenze economiche di una simile evenienza, in termini di clamorose svalutazioni di capitale nei settori tecnologici. Come ha scritto sempre Marcus: “Di certo, l’IA generativa non scomparirà di per sé. Ma gli investitori potrebbero smettere di sborsare denaro ai ritmi attuali, l’entusiasmo potrebbe diminuire e molte persone potrebbero perdere la camicia. Le aziende che attualmente sono valutate miliardi di dollari potrebbero chiudere i battenti o essere smantellate”. (Public Policy)

@leopoldopapi