Salta al contenuto principale

Potranno verificarsi pesanti disturbi mentali, crolli in Borsa, pesanti ricadute sulle aziende e sulle Università. Workshop internazionale nel nostro ateneo.


di Luca Gammaitoni

 

Mia figlia è sollevata: il piccolo intorpidimento che provava non è il sintomo di una patologia mortale ma solo un fastidio passeggero dovuto ad una postura infelice. Gliel’ ha detto ChatGPT, a cui si è rivolta fiduciosa.

Quanti di noi con, frequenza crescente, si stanno rivolgendo ai chatbot per avere risposte circa le molte domande che incontriamo ogni giorno? Io temo che la risposta sia: un po’ troppi. Lo deduco non solo dalla crescita esponenziale della popolarità di questi prodotti e nemmeno dal boom dei relativi titoli azionari in borsa. Gli indicatori che mi sembrano più preoccupanti sono l’indice di diffusione dell’utilizzo e l’atteggiamento degli utenti. Lo scorso Giugno, una ricerca del Pew Research Center, un centro di indagine statistica americano, mostrava come in poco meno di due anni, dall’estate 2023, la percentuale di adulti americani che avevano utilizzato almeno una volta un chatbot era arrivata al 34%.

Numeri non dissimili da quelli presenti in Europa, con una stima di circa 1.3 miliardi di utenti complessivamente nel mondo. La stessa Pew, in uno studio presentato in Ottobre sull’atteggiamento degli utenti, mostrava come circa il 50% degli intervistati, tanto negli USA che in Italia, aveva un atteggiamento mediamente più preoccupato che eccitato verso i chatbot mentre il restante 50% si divideva tra coloro che erano tanto eccitati quanto preoccupati (38% negli USA e 37% in Italia) e coloro che era decisamente più eccitati che preoccupati (10% USA e 12% Italia).

Il successo dei chatbot è dovuto allo sviluppo impressionante delle tecnologie di Intelligenza Artificiale associate ai cosiddetti Large Language Models (LLM). Grazie a queste tecnologie è oggi possibile condurre una conversazione online con una macchina, capace di far impallidire il celebre test di Turing. A seguito dei successi ottenuti negli ultimi anni, è anche cresciuto enormemente il campo di applicazioni di queste tecnologie e con esso il numero di aziende che sviluppano servizi per l’utenza professionale e non. L’impatto dell’uso dei LLM nella generazione di testi è tale da costringere scuole ed università a ripensare il modo in cui vengono assegnati compiti e svolti esami. Già un anno fa, il 27 Gennaio del 2025, l’Università di Ferrara ha annullato il compito scritto di ben 362 studenti universitari del corso di laurea in Scienze Motorie, perchè sospetto di essere stato condotto con l’ausilio di ChatGPT.

Molto significativo anche l’impatto che questi servizi stanno avendo nel mondo delle attività aziendali, dalla generazione di testi e contenuti audiovideo per scopi di marketing, alla gestione dei rapporti con la clientela, all’analisi dei documenti, delle leggi e delle procedure. La rapida diffusione di servizi a pagamento ha contribuito a far crescere in modo significativo la quotazione in borsa di numerose aziende che operano nel settore dell’Intelligenza Artificiale, tanto da far temere l’approssimarsi di una nuova bolla speculativa, del tipo di quella avvenuta negli anni 2000 con le dotcom. La principale preoccupazione, in questo caso, sembra riguardare l’impatto del costo delle infrastrutture informatiche, con particolare riferimento ai data center, e la carenza di una adeguata rete di distribuzione energetica. Fattori questi che potrebbero mettere in crisi ulteriori sviluppi e quindi deludere le aspettative del mercato.

Tuttavia, è interessante notare che le motivazioni che potrebbero portare ad una dissoluzione della bolla speculativa, potrebbero risiedere in ragioni non così immediatamente legate alle infrastrutture e ai costi ma ad aspetti più fondamentali. Pochi giorni fa Demis Hassabis, l’amministratore delegato di Google DeepMind, in un podcast della CNBC ha apertamente ammesso i limiti nei progressi dei servizi LLM che, a suo avviso, si stanno rapidamente avvicinando ad un muro che ne impedirà l’ulteriore miglioramento. La causa, secondo Hassabis starebbe nella loro incapacità intrinseca di migliorare le attuali prestazioni e quindi di arrivare a mostrare vere capacità di ragionamento. Un punto di vista questo, decisamente opposto a quello di Sam Altmann, il capo di OpenAI, che predica la “scaling strategy”, ovvero “più grande è, più intelligente sarà”.

Su questa scia sembra ragionevole ipotizzare che, se ci sarà, un crollo di borsa potrebbe nascere da un crollo della fiducia degli utenti nei servizi forniti dalle aziende di Intelligenza Artificiale. Una delusione, questo è importante sottolinearlo, non dovuta ad un cattivo funzionamento della tecnologia che ha mostrato performance davvero notevoli, quanto piuttosto alla cattiva comprensione di cosa effettivamente sia oggi l’Intelligenza Artificiale e di come possa essere correttamente utilizzata.

A ben vedere, si intravedono già i primi segnali della delusione in agguato. Il New York Times dello scorso 26 Gennaio presenta un’indagine condotta da due reporter (Jennifer Valentino-DeVries e Kashmir Hill) che hanno intervistato dozzine di medici terapisti che lamentano l’osservazione di crescenti segni di psicosi, isolamento e cattive pratiche indotte dall’uso frequente di chatbot. I pazienti in questione avrebbero sviluppato questi sintomi preoccupanti, a seguito della frequente conduzione di colloqui con chatbot per avere delle indicazioni su come affrontare aspetti della vita quotidiana.

Ad esempio, un caso riguarda una donna senza precedenti di malattie mentali, che usava ChatGPT per avere consigli su di un possibile acquisto importante che la preoccupava particolarmente. Dopo giorni di colloqui con ChatGPT, la donna ha sviluppato una psicosi circa un fantomatico complotto ordito dal governo ai suoi danni. Un altro paziente, consigliandosi con il chatbot, avrebbe maturato la convinzione che una persona di cui si era segretamente innamorato, gli stava inviando messaggi spirituali. Ad oggi, a detta del New York Times, l’azienda OpenAI avrebbe in corso almeno undici cause per danni da parte di utenti che lamentano disturbi psicologici conseguenti all’uso di ChatGPT.

Il rischio della delusione non si limita ai soli casi di utilizzo personale. In un rapporto elaborato lo scorso settembre da SAS, azienda leader nell’analisi dei dati economici e tecnologici,  intitolato “Data and AI Impact Report: The Trust Imperative”, viene posto l’accento proprio sul tema dell’affidabilità dei servizi di Intelligenza Artificiale e della fiducia che le aziende posso riporre in essi. Quanto ci possiamo fidare di un’analisi elaborata dai sistemi LLM?  Sebbene le aziende fornitrici stanno lavorando per migliorare le prestazioni, la risposta fornita dalla comunità accademica internazionale continua ad essere molto prudente: le risposte fornite dai sistemi LLM non sono da considerare completamente affidabili.

Il motivo risiede nel principio stesso di funzionamento dei LLM. Come spiegato bene dal collega Walter Quattrociocchi dell’Università La Sapienza di Roma, “Un LLM può generare risposte plausibili. Può anche produrre risposte corrette. Ma non sa quando fermarsi. Non sa quando un’operazione è conclusa. Non distingue tra il completamento di un compito e la prosecuzione indefinita di una sequenza linguistica ben formata. Questo non è un difetto marginale. È un limite strutturale.” Detto in altri termini, a motivo del suo principio di funzionamento, basato sulla probabilità di una sequenza di parole, un modello LLM fornisce risposte che sono verosimili ma non necessariamente vere.

In questa incapacità di comprendere la veridicità di una risposta si annida il vero insuperabile limite di questa Intelligenza Artificiale. Mano a mano che questa constatazione diventerà patrimonio comune, c’è il rischio che l’entusiamo iniziale si trasformi in delusione con la conseguente sfiducia ed il suo bagaglio di potenziale disastro. Se questo accadrà, potremo dirci che è stata anche nostra la responsabilità per aver attribuito ad un sistema capace di fornire risposte ben formulate, un potere che non gli sarebbe dovuto appartenere. Chiunque fa della ricerca scientifica il proprio mestiere, capisce prima o poi che la vera scoperta non nasce dalla capacità di trovare le risposte, ma nella ben più difficile arte di formulare le domande giuste a cui poi occorrerà trovare le risposte. Qui si annida la chiave dell’Intelligenza Naturale. Questa capacità, al momento (e prevedibilmente ancora per molto altro tempo) l’Intelligenza Artificiale attuale non la possiede ed è bene ricordarlo.

Cosa ci prospetta il futuro? Sono in molti a considerare l’attuale Intelligenza Artificiale solo una tappa di un percorso ancora lungo. Le tappe successive non sono ancora delineate ma ci stanno lavorando in molti. Anche all’Università di Perugia si riflette sul tema. Per la prima settimana di Settembre, il laboratorio NiPS organizza un workshop internazionale dal titolo Unconventional Pathways Toward Strong Artificial Intelligence (Percorsi non convenzionali verso l’ Intelligenza Artificiale Forte). E’ il tentativo di mettere assieme un gruppo di ricercatori provenienti da tutto il mondo, per raccogliere idee nuove verso il futuro della ricerca in questo settore. Ne parleremo ancora.