Le frontiere dell'intelligenza artificiale

Le mille potenzialità di ChatGPT e come rivoluzionerà le nostre vite

Non mancano però i rischi. Per quanto apparentemente perfetti, precisi e autorevoli, questi sistemi ancora non sanno cosa stanno facendo

Le mille potenzialità di ChatGPT e come rivoluzionerà le nostre vite
gettyimages
chat gpt

Stiamo vivendo un periodo sensazionale, in cui potenti algoritmi di intelligenza artificiale, basati su meccanismi neurali ispirati al cervello umano, sono in grado non solo di suggerire la prossima parola in un messaggio, ma anche di scrivere poesie e canzoni, cambiandone lo stile a nostro (e loro) piacimento.

Questi algoritmi, spesso chiamati modelli linguistici (o language models), ingeriscono enormi quantità di testi, e imparano la distribuzione delle parole, divenendo così in grado di emulare attività linguistiche "intelligenti".

I modelli linguistici, come GPT3 o ChatGPT, sono ormai credibili nello svolgimento sia di mansioni tradizionali (come, ad esempio, la categorizzazione di documenti, la valutazione del sentimento, l’estrazione di informazioni) che di compiti più complessi, quali i riassunti, la risposta a domande elaborate, il dialogo, e persino la generazione di testi a partire da delle istruzioni.

Fino a qualche anno fa, sviluppatori di IA come me potevano solo immaginare questi esiti. Oggi, invece, l’intelligenza artificiale è regolarmente utilizzata per generare contenuti per siti web, scrivere e-mail, elaborare notizie, redarre referti medici o articoli scientifici, e persino sviluppare codice. Di recente, GitHub e OpenAI hanno rilasciato Copilot, un modello linguistico in grado di programmare intere funzioni, e di documentare il codice in istanti.

Il significativo aumento di produttività che deriva dall’utilizzo di queste piattaforme (OpenAI sta costruendo API che permettono l’utilizzo di questi modelli nei più disparati contesti), insieme alla possibilità di impiegare gli esseri umani solo nella revisione o in compiti particolarmente complessi, sta rendendo questi sistemi molto attraenti per l’industria. Dalla medicina all’edilizia, dal marketing al settore manifatturiero, non è difficile immaginare che essi saranno alla base di moltissimi mestieri nel brevissimo futuro. Per non parlare delle applicazioni più avveniristiche, come il loro utilizzo nei chip sviluppati da Neuralink (anch’essa fondata da Elon Musk, come OpenAI) per creare un'interfaccia pensiero-macchina e aumentare le capacità cognitive, motorie, e linguistiche degli esseri umani. Gli investimenti stanno crescendo e, secondo recenti studi di PwC, l'intelligenza artificiale potrebbe aggiungere 15.7 trilioni di dollari all’economia globale entro il 2030.

Non mancano però i rischi. Per quanto apparentemente perfetti, precisi, e autorevoli, questi sistemi ancora non sanno cosa stanno facendo. E tantomeno lo sappiano noi. I modelli linguistici, infatti, non hanno nozioni di logica, matematica, fisica, etica, chimica, legge, e nemmeno sono in grado di distinguere un fatto realmente accaduto da uno linguisticamente plausibile. Per imbrogliarli è sufficiente fare qualche gioco di parole. E se a questo si aggiunge poi la malizia, diventa evidente il rischio che ne consegue.

Questi modelli possono essere particolarmente dannosi se usati, in maniera più o meno volontaria, per la creazione di rumore (ovvero contenuti spazzatura) o disinformazione. Stack Overflow, un forum per sviluppatori di software, ha recentemente bannato le risposte di ChatGPT, in quanto frequentemente incorrette. Negli ultimi giorni gira su LinkedIn il video virale di un medico che - genuinamente entusiasta - suggerisce l’uso di ChatGPT per la scrittura di referti medici utili alle assicurazioni. Ne mostra uno apparentemente perfetto, se non fosse che tutti gli articoli citati non esistono.

C’è chi, come OpenAI, crede che la scalabilità, ovvero l'aumento della quantità di dati (GPT3 è stato addestrato su mezzo triliardo di parole) e della dimensione dei modelli (GPT3 ha 175 miliardi di parametri) sia sufficiente a risolvere questi problemi. E in effetti negli ultimi anni si è notata una mitigazione dei problemi citati. Tuttavia la comunità scientifica concorda sul fatto che la scalabilità non sia sufficiente, e che vi sia dell’altro, come ad esempio l’embodiment (ovvero l’incarnazione, che permette di percepire attraverso più sensi).

Nel lungo periodo, la scalabilità non è nemmeno sostenibile in termini ambientali ed economici. Infatti, i modelli linguistici richiedono di essere addestrati su enormi quantità di testi, e su computer molto costosi (l’addestramento di GPT3 è costato circa 4,6 milioni di dollari). Si stima che le emissioni per sviluppare GPT-3 ammontino a 500 tonnellate di CO2.

Sebbene assisteremo ad ulteriori miglioramenti, ci vorrà ancora molto tempo prima che questi algoritmi raggiungano un livello sufficiente di affidabilità, prendendo coscienza di cosa sia giusto o sbagliato, corretto o ingannevole.

In questo contesto, è fondamentale prendere consapevolezza che macchina e uomo dovranno collaborare, sfruttando ognuno le proprie forze e colmando le limitazioni dell’altro. Da una parte velocità e scalabilità, dall’altra creatività, adattamento e intelligenza reale. Diventerà pertanto cruciale l’educazione delle nuove generazioni, che si dovranno confrontare con questi algoritmi quotidianamente. E con loro devono essere educati i corpi regolamentatori, i quali dovranno anticipare i potenziali rischi che questa tecnologia può portare a privacy, sicurezza, pari opportunità, etc., ma senza ingessarne lo sviluppo. Serviranno poi figure in grado di monitorare la performance dei modelli, insegnando loro dove stanno sbagliando e correggendone la rotta, cosicché questi algoritmi diventino un vero asset per le nostre società.