L'intelligenza artificiale di Google dotata di sensibilità emotiva, ma è davvero così?

Continua a far parlare di sé Blake Lemoine, l’ingegnere di Google messo in congedo per aver dichiarato che LaMDA, un modello linguistico addestrato su dialoghi, sia senziente, ovvero dotato di sensibilità emotiva

L'intelligenza artificiale di Google dotata di sensibilità emotiva, ma è davvero così?
Ansa
Google

Continua a far parlare di se Blake Lemoine, l’ingegnere di Google messo in congedo per aver dichiarato che LaMDA, un modello linguistico addestrato su dialoghi, sia senziente, ovvero dotato di sensibilità emotiva.

A leggere le chiacchierate con LaMDA raccolte da Lemoine, in effetti, molti potrebbero pensare che questo sistema sia in grado di passare il Turing test, ovvero discutere in maniera apparentemente indistinguibile da un essere umano. Accadde già in passato, anche con sistemi molto più semplici e banali, come Eliza, un agente conversazionale creato nel 1966 da Joseph Weizenbaum, al MIT. Eliza era una parodia di un terapeuta Rogersiano, capace di rispondere al paziente con domande che non erano altro che riformulazioni delle sue affermazioni. Ad esempio, all’affermazione “Mi fa male la testa” Eliza poteva rispondere “Perché pensi che ti faccia male la testa?”.

A primo occhio, non pochi furono sorpresi dalla performance di Eliza. Ma molto presto, le limitazioni diventavano ovvie, anche ai più ingenui.

Mentre Eliza era costituito da una lunga sequenza di regole linguistiche, che spostavano le parole e le includevano in domande, LaMDA si basa su complesse reti neurali, capaci di imparare pattern (ad esempio, copie tipiche come: “Come stai?” e “Bene”) su miliardi di frasi estratte da dialoghi, e replicarle in maniera creativa. Grazie a questa tecnologia, la performance di LaMDA è certamente molto più vicina a quella dell’essere umano, ma la logica che la governa non è molto differente. Sorprende, pertanto, che a cascarci – questa volta – sia proprio un ingegnere di Google, il quale dovrebbe ben conoscere i meccanismi su cui questi sistemi si fondano.

Rimangono due curiosità e un’ipotesi.

La prima curiosità è capire chi sia Blake Lemoine. Nel suo profilo su LinkedIn si descrive come uno sviluppatore di software che da sette anni si occupa di intelligenza artificiale (IA), con focus sulla ricerca di informazioni e la rimozione di pregiudizi nel machine learning. Una frase, però, potrebbe nascondere una sua interpretazione quasi cinematografica dell’IA: “I big data, l’elaborazione intelligente, il parallelismo massiccio e i progressi nella comprensione della mente umana si sono uniti per fornire opportunità che, fino a poco tempo fa, erano pura fantascienza.”

La seconda curiosità sarebbe capire come mai Google abbia messo Lemoine in congedo. Nel 2021, vi fu un caso analogo, quando Margaret Mitchell e Timnit Gebru, entrambe leader del gruppo etico, furono licenziate a seguito della scrittura di un articolo sui rischi che i modelli linguistici possono causare. Google è quindi poco aperto a voci dissenzienti? Questa curiosità per il momento rimarrà tale.

Infine, vi è un’ipotesi. Con la crescita della competizione nel mondo dell’IA e la necessità di ottenere continua visibilità (sia per le imprese che per gli sviluppatori), potrebbe essere che un ingegnere abbia rischiato una forma rocambolesca di marketing? O davvero dobbiamo credere che sia così ingenuo, e che Google lo abbia assunto?