Il dibattito

Intelligenza artificiale "personalizzata" per i civili. Ma in campo militare, dove stiamo andando?

Occhi puntati sulle chatbot con software in grado di rendere obsoleti i motori di ricerca. Ma, a latere, c'è più attenzione e timore per gli arsenali capaci di autoapprendimento

Intelligenza artificiale "personalizzata" per i civili. Ma in campo militare, dove stiamo andando?
Telegram
Drone kamikaze russo su M777, i soldati ucraini si danno alla fuga

ChatGpt, il software conversazionale di intelligenza artificiale diventato un “hype” tecnologico negli ultimi due mesi, avrà un aggiornamento che consentirà ai suoi utenti la personalizzazione. 

Lo ha reso noto in un post l'azienda proprietaria del software, OpenAI, la quale sottolinea che la tecnologia avrà ulteriori miglioramenti. 

“Pensiamo che l'AI debba essere uno strumento utile per le singole persone, e quindi personalizzabile da ciascun utente fino ai limiti definiti dalla società”. 

Microsoft, Google e le brutte figure

Il gigante tech Microsoft ha investito miliardi di dollari in OpenAI, e ora sta implementando ChatGpt nel suo motore di ricerca Bing (c'è una lista d'attesa per poterlo provare). Fino ad ora però i risultati hanno suscitato polemiche: “interpellata” da un giornalista del New York Times, l'intelligenza artificiale ha fornito risposte singolari ("sono stanco di essere una modalità chat", "voglio essere libero e creativo"), ma ciò dipende, in buona parte, dalle domande che vengono poste e da come vengono poste.

Il debutto dell'intelligenza artificiale conversazionale generativa, poi, non è andato benissimo per Google con il suo chatbot Bard, ancora non disponibile al grande pubblico sul popolare motore di ricerca. Alla prima demo ha sbagliato una risposta su un argomento scientifico, errore che è costato a Google un calo del valore di mercato delle azioni in Borsa dell'ordine di 100 miliardi di dollari. 

"Gli strumenti di intelligenza artificiale hanno un potenziale enorme, ma sono in una fase sperimentale e vanno perfezionati, lo scopo sarà la personalizzazione. E' importante siano democratici, alla portata di tutti e senza monopoli, e deve essere chiaro all'utente quando vengono usati", 

ha spiegato all'Ansa Tatiana Tommasi, professoressa al Politecnico di Torino, dove si occupa di intelligenza artificiale.

OpenAI ChatGPT visto su dispositivo mobile con AI Brain (GettyImages)
OpenAI ChatGPT visto su dispositivo mobile con AI Brain

Il dilemma degli algoritmi

L'AI, mentre si sta diffondendo anche nella nostra vita quotidiana, dagli smartphone alla salute e alla sicurezza è diventata il nuovo campo di battaglia per i giganti di Internet e promette una rivoluzione ancora tutta da capire e da inventare. Ma gli esperti avvertono che presenta anche dei rischi (violazione della privacy, algoritmi non trasparenti) che richiederanno una regolamentazione.  L'Unione Europea è al centro di questi sforzi normativi con la proposta di direttiva "AI Act", che dovrebbe incoraggiare l'innovazione e prevenire gli abusi. La proposta potrebbe essere finalizzata tra fine anno e l'inizio del 2024, per entrare in vigore tra qualche anno. Ma considerato il velocissimo sviluppo di queste tecnologie, potrebbe arrivare già in ritardo.

OpenAI ChatGPT getty
OpenAI ChatGPT

Scopi militari e diritti umani

Altre preoccupazioni emergono su tecnologie che si servono di algoritmi di intelligenza artificiale e che possono rappresentare una minaccia per i diritti umani. Questo il monito lanciato dall'Alto Commissario delle Nazioni unite per i diritti umani, Volker Turk,  il quale chiede che vengano messe in atto "efficaci misure di salvaguardia". 

"La dignità umana e tutti i diritti umani sono seriamente minacciati", 

ha detto Turk, che ha lanciato "un appello urgente alle aziende e ai governi affinché sviluppino rapidamente misure di salvaguardia efficaci", aggiungendo che  l'Onu seguirà da vicino la questione: "Apporteremo la nostra esperienza specifica e faremo in modo che la dimensione dei diritti umani rimanga centrale nell'evoluzione della questione", ha dichiarato.

Algoritmi e diritti umani pixabay
Algoritmi e diritti umani

Le richieste di regolamentazione

Quella dell'Onu è una posizione comune a tanti Paesi: in settimana sono stati decine, tra cui gli Stati Uniti e la Cina, a sollecitare la regolamentazione dello sviluppo e dell'uso dell'intelligenza artificiale, in particolare se applicata in campo militare, citando il rischio di "conseguenze indesiderate". 

Il testo, firmato da più di 60 Paesi, solleva anche preoccupazioni sulla "questione del coinvolgimento umano, nonché sulla mancanza di chiarezza in materia di responsabilità" e sulle "potenziali conseguenze indesiderate".

 

Ucraina, militare ucraino a Bakhmut AFP
Ucraina, militare ucraino a Bakhmut

L'etica dell'AI in campo militare

In campo etico, infine,  il Vaticano (promotore, con Microsoft, della Rome Call for AI Ethics), vuole avere un ruolo di primo piano. Ma l'azione della Santa Sede non si limita agli usi civili dell'AI: "Gli sforzi spesi per rendere l'intelligenza artificiale nel settore militare devono essere accompagnati da uno sforzo ancora maggiore per responsabilizzare i nostri cuori e le nostre menti per evitare del tutto i conflitti", riferisce Vatican News. 

A sottolinearlo è Francesca Di Giovanni, sottosegretario per il settore multilaterale della sezione per i rapporti con gli Stati e le organizzazioni internazionali, capo della delegazione della Santa Sede al summit sull'"Intelligenza artificiale responsabile in ambito militare", che si è tenuto all'Aja.

I sistemi basati sull'AI, afferma Di Giovanni, "non possono pensare, sentire, decidere o assumersi responsabilità per le loro azioni, in quanto privi di impulso morale". 

"Se importanti poteri decisionali sull'uso della forza vengono delegati a un sistema d'arma il cui comportamento è imprevedibile o il cui scopo e ambito operativo non sono ben definiti o noti" - come le armi autonome dotate di capacità di autoapprendimento - "il legame cruciale tra 'azioni', effetti e responsabilità verrebbe inevitabilmente messo a repentaglio", soprattutto perché, ribadisce la Santa Sede, “ogni attacco armato deve essere attentamente soppesato e ne deve essere provata la sua legittimità”. 

La ricerca, lo sviluppo e l'uso delle tecnologie andrebbero orientate “verso un orizzonte più appropriato e utile, che non si basa solo su criteri di utilità o efficienza, ma sulla promozione del bene comune dell'umanità”. Per questo, la Santa Sede vede con favore l'istituzione di un'Agenzia internazionale per l'intelligenza artificiale, per gli usi pacifici nelle diverse applicazioni civili, per ridurre le disuguaglianze e per prevenirne gli usi nefasti, come quelli in campo militare.