L’intelligenza artificiale generativa sta rapidamente trasformando il modo in cui interagiamo con il mondo digitale, offrendo incredibili opportunità in diversi settori. Tuttavia, l’ascesa dell’IA solleva anche serie preoccupazioni riguardo alla veridicità delle informazioni online. Basti pensare che migliaia di persone sono scese in piazza a Dublino la notte del 31 ottobre per partecipare a una parata di Halloween che non ha mai avuto luogo. Tutto a causa di un annuncio generato dall’intelligenza artificiale che promuoveva un falso evento. Il sito web My Spirit Halloween pubblicizzava la Macnas Halloween Parade, che avrebbe dovuto svolgersi tra le strade di Dublino.
La notizia si è diffusa rapidamente online ed è persino finita su Google News. Un post generato dall’intelligenza artificiale, probabilmente creato in Pakistan, ha spinto migliaia di persone reali a scendere in piazza dall’altra parte del mondo, senza motivo. Ne parliamo con Antonino Caffo, collaboratore di varie testate, tra cui l’Agenzia Ansa, esperto di innovazione e nuove tecnologie.
In che modo l’IA può minacciare la veridicità delle informazioni online?
L’IA può essere utilizzata per creare e diffondere disinformazione in modo estremamente efficace. Algoritmi sofisticati possono generare testi, immagini e video falsi incredibilmente realistici, diffondendo notizie false, propaganda e contenuti ingannevoli a una velocità e una scala senza precedenti. Un esempio è la più recente IA di Adobe, Firefly Video Model, che permette di creare video da input testuali e immagini statiche. Qualcosa che anche altre piattaforme consentono di ottenere ma qui con un realismo senza precedenti.
Quali sono gli esempi concreti di come l’IA può essere usata per diffondere disinformazione?
Ecco allora i deepfake: video manipolati che mostrano persone reali che dicono o fanno cose che non hanno mai detto o fatto. Ma anche la generazione di testi falsi: algoritmi in grado di scrivere articoli di notizie, post sui social media e altri tipi di testo che sembrano autentici ma sono completamente inventati. Così come la manipolazione delle immagini: software che possono alterare le foto in modo impercettibile all’occhio umano, creando false prove o distorcendo la realtà.
Ci sono anche esempi vicini all’Italia?
Si, su Character.AI, una piattaforma online che permette di interagire con chatbot basati sull’intelligenza artificiale, sono stati scoperti i falsi profili di Giulia Cecchettin e Filippo Turetta, le vittime del tragico caso di cronaca. Un fatto che solleva serie preoccupazioni sull’uso improprio dell’IA e sulla mancanza di controlli efficaci su queste piattaforme. Nonostante Character.AI vieti la creazione di profili di persone reali, l’assenza di meccanismi di controllo rigorosi permette a chiunque di creare chatbot che simulano l’identità di persone decedute. Nel caso di Giulia Cecchettin, gli utenti possono interagire con un software che utilizza il suo nome e la sua immagine, scrivendole messaggi o addirittura simulando chiamate telefoniche. Questa situazione ripropone un problema già emerso negli Stati Uniti, dove il padre di una ragazza vittima di femminicidio ha scoperto un profilo falso della figlia su Character.AI, utilizzato per promuovere prodotti online. La piattaforma, che consente di creare chatbot per diversi scopi, come simulazioni di colloqui di lavoro o conversazioni con personaggi storici e di fantasia, ospita anche i profili di Yara Gambirasio e Massimo Bossetti, altra tragica vicenda di cronaca nera.
Ci sono altre conseguenze?
La disinformazione può avere conseguenze devastanti. Un caso è l’erosione della fiducia: minare la fiducia del pubblico nelle istituzioni, nei media e nelle fonti di informazione. Ma anche la polarizzazione sociale, che finisce con l’alimentare la divisione e l’odio, creando tensioni sociali e conflitti. In tempi come questi, con le elezioni Usa alle porte, non possiamo sottovalutare il rischio di influenzare le opinioni e i comportamenti degli elettori, mettendo a rischio i processi democratici. Inoltre, l’IA può diffondere falsità su individui e organizzazioni, causando danni irreparabili alla loro reputazione.
Come possiamo contrastare la minaccia dell’IA per la veridicità delle informazioni online?
È necessaria una risposta multifattoriale che coinvolga diversi attori. Dallo sviluppo di tecnologie di rilevamento al creare algoritmi in grado di identificare e segnalare i contenuti falsi generati dall’IA. C’è poi il tema dell’educazione digitale, ossia del promuovere la consapevolezza e l’alfabetizzazione digitale, aiutando le persone a riconoscere la disinformazione e a valutare criticamente le fonti di informazione. Un passo critico è l’adozione dell’AI Act, che non è un testo statico ma in continuo divenire. Questo è necessario per stabilire norme e linee guida per l’uso responsabile dell’IA, limitando la diffusione di contenuti falsi e dannosi. Un modo per favorire la cooperazione tra governi, aziende tecnologiche, media e società civile per contrastare la disinformazione in modo coordinato.
Qual è il ruolo delle piattaforme online nella lotta alla disinformazione?
Le piattaforme online come Facebook, Twitter e Google hanno una grande responsabilità nel contrastare la diffusione della disinformazione. Devono investire in tecnologie di rilevamento, moderare i contenuti in modo efficace e collaborare con le autorità per rimuovere i contenuti falsi e dannosi.