I media internazionali chiedono trasparenza ai giganti dell’IA
Alessandro Gisotti
È tempo che le big companies dell’Intelligenza Artificiale si confrontino con i mezzi di informazione sul tema della trasparenza delle fonti e sull’utilizzo dei contenuti informativi. È quanto chiedono le più grandi associazioni dei media a livello mondiale con la Campagna intitolata “Facts in, Facts Out” (Dai fatti ai fatti). L’iniziativa ha tra i suoi promotori la EBU, European Broadcasting Union (di cui Radio Vaticana è membro fondatore), la World Association of News Publishers (WAN-IFRA) e la International Federation of Periodical Publishers (FIPP). La campagna è stata sollecitata in particolare dal rapporto “News Integrity in AI Assistants” realizzato da BBC ed EBU. Uno studio, pubblicato nel giugno 2025, che ha evidenziato come gli strumenti di IA - indipendentemente da area geografica, lingua o piattaforma - tendano sistematicamente a modificare, decontestualizzare o strumentalizzare le notizie provenienti da fonti affidabili come i siti web dei mezzi di informazione.
Strumenti di IA non sono ancora fonte attendibile per le notizie
“Per quanto potente e promettente – sottolinea Liz Corbin, direttore delle News di EBU –l’intelligenza artificiale non è ancora una fonte affidabile di notizie e informazioni e l’industria dell’Intelligenza Artificiale non sta affrontando questo tema come una priorità”. Da qui l’invito ad aderire alla Campagna “Facts in, Facts out”, perché la questione della trasparenza delle fonti venga affrontata con urgenza. È in gioco la credibilità del giornalismo. Così, Vincent Peyregne, a capo della World Association of News Publishers. “Se gli strumenti alimentati dall’Intelligenza Artificiale assimilano fatti pubblicati da fonti giornalistiche autorevoli, allora alla pubblicazione dovrebbero restituire fatti. Ma oggi – lamenta Peyregne – questo non sta accadendo”. I promotori della Campagna evidenziano che sempre più persone utilizzano le piattaforme di Intelligenza Artificiale come canale per accedere alle notizie. E quando questi strumenti alterano, modificano o addirittura falsificano le informazioni, il risultato è una grave erosione della fiducia nei mass media, elemento essenziale per il buon funzionamento di un sistema democratico. Ecco perché, viene ribadito, il tema va affrontato urgentemente anche considerando che l’utilizzo dell’IA per acquisire informazioni non potrà che crescere nei prossimi anni, soprattutto tra le nuove generazioni.
Cinque principi per la trasparenza dell’informazione da parte dell’IA
La campagna “Facts In, Facts Out” fa parte della più ampia iniziativa News Integrity in the Age of AI (Per l’integrità dell’informazione nell’era dell’Intelligenza artificiale), che definisce cinque principi fondamentali rivolti ai giganti dell’IA: 1) “Nessun consenso, nessun contenuto”. I contenuti giornalistici possono essere utilizzati nei sistemi di Intelligenza Artificiale solo con l’autorizzazione dell’editore originario. 2) “Giusto riconoscimento”. Il valore del giornalismo affidabile deve essere riconosciuto quando i contenuti vengono utilizzati da altri. 3) “Accuratezza, attribuzione e provenienza”. La fonte originale di qualsiasi contenuto generato dall’IA deve essere chiaramente visibile e verificabile. 4) “Pluralità e diversità”. I sistemi di Intelligenza Artificiale devono riflettere la diversità dell’ecosistema informativo globale. 5) “Trasparenza e dialogo”. Le aziende tecnologiche devono collaborare con le organizzazioni dei media per sviluppare standard condivisi di sicurezza, accuratezza e trasparenza.
Partendo da questi principi si punta a lavorare insieme per una informazione che sia veritiera e credibile. Per Liz Corbin di EBU, “non si tratta di puntare il dito contro qualcuno, ma di avviare un dialogo costruttivo. Il pubblico ha il diritto di accedere a un giornalismo di qualità e affidabile, indipendentemente dalla tecnologia utilizzata”.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui