Ruben Razzante
EDITORIA

11/06/2025

Giornalismo e IA, Razzante: «L’algoritmo non sostituirà il pensiero critico»

Dopo aver pubblicato l’articolo di Paola Molino, direttrice Eco del Chisone e consigliera Odg Piemonte sul rapporto tra redazioni locali piemontesi e intelligenza artificiale generativa, prosegue il nostro lavoro sull’intelligenza artificiale con un’intervista a Ruben Razzante, professore di diritto dell’informazione all’Università Cattolica di Milano e alla Lumsa di Roma, consulente della commissione straordinaria anti-odio del Senato, presieduta dalla senatrice a vita, Liliana Segre ed editorialista di molti quotidiani e periodici nazionali; Razzante è anche autore e curatore del volume “L’algoritmo dell’uguaglianza” (FrancoAngeli editore).

Professore, da anni lei si occupa di diritto dell’informazione e qualità del giornalismo. Oggi siamo di fronte a un cambiamento profondo: l’intelligenza artificiale sta ridefinendo tempi, strumenti e persino la natura del lavoro giornalistico. Qual è la sua prima riflessione su questo passaggio epocale?

Già da tempo il mondo dell’informazione ha cominciato ad evolversi con l’avvento delle prime tecnologie e, in particolare, di internet. Oggi l’introduzione dell’Intelligenza Artificiale sta segnando un’ulteriore trasformazione del giornalismo. Questa innovazione porta con sé importanti vantaggi in termini di efficienza, analisi dei dati e personalizzazione dei contenuti. Tuttavia, emergono anche nuove sfide, legate soprattutto alla trasparenza degli algoritmi e alla salvaguardia della qualità dell’informazione. Per questo motivo è essenziale continuare a sviluppare il pensiero critico e a verificare attentamente ogni utilizzo dell’IA.

L’IA permette oggi di generare articoli in pochi secondi. Secondo lei, l’automazione sta migliorando o impoverendo la qualità dell’informazione?

Se utilizzati correttamente e in modo consapevole, gli algoritmi possono contribuire concretamente a migliorare l’ambito o l’attività in cui vengono applicati. Nel mondo dell’informazione, l’utilizzo dell’IA permette di ottimizzare i tempi, consentendo ai giornalisti di dedicarsi con maggiore attenzione alle notizie che richiedono un pensiero critico. Tuttavia, rimane fondamentale non accettare passivamente i contenuti generati dall’Intelligenza Artificiale, ma verificarne sempre l’accuratezza.

Quali competenze resteranno essenziali e quali andranno sviluppate per i giornalisti in futuro?

Sicuramente il pensiero critico resterà una qualità fondamentale per i giornalisti, visto che l’IA riporta solamente informazioni sulla base dei dati su cui è stata addestrata. In futuro, i giornalisti dovranno sviluppare delle abilità sempre più specifiche nei confronti di questi sistemi in modo da poterli sfruttare a proprio vantaggio, avvantaggiando la propria professione. Infatti, l’IA è e sarà sempre un valido supporto ma non sostituirà mai totalmente i giornalisti.

L’uso dell’IA può aiutare a smascherare le fake news, ma può anche produrne di nuove. Come si possono rafforzare i meccanismi di verifica e responsabilità?

Questi sistemi sono dei validi strumenti per contrastare il fenomeno della disinformazione, soprattutto grazie alla loro abilità di analizzare enormi quantità di dati e di condurre una verifica dei fatti in tempo reale. Tuttavia, dato che essi sono privi di un pensiero critico, il controllo da parte dell’uomo rimane imprescindibile e cruciale per garantire un uso responsabile dell’IA e, quindi, uno sviluppo di un’informazione che sia affidabile e corretta.

Parliamo di etica: ritiene opportuno che i giornalisti indichino chiaramente se un contenuto è stato prodotto o supportato da intelligenza artificiale?

Assolutamente sì, infatti la trasparenza è uno dei cardini del giornalismo. Indicare chiaramente quando un contenuto è stato prodotto o supportato dall’IA è una questione sia di responsabilità che di fiducia nei confronti dei lettori, i quali hanno il diritto di sapere se l’informazione ricevuta sia frutto di un sistema automatico oppure di una persona. Inoltre, l’IA consente anche di valutare consapevolmente l’attendibilità di quanto viene riportato.

Cosa serve, dal punto di vista normativo, per governare in modo efficace l’uso dell’intelligenza artificiale nel giornalismo senza soffocare l’innovazione?

Sicuramente servono delle norme chiare ed equilibrate. Fondamentale è garantire che ci sia trasparenza sull’impiego dell’IA, dichiarando ogni volta che la si utilizza per generare un determinato contenuto. Per riuscire a usarla in modo efficace sarebbe utile promuovere dei codici etici condivisi che stabiliscano delle regole comuni in grado di adattarsi al continuo progresso tecnologico, così da non frenare l’innovazione.

Chi risponde se un contenuto generato da IA diffama, discrimina o pubblica informazioni false? L’attuale quadro normativo è adeguato?

Attualmente la responsabilità su ciò che genera l’Intelligenza Artificiale non ricade direttamente su questi sistemi ma viene attribuita a coloro che la utilizzano, al fornitore del servizio oppure alla piattaforma che ospita il contenuto. L’attuale quadro normativo è in via di sviluppo. Infatti, le lacune da colmare sono ancora numerose. Lo stesso AI Act non affronta direttamente e in modo specifico questa tematica.

Come si costruisce un dibattito maturo sull’IA, capace di evitare sia l’allarmismo apocalittico sia un ottimismo ingenuo?

Per costruire un dibattito maturo non bisogna schierarsi né a favore né contro l’Intelligenza Artificiale ma è essenziale seguire un approccio che consideri tutti i fattori che riguardano questa tecnologia. Bisogna condurre una valutazione attenta e critica sia sulle opportunità che ci può dare, in termini di efficienza o di progresso, sia sui rischi che può comportare. Un dibattito maturo dovrebbe domandarsi come sviluppare un’IA che consenta di tutelare il benessere sia individuale che collettivo, incentivando un’innovazione responsabile.

Riguardo a temi come censura o manipolazione dell’opinione pubblica, quali sono i più grandi rischi in questo senso per le testate giornalistiche e quali garanzie o standard dovrebbe adottare il settore per proteggere un’informazione libera e pluralista?

Uno dei maggiori rischi sicuramente è il fatto che l’IA ha la capacità di amplificare fenomeni di questo tipo, attraverso la generazione automatica di contenuti falsi o l’amplificazione delle cosiddette “bolle informative”. Per le testate giornalistiche il rischio è quello di perdere la propria autorevolezza se non riescono a controllare questo genere di fenomeni e, soprattutto, a distinguersi. Il settore dovrebbe adottare degli standard, in particolare in termini di trasparenza sull’eventuale utilizzo dell’IA nei propri processi.

Nei contesti locali, con dataset spesso più ristretti, come possono le redazioni garantire che l’IA generativa non produca contenuti poco accurati? È  ipotizzabile una strategia condivisa tra testate locali per l’addestramento sicuro e imparziale dei sistemi?

Una modalità per ridurre il rischio che l’IA possa generare dei contenuti inaccurati potrebbe essere quella di adottare un approccio misto, ovvero mantenere una costante supervisione da parte dell’uomo, condurre una verifica delle fonti impiegate e aggiornare continuamente i modelli utilizzati con dati nuovi e affidabili. Sviluppare una strategia condivisa tra testate locali è auspicabile, renderebbe possibile la creazione di dataset comuni, molto più consistenti, con cui poter addestrare questi modelli e renderli più affidabili e in grado di essere più accurati e precisi nei contenuti che generano.

Come si possono sviluppare percorsi formativi accessibili e sostenibili per giornalisti locali, senza danneggiare le risorse già limitate delle piccole redazioni?

Per sviluppare percorsi di questo tipo, è cruciale sviluppare delle soluzioni che siano a basso costo ma che abbiano degli impatti rilevanti. Un esempio potrebbero essere dei corsi online o dei webinar promossi da enti pubblici o dalle università, in grado di sostenere queste iniziative e consentire un apprendimento continuo, tramite anche l’invito di esperti del settore, in grado di spiegare meglio il funzionamento e il corretto utilizzo di queste nuove tecnologie.

Che peso possono avere le norme europee (e italiane) sull’uso dell’IA generativa nelle redazioni locali?

Le attuali norme europee e le future regolamentazioni avranno un impatto significativo anche sulle redazioni locali, visti i limiti e gli obblighi che potrebbero essere imposti sull’utilizzo dell’IA. Queste norme contribuiscono sicuramente a garantire trasparenza e protezione dei diritti fondamentali delle persone, riducendo i rischi che questi sistemi possono avere se utilizzati non correttamente. Per le redazioni locali, rispettare le normative potrebbe essere sia una sfida, soprattutto in termini economici, che un’opportunità per aumentare la fiducia del pubblico nei propri confronti. L’importante sarà sviluppare degli strumenti e delle linee guida che aiutino queste realtà più piccole a conformarsi alle regole senza dover essere penalizzate.

agenda

Eventi formativi

L’agenda della formazione professionale continua dell’Ordine dei Giornalisti del Piemonte.

Eventi istituzionali

Tutti i nostri eventi istituzionali dedicati ai giornalisti del Piemonte.

Cerca: