
AI, informazione e compenso: serve trasparenza sugli accordi
L’intelligenza artificiale cambierà il mondo, anche quello dell’informazione, non ci sono dubbi. La domanda è: come vogliamo che ce lo cambi? O meglio: come vogliamo usarla? Vogliamo davvero affidare, anche solo in parte, l’informazione alla AI? Siamo di quelli che pensano che l’efficienza sia da anteporre al fattore umano? Affidereste l’amministrazione della giustizia o l’azione di governo a un algoritmo? Noi no. Noi crediamo che possa essere un utile supporto al mestiere del giornalista, ma che non debba mai in alcun modo sostituire in parte o in tutto il nostro lavoro.
L’intelligenza artificiale generativa, quella che entra in diretto contatto con il nostro lavoro, è basata su modelli linguistici complessi e altri modelli fondamentali e può creare testo, immagini, discorsi, musica e video in risposta a stimoli scritti da un utente. E lo fa pescando informazioni direttamente dalla rete e sottoponendole a una verifica statistica e a un’elaborazione algoritmica. Già così vediamo chiaramente che non è sovrapponibile al mestiere del giornalista, per il quale la dimensione testimoniale (cosa ho visto) è fondamentale. L’AI non vede, al limite pesca da cosa è già stato visto e riportato. Ma c’è un altro aspetto fondamentale del nostro mestiere sui cui l’AI non è performante ed è quello della verifica dei fatti. Perché la ricerca della verità ha una dimensione etica e richiede rigore epistemologico, coerenza metodologica e apertura mentale. Porsi la domanda di come l’intelligenza artificiale si inserisce in questo processo è fondamentale per il nostro futuro: perché non siamo solo preoccupati per i posti di lavoro a rischio, siamo allo stesso modo preoccupati per il decadimento della qualità dell’informazione e per il rischio di proliferazione di fake news, che sono virus mortale della democrazia e mettono a rischio la sicurezza del Paese.
L’esempio dei media stranieri
Intanto vediamo cosa succede nel mondo. Prendiamo due esempi riconosciuti di «buon giornalismo»: The Economist e The New York Times.
Il settimanale inglese etichetta i propri articoli che sono stati creati con l’ausilio dell’intelligenza artificiale generativa e le etichette sono tre:
1) Convertito dall’intelligenza artificiale (quando l’AI è stata utilizzata per convertire un contenuto giornalistico prodotto dall’uomo;
2) Riassunto dall’intelligenza artificiale;
3) Tradotto dall’intelligenza artificiale da una lingua a un’altra (come nel caso delle traduzioni video).
The Economist mette anche nero su bianco le proprie «regole di ingaggio»:
1) il giornalismo di The Economist è prodotto da esseri umani: il nostro lavoro è creato da personale esperto, tra cui giornalisti, redattori, fact-checker, data journalist, produttori di podcast e video, grafici, redattori di social media e altri ancora. The Economist è prodotto da esseri umani intelligenti, non da macchine intelligenti;
2) L’intelligenza artificiale può migliorare il nostro modo di lavorare, non cambiare ciò che facciamo: gli strumenti di intelligenza artificiale possono aiutare nella ricerca, ad esempio, o semplificare l’editing dei video. Ma la responsabilità del nostro lavoro, dalla stesura dei testi all’editing e alla verifica dei fatti, è affidata agli esseri umani;
3) Gli strumenti di intelligenza artificiale possono ampliare la distribuzione dei nostri contenuti: il nostro giornalismo è prodotto da esseri umani, ma gli strumenti di intelligenza artificiale possono ampliare la nostra portata distribuendolo in nuove forme (come la trascrizione automatica di un podcast o il riassunto di un articolo);
4) Privacy e copyright al primo posto: non caricheremo dati personali o informazioni riservate e protette da copyright su servizi di intelligenza artificiale generativa che potrebbero utilizzare tali dati per addestrare i propri modelli;
5) Saremo sempre trasparenti: useremo le etichette per indicare se e come l’intelligenza artificiale è stata coinvolta nella creazione.
Tutto molto chiaro e trasparente. Più o meno quello che succede al New York Times che sul proprio sito internet dichiara di come intende usare questa tecnologia:
1) Come strumento al servizio della nostra missione: l’intelligenza artificiale generativa può aiutare i giornalisti a scoprire la verità e aiutare più persone a comprendere il mondo. Allo stesso modo, il Times diventerà più accessibile a un pubblico più ampio grazie a funzionalità come gli articoli con voce digitale, le traduzioni in altre lingue e gli utilizzi dell’AI generativa che dobbiamo ancora scoprire;
2) Con la guida e la revisione umana: l’esperienza e il giudizio dei nostri giornalisti sono vantaggi competitivi che le macchine semplicemente non possono eguagliare, e prevediamo che diventeranno ancora più importanti nell’era dell’intelligenza artificiale. L’intelligenza artificiale generativa può talvolta aiutare in alcune parti del nostro processo, ma il lavoro deve sempre essere gestito dai giornalisti e a loro rispondere. Siamo sempre responsabili di ciò che riportiamo, indipendentemente da come viene creato il reportage. Qualsiasi utilizzo dell’intelligenza artificiale generativa in redazione deve partire da informazioni fattuali verificate dai nostri giornalisti e, come tutto ciò che produciamo, deve essere revisionato dai redattori;
3) In modo trasparente ed etico: i principi fondamentali del giornalismo devono applicarsi con la stessa forza anche quando sono coinvolte le macchine. I lettori devono essere certi che tutte le informazioni che vengono loro presentate sono accurate, soddisfano gli elevati standard del Times e seguono il nostro «Manuale del giornalismo etico». Dobbiamo dire ai lettori come è stato creato il nostro lavoro e, se facciamo un uso sostanziale dell’intelligenza artificiale generativa, spiegare come mitighiamo i rischi, come la parzialità o l’inesattezza, con la supervisione umana.
Personalmente preferisco il decalogo dell’Economist, ma questo importa poco, ciò che conta e che è dobbiamo avviare un confronto nel mondo dell’informazione. Questo significa non solo parlare con gli editori, ma anche con gli OTT e con chi sviluppa i software perché noi dobbiamo essere parte del processo decisionale. Così come dovremo essere in grado di governare questa nuova tecnica e subirla.
Da ultimo c’è il tema del copyright. Gli editori italiani hanno da pochi giorni incassato il parere favorevole dell’avvocatura generale della Corte di Giustizia Ue sulla disputa con le piattaforme digitali sulla diffusione di contenuti giornalistici. L’avvocatura ha sottolineato che è legittimo per un Paese adottare misure a tutela del diritto d’autore e un equo compenso per lo sfruttamento degli articoli. Il parere espresso dall’avvocato Maciej Szpunar dà ragione all’Autorità per le Garanzie nelle comunicazioni (Agcom) nello scontro con Meta, la società di Zuckerberg che aveva impugnato il regolamento Agcom del 2022 che impone l’obbligo per le piattaforme online di corrispondere un equo compenso per la diffusione dei contenuti giornalistici sulla base dei ricavi pubblicitari generati in virtù del loro utilizzo. Compenso può arrivare fino al 70% e che, secondo la Fnsi, dovrà essere ridistribuito in parte ai giornalisti.
Cosa fanno gli editori?
Gli editori, intanto, stanno anche stringendo accordi economici per consentire ai produttori di software di intelligenza artificiale di accedere ad archivi e news per addestrare meglio i modelli di intelligenza artificiale generativa. Senza arrivare all’accordo monstre tra News Corp (il proprietario del Wall Street Journal) con OpenAi del valore di oltre 250 milioni di dollari, secondo la Wan-Ifra – la World Association of News Publishers, la più grande organizzazione internazionale di stampa al mondo (rappresenta 3.000 case editrici e 40 associazioni di editori affiliate per un totale di 18.000 pubblicazioni in 120 paesi) – gli accordi che gli editori stanno siglando valgono da 1 a 5 milioni di dollari l’anno per l’accesso agli archivi e da 4 a 20 milioni di dollari l’anno per quello alle news. Soldi che iniziano a incassare anche gli editori italiani che si trincerano dietro ai «patti di non divulgazione» per non far sapere ai Cdr l’importo degli accordi. I Cdr, però, sono portatori di interesse perché rappresentano i giornalisti e devono essere messi a conoscenza di queste cifre. Perché il decreto legislativo 8 novembre 2021 n. 177, che dà attuazione alla Direttiva Ue 2019/790 sul diritto d’autore e sui diritti connessi nel mercato unico digitale, prevede che gli editori riconoscano agli autori degli articoli giornalistici una quota compresa tra il 2% e il 5% dell’equo compenso che va determinato una volta messi a disposizione i dati economici necessari.
La materia della cessione a terzi dei «pezzi» realizzati dai giornalisti (dipendenti e non) non è più unicamente regolata, pertanto, dalla contrattazione collettiva, ma trova la propria fonte nelle leggi europea e nazionale che pongono chiare tutele all’attività dei giornalisti e, più in generale, all’attività della libera informazione. La posizione della Fnsi è che ai giornalisti sia riconosciuta una quota compresa tra il 2 e il 5% degli accordi che gli editori siglano per fornire l’accesso ai contenuti prodotti dai giornalisti ai software di intelligenza artificiale.
Domenico Affinito, Segretario Aggiunto Vicario FNSI