Il Sole 24 Ore adotta il codice di disciplina per l’intelligenza artificiale
Il Gruppo 24 Ore è «il primo gruppo editoriale italiano ad aver adottato un codice di autodisciplina per l’applicazione etica dell’intelligenza artificiale (Ia) all’interno delle sue attività editoriali e professionali». In una nota, il Gruppo spiega che il codice, elaborato con il contributo di esperti interni ed esterni e condiviso con le redazioni, «si ispira ai principi e alle raccomandazioni delle principali organizzazioni internazionali e nazionali, come l’Ai Act approvato dall’Unione europea e la relazione della Commissione Ia per l’informazione del governo italiano e si propone di garantire che l’utilizzo dell’Ia sia in linea con i valori di onestà, correttezza e trasparenza che hanno sempre guidato il Gruppo nei suoi quasi 160 anni di storia».
Il codice di autodisciplina si impegna a verificare che qualunque scelta relativa all’applicazione di modelli di Ia nel Gruppo si sviluppi attraverso un utilizzo corretto e consapevole degli strumenti dell’Ia, in modo da massimizzarne i vantaggi evitando comportamenti rischiosi, violazioni delle politiche aziendali o della normativa. Nell’utilizzo dell’Ia vanno sempre tutelati il rispetto della privacy, la gestione efficace dei dati personali, la protezione del diritto d’autore e della proprietà intellettuale, del Gruppo o di terzi.
Il Gruppo assicura la centralità dell’imprescindibile ruolo umano e professionale nel processo di sviluppo e adozione dell’Ia e, pertanto, garantisce che le decisioni e le azioni basate sull’Ia siano sempre sottoposte al controllo e alla supervisione umana. In questo modo i professionisti e gli operatori che utilizzano lo strumento potranno sempre mantenere autonomia valutativa e decisionale. In ambito giornalistico, l’Ia sarà utilizzata esclusivamente come supporto all’attività dei giornalisti e non in sua sostituzione, garantendo qualità, imparzialità e pluralismo informativo. Il Gruppo promuove infine l’uso dell’Ia per favorire l’inclusività e la diversità ed evitare ogni genere di discriminazione attraverso revisioni costanti di algoritmi e dataset che devono essere rappresentativi della varietà socioculturale per prevenire stereotipi e informazioni scorrette e promuovere soluzioni che siano eticamente fondate e socialmente responsabili, promuovendo una comunicazione chiara e trasparente sull’impiego dell’Ia, che consenta a qualunque professionista ed operatore di poterla utilizzare nel rispetto della legge e dei diritti di terzi, e garantisce trasparenza anche nell’identificare i prodotti elaborati attraverso l’utilizzo di sistemi di Ia.