Un algoritmo ci salverà. O no?
L'intelligenza artificiale sta prendendo il posto dei giornalisti nella scelta delle notizie poi di tendenza sul web. Quanto un computer può sostituire l'uomo?
L'intelligenza artificiale sta prendendo il posto dei giornalisti nella scelta delle notizie poi di tendenza sul web. Quanto un computer può sostituire l'uomo?
Che l’intelligenza artificiale, meglio conosciuta con il suo acronimo, A.I., stia sostituendo alcune funzioni giornalistiche con sistemi automatizzati è un fatto che accade da tempo.
Microsoft – secondo fonti del Seattle Times – ha recentemente licenziato circa 50 giornalisti responsabili della selezione, della cura e della modifica degli articoli per il portale MSN, e ha dichiarato che li sostituirà con l’intelligenza artificiale.
“Questa decisione non è una conseguenza dell’attuale pandemia” ha sottolineato in una nota un portavoce di Microsoft, dichiarando come invece faccia parte di una valutazione della propria attività.
Alcuni dipendenti, che hanno preferito restare anonimi, hanno dichiarato che il loro lavoro sarà sostituito dall’uso di algoritmi che individueranno al loro posto le notizie di tendenza tra quelle di moltissimi partner editoriali e che ottimizzeranno il contenuto modificando, selezionando i titoli e le immagini per il portale.
Microsoft, come altre società tecnologiche, già da qualche anno, paga altre pagine di notizie per utilizzare i loro contenuti sul proprio sito web. Ma finora erano i giornalisti a decidere quali storie evidenziare sul portale e come venivano presentate.
Ciò accade normalmente in qualsiasi redazione che si rispetti, e si aggiunge alla quotidiana creazione e scrittura degli articoli che leggete. Ogni giorno, anche a Heraldo, si decide quali argomenti coprire, quanti articoli usciranno, chi se ne occuperà, e ora, in un ambiente completamente digitale, cosa mettere in homepage o spingere sui social media, per quanto tempo far rimanere un articolo visibile e molto di più. I criteri utilizzati per prendere queste decisioni non sono matematici, ma sono il risultato di un dibattito qualitativo.
Come lettori, non sapere in che modo i giornalisti decidano cosa diventi una notizia può essere fonte di curiosità o di irritazione. A guidare noi giornalisti però è pur sempre quell’etica che ci dice che maggiori informazioni, trasparenza e divulgazione sono obiettivi chiave, pubblicando informazioni che dovrebbero aiutare il pubblico a formare opinioni sui fatti e sostenere il nostro ruolo di cittadini.
Le piattaforme digitali che invece operano utilizzando algoritmi segreti, anche per costruire feed con i social media e pilotare i risultati di ricerca non lavorano con questo scopo.
«È demoralizzante pensare che le macchine possano sostituirci, ma è accaduto», ha detto al Seattle Times uno dei giornalisti che perderanno il loro lavoro alla fine di giugno.
Tuttavia, c’è da ammettere che le redazioni odierne sono profondamente invischiate nel mondo algoritmico: dall’uso di sistemi di tracciamento dei click, all’analisi web in tempo reale del numero di lettori di un articolo sui social media, la co-dipendenza del giornalismo attuale dalle tecnologie algoritmiche è un argomento che spesso passa in secondo piano rispetto alla macchina redazionale dei quotidiani.
Da tempo, agenzie di stampa come AP, Reuters e molte altre pubblicano migliaia di storie automatizzate al mese. Bloomberg News ha dichiarato che la società ha utilizzato la tecnologia automatizzata per pubblicare un terzo dei propri contenuti di notizie.
Google sta già investendo in diversi progetti tra cui “Journalism A.I.”: il gigante di Mountain View ha sollecitato a livello globale i giornalisti a seguire il loro corso di formazione gratuito per comprendere l’utilizzo di questa tecnologia e come può avere un impatto sul settore.
Inoltre sono molte le aziende hi-tech che stanno sperimentano il cosiddetto “Robot Journalism” per trovare storie, estrarre dati, analisi, trascrivere interviste, aiutare a controllare i fatti e individuare il plagio negli articoli. E per ridurre i costi. C’è chi lo considera un modo per liberare i redattori dal lavoro di routine per lasciare che si dedichino agli approfondimenti, giustificandolo come un miglioramento nell’efficienza redazionale. Altri sostengono che il “Robot Journalism” minacci l’autorevolezza e la veridicità delle notizie, e che renda precario il lavoro in un settore già in affanno per le news gratuite (anche se spesso fake) fornite dai social.
In un momento in cui la professione giornalistica è minacciata dalla riduzione dei costi (basti pensare alle vicende dell’ANSA, che di recente ha fatto 48 ore di sciopero contro i tagli prospettati dall’azienda, della Gazzetta del Mezzogiorno, i cui stipendi sono a rischio, dei giornalisti del Sole 24 Ore che fino al 1° luglio sono in regime di solidarietà, e di quelli della La Stampa con 1 anno solidarietà al 15%, o dei tagli ai collaboratori del Corriere della Sera), pare evidente come il vecchio modello del giornalismo italiano non funzioni più, abbandonato anche dalla pubblicità che migra sul web (senza avere andamenti così positivi registrando un – 20,4% a marzo, secondo l’Osservatorio Fcp-Assointernet) e in gran parte finisce nell’imbuto di Google e Facebook.
La Fieg ha domandato 400 milioni di euro a fondo perduto al Governo per affrontare la crisi del post-Coronavirus. Difficile pensare che nel caso vengano concessi, una parte venga destinata all’incremento del numero dei redattori e all’implementazione di tecnologie più avanzate a loro supporto. Può darsi che in un futuro non molto prossimo l’A.I. venga introdotta gradualmente per sostituire parte del lavoro giornalistico anche nelle redazioni più tradizionaliste.
Del resto l’automazione è uno strumento chiave dell’informazione soprattutto quando i secondi contano. Gli algoritmi possono aiutare i reporter a trovare ed elaborare le notizie più velocemente. Ci sono testate che demandano all’algoritmo non solo la selezione dei contenuti ma addirittura la scrittura e l’organizzazione dei temi, a loro volta governati da algoritmi, ovvero dal calcolo matematico. L’intelligenza artificiale analizza una moltitudine di dati, li organizza, interpreta e presenta in modo narrativo, con una qualità via via sempre più raffinata.
Reuters ha prodotto i suoi primi articoli automatizzati quasi 20 anni fa, nel 2001. In Italia l’Ansa ha fatto da precursore: dal 27 aprile ogni giorno alle 18, l’agenzia ha pubblicato i dati sul Coronavirus forniti dalla Protezione Civile, trasformandoli in real time in articoli e grafici, grazie ad un algoritmo messo a punto in collaborazione con Applied XLab, che già da tempo lavorava con il governo italiano.
Nel 2016 i 13,4 milioni di fascicoli di documenti confidenziali noti successivamente come “Panama papers” sono stati analizzati grazie all’intelligenza artificiale. Nel 2017 il Washington Post ha utilizzato un bot chiamato Heliograf per pubblicare notizie; il bot ha aiutato il sito Web a raccontare con successo tutte le news sulle Olimpiadi di Rio e le elezioni del 2016.
Senza intervento umano però, i sistemi automatizzati possono riportare un dato, ma non sono ancora in grado di dire cosa significa; da sole, le notizie generate da un algoritmo non contengono una vera analisi del contesto, delle ragioni alla base di un evento o delle sue conseguenze.
E se questo articolo fosse stato scritto da un robot? Chi potrebbe criticare l’autore?
Se da una parte gli esperti sostengono che sia necessario preparare i giornalisti all’impatto dell’intelligenza artificiale nelle redazioni, poiché ne alleggerisce il lavoro con l’utilizzo di strumenti efficienti, è altrettanto vero che i cosiddetti newsbot possono contribuire alla propaganda e alla disinformazione, a causa di errori provocati dagli algoritmi. L’intelligenza artificiale è infatti capace di generare fake news, a cui si accompagnano video e volti con sembianze reali, ma inesistenti.
Uno dei pericoli dell’A.I. è infatti la distorsione dell’algoritmo stesso. Poiché gli algoritmi sono progettati dall’uomo, potrebbero entrare in campo bias e pregiudizi che possono alterare l’analisi dei dati. C’è dunque chi sostiene che la verifica “umana” del contenuto prima della pubblicazione rimarrà dunque sempre l’unica protezione contro gli errori.
Un’altra corrente sostiene invece che proprio l’A.I. possa essere applicata con successo nella lotta alle fake news. I sistemi di intelligenza artificiale sono in grado infatti di identificare fonti reali di contenuti di notizie da quelli generati artificialmente. L’identificazione di notizie false è cruciale in un momento in cui il Presidente degli Stati Uniti Donald Trump accusa regolarmente la stampa di condividere fake news. E se un computer potesse monitorare ogni parola pronunciata da politici, per rintracciare la genesi e impedire la diffusione delle falsità?
Un’agenzia indipendente per il fact checking con sede nel Regno Unito, Full Fact, si occupa giornalmente, grazie all’A.I., di verificare quanto viene pubblicato su temi come il Coronavirus soprattutto sui social media. Sempre quest’ultimi sono al centro dell’azione di controllo di Fact-checking di Open, un progetto giornalistico indipendente che monitora le notizie false o fuorvianti diffuse in Italia e all’estero. L’AGI ha attivato da qualche tempo la sezione Fact Checking sul sito dell’agenzia.
Quando si parla di intelligenza artificiale ci si deve però liberare dal luogo comune del robot-giornalista che sostituisce l’uomo che rischia di essere un’immagine sbagliata che allontana dalla comprensione reale delle tecniche, delle idee e delle tecnologie che permettono di alleggerire e personalizzare il lavoro nelle redazioni.
Un’idea su come si lavorerà tra qualche anno nelle redazioni giornalistiche arriva dai progetti europei che applicano l’intelligenza artificiale al giornalismo. C’è chi lavora ad algoritmi per rendere più ricche e accattivanti le notizie o chi si concentra sui contenuti personalizzati per ciascun lettore, sia di testo che radiofonici. INJECT utilizza l’intelligenza artificiale per analizzare articoli e immagini connesse alla storia che si vuole documentare, fornendo idee per nuovi approfondimenti con domande e suggerimenti basati sull’analisi di personaggi, dati e report.
Strumenti come questo possono trasformare il ruolo di redattori e giornalisti e aiutarli ad aggiungere più valore ai loro contenuti e dando spazio ad un giornalismo che vada più in profondità, come quello investigativo. L’A.I. potrebbe quindi essere utile nell’ottimizzazione di attività meccaniche di routine che i giornalisti possono demandare all’algoritmo semplificando così il loro flusso di lavoro.
L’intelligenza artificiale è ancora agli inizi e sicuramente influenzerà il futuro del giornalismo. Ma sarà interessante vedere come cambierà il quarto potere, specialmente in un’era in cui il giornalismo sul web è legato ai clickbait, ovvero a clic, like e condivisioni che contribuiscono ai guadagni di un sito.
Nessun robot sarà mai premiato però (mi auguro) con il premio Pulitzer.
Più che ai robot come i giornalisti del futuro, pensiamoli come i nostri assistenti. Invece di chiedere a computer e calcoli matematici di fare un lavoro umano, utilizziamo la cooperazione uomo-macchina per salvare il giornalismo. Visto che Siri di Apple può programmare i miei appuntamenti, Alexa di Amazon può consigliare musica e Cortana di Microsoft può partecipare alle riunioni su Windows, perchè non pensare ad un’A.I. interattiva per il giornalismo: un’assistente personale intelligente che potenzi il mio lavoro ed estenda le mie capacità, analizzando quantità gigantesche di informazioni, rispondendo ai commenti degli articoli e controlli l’ultima bozza prima della pubblicazione. Un’intelligenza artificiale che mi renda una giornalista più veloce, più aggiornata, più efficace. Forse anche migliore. Senza rinunciare però ad essere sempre una sostenitrice dell’etica e della deontologia. Spetta a noi la scelta e la lungimiranza di capire se le innovazioni di oggi e quelle ancora da inventare ci sostituiranno un domani o ci saranno di supporto nelle sfide imprevedibili del giornalismo moderno.