Sognate mai che giornalisti e titolisti possano abbracciarsi per la prima volta? Figure misteriose ma onnipresenti negli aneddoti di chi scrive, i titolisti vivono tra l’incudine e il martello, in uno spazio dove velocità e frasi ad effetto si scontrano con giornalisti delusi e rancorosi per i contenuti travisati in testa ai loro articoli. Chi seleziona i titoli non è quasi mai il giornalista. Questa diatriba prende le mosse dalle prime pagine dei giornali dove albergano titoli allarmanti e sensazionalistici e si estende fino all’online, in cui brevità e furbizia, in accordo con le leggi del clickbait, assicurano alle testate maggiori introiti monetari dalle pubblicità.

A rimetterci, però, sono i lettori. Titoli approssimativi – secondo lo psicologo Ullrich Ecker intervistato nel settimanale “New Yorker” – resterebbero, infatti, impressi nella memoria per lungo tempo, distorcendo la percezione sul contenuto dell’articolo e su ciò che di esso verrà ricordato in futuro. Titoli emotivi, sempre più frequenti nelle testate, rischiano quindi di compromettere il ruolo informativo dei giornali.

Ma cosa potrebbe cambiare con l’intelligenza artificiale e i suoi Large Language Model (LLM)? Giornalisti e titolisti saranno sostituiti da sistemi algoritmici? Forse, lo scontro invisibile ma duraturo che avviene tra questi ultimi potrebbe perdere di senso, alla luce di una minaccia più incombente come l’AI?

Ferite da ricucire

Il contesto, diciamolo, non è dei più allegri. “Il giornalismo sta morendo” è una diagnosi ricorrente tra i non addetti ai lavori. Molti giornalisti sono impauriti e negano il problema, oppure rifuggono ogni tipo di progresso col timore, che di lì a poco, sia proprio qualche software come ChatGPT a scalzarli. In uno scenario di – effettiva o presunta – morte, visti i progressi sul linguaggio umano nelle AI, si aggiunge il tema del furto: “L’AI generativa testuale ci ruberà il lavoro”.

Tuttavia, articoli se ne leggono e l’AI non ha ancora sostituito del tutto le redazioni, ma di certo il giornalista, con l’avvento dei social network, è stato destituito dal suo ruolo di gatekeeper, ovvero di guardiano esclusivo dell’informazione. “Il giornalismo ha perso parte della sua credibilità, se l’è giocata”, questo risuona dalla voce stentorea di Andrea Signorelli, giornalista freelance che si occupa del rapporto tra nuove tecnologie, politica e società per “Domani”. “Non è colpa dei lettori e degli utenti, ma dei giornali che si sono piegati a determinate logiche adattandosi a formule logore di articoli brevi, poco interessanti, scritti in breve tempo e finanziati con pochissimi soldi. Non ci si può lamentare che le persone non leggano più”.

Foto da Unsplash di Steve Johnson

AI! AI! Gioie e dolori

In un momento così difficile per il giornalismo l’AI potrebbe, secondo alcuni, dare il colpo di grazia ai professionisti che vivono di scrittura e di relazioni vive. È un rapporto di fiducia quello che il giornalista coltiva con il suo intorno perché ogni persona con cui entra in contatto potrebbe entrare a far parte dell’atlante di fonti umane che gli segnalano i fatti del presente, indispensabili per l’individuazione delle notizie. Alle intelligenze generative di testo, invece, non si può dare la massima fiducia.

I LLM, in amicizia “bullshit generator” o “pappagalli stocastici”, sono infatti sistemi probabilistici che scovano e rielaborano correlazioni riscontrate all’interno del registro di dati su cui gli stessi vengono allenati. È con un prompt, ovvero con un input iniziale posto anche in forma di domanda, che il giornalista può interrogare la macchina su un determinato argomento, magari anche di attualità. Ma sulla base di quali dati l’AI può avere elaborato il testo di risposta? “Chiedere le fonti alla macchina è legittimo, ma è necessario verificare sempre il risultato. L’AI generativa non ha coscienza delle sue risposte testuali. Può sbagliare ancora facilmente”, afferma Laura Nenzi, Professoressa in Cyber Physical Systems all’Università di Trieste. In questi sistemi, gli errori non sono infatti un’eccezione e, alle volte, possono addirittura depistare completamente il giornalista. “La ricerca delle fonti con le AI è ancora troppo rischiosa: la macchina può avere delle allucinazioni” – un termine tecnico quest’ultimo che definisce gli output generati in modo completamente fallace – spiega Yuri Paglierani dell’Associazione AI Student Society. A complicare le cose contribuisce l’assenza di un controllo da parte del giornalista sui metodi di elaborazione e di machine learning: “nessuno è in grado di verificare, sottolinea Francesco Archidiacono, co-fondatore di Egair (European Guild for AI Regulation), ciò che la macchina impara e come usa i dati che le vengono dati. È il cosiddetto black box problem”.

Altro capitolo è, invece, la produzione di notizie per mano dell’AI. Pensare che queste macchine sostituiscano la figura del giornalista impegnato in articoli d’approfondimento o d’inchiesta è fantascientifico. “Le AI, commenta Signorelli, non hanno una vera capacità di analisi, comprensione, astrazione del tema, generalizzazione dell’argomento e immaginazione”. D’altro canto, le AI generative di testo sono funzionali per alcuni compiti specifici, da quelli più semplici, come raffinare lo stile di una frase, a lavori più sofisticati di sintesi del testo o di selezione di alcune sue parti. In altri compiti, poi, le AI raggiungono risultati degni di nota: nelle agenzie stampa, ad esempio, “la categorizzazione tematica dei testi – riporta Carlo Strapparava, Professore di Human Language Technologies all’Università di Trento – potrebbe essere automatizzata per la percentuale di errore molto bassa” oppure “nelle traduzioni dove – rileva Nenzi – le prestazioni sono ottime”.

Foto da Unsplash di Egor Vikhrev

Anche i diversi modelli dei LLM sono un elemento da non sottovalutare per l’affidabilità dei riscontri testuali della AI: sistemi più aggiornati, custodiscono maggiori fonti disponibili e ulteriori funzionalità. È il caso di Perplexity, sistema “intelligente” con un database costantemente aggiornato, programmato per la ricerca delle fonti. Nonostante i continui passi avanti, “l’AI resta per il giornalista, riferisce Valerio Bassan, giornalista e digital strategist, uno strumento di organizzazione delle idee che può aiutare a strutturare la ricerca oppure a considerare aspetti a cui non si aveva pensato prima”.

Un assistente, quindi, che non rischia di sostituire nessuno. Questo vale anche per il titolista? Secondo Oliviero Stock, ex direttore dell’Istituto per la Ricerca Scientifica e Tecnologica, incontrato nella sua Trieste, “la personalizzazione del contenuto a seconda dell’obiettivo specifico marcherà una chiara differenza tra possibilità umane e possibilità di sistemi artificiali”. Ad esempio, un articolo può venire personalizzato, continua Stock, con un “titolo attraente, concepito per vari sottogruppi di lettori o singoli individui tenendo conto delle caratteristiche di questi ultimi”. E non solo titoli targettizzati a seconda dell’audience, ma “i sistemi di linguistica computazionale, sottolinea Strapparava, sono molto efficaci nell’elaborare titoli variando frasi famose o canzoni”.

La professione del titolista è, quindi, davvero sostituibile dalle funzionalità creative della macchina? Di certo la sua scomparsa potrebbe entusiasmare il giornalista sopraffatto dal titolista, ma per adesso quest’ipotesi è solo un’utopia: “l’AI, ricorda Andrea Gasparin, Presidente dell’AI Student Society, impara dai dati che sono già stati scritti da altri titolisti, quindi rielaborerà dei titoli in quel modo. Non ci si può proprio liberare del loro modo di scrivere”.

Futuri prossimi

Giornalisti e titolisti sono destinati a resistere e, con tutti i pro e i contro, il loro rapporto dialettico continuerà ad esistere. Saranno spinti a dialogare sempre di più con i LLM i quali, soprattutto negli ultimi due anni, sono migliorati per quanto riguarda lo sviluppo di un linguaggio sempre più simile a quello umano. I chatbot non sono, infatti, un’innovazione dell’ultimo periodo e l’aver raggiunto ultimamente risultati tanto soddisfacenti è il frutto di decenni di lavoro.

Già alla fine degli anni Sessanta l’informatico Weizenbaum aveva creato Eliza, un bot primordiale che simulava un dialogo con uno psicoterapeuta. “Ciò che è cambiato nelle AI basate sul deep learning, racconta Signorelli, oltre alla capacità, alla raffinatezza e all’efficienza è il modo in cui ci relazioniamo a “loro”. Sono strumenti, ma ci ricordano l’umano nelle modalità con cui interagiamo. È per questo che, come diversi sondaggi dimostrano, tendiamo ad essere gentili con Chatgpt, usando locuzioni come “Ciao”, “Per favore”, “Grazie”. Questa umanizzazione può diventare pericolosa accanto a una tendenza, sottolinea Strapparava, di attribuire “autorevolezza” alle macchine: un rapporto eccessivamente fideistico, molto lontano dal ruolo del giornalista, consacrato al “double-checking”.

Accanto ai rischi, però, vi sono anche nuove frontiere da esplorare per AI, giornalisti e titolisti. Uno dei nuovi filoni, racconta Gasparin, potrebbe essere l’ampliamento della “finestra di input”: cosa succederebbe se creassimo un’elaborazione AI, basandoci su volumi di informazione similari a quelli di un’intera biblioteca? “Al momento – ribatte Paglierani – la portata massima dei dati inseribili nel prompt è quella equivalente ad un libro”. O ancora il futuro potrebbe farci conoscere una multimodalità negli strumenti basati sulle Ai: non più un solo input nel testo, ma anche altre fonti, come le immagini per elaborare output più complessi a partire da stimoli diversificati.

Di fronte a tali sviluppi, giornalisti e titolisti non potranno, però, restare indietro. Oltre alla pace perpetua, entrambi dovranno considerare che “la domanda – nei LLM – sta diventando sempre più importante della risposta”, svela Strapparava. “Cambiandone una virgola si otterrà, infatti, un risultato diverso. Il futuro sarà nel prompt engineering”.

Si ringraziano, oltre alle persone citate nell’articolo, Alberto Puliafito, Direttore di “Slow News” e Stefano Tieri, giornalista de “Il Fatto Quotidiano”.