Negli ultimi dieci anni l’Intelligenza Artificiale (IA) ha conosciuto uno sviluppo significativo, con applicazioni che spaziano dalla medicina alla logistica, dall’agricoltura ai modelli linguistici come ChatGPT negli Stati Uniti e Mistral Le Chat in Europa, ormai integrati da due anni negli uffici e nelle scuole. È fondamentale, tuttavia, che questi sistemi siano progettati, sviluppati e utilizzati nel rispetto dei diritti umani, della democrazia e dello stato di diritto, obiettivo perseguito in Europa grazie alla legge europea sull’IA (Regolamento 2024/1689). Di questi temi e molto altro si è discusso il 25 febbraio 2025 nella sala “Garonzi” del Centro Polifunzionale di Ponte Crencano, in Via Quinzano 24d, con la dottoressa Fabrizia Fabbro, esperta di matematica e intelligenza artificiale.

“Si pensi alla sorveglianza di massa attuata in paesi come Cina e Israele, dove il riconoscimento facciale tramite telecamere comporta un elevato rischio di violazione dei diritti alla privacy e alla non discriminazione,” ha spiegato la Fabbro. “Già dieci anni fa emerse il caso di Cambridge Analytica, una società di consulenza che acquistò i dati personali di milioni di utenti Facebook per profilarli e inviare loro messaggi mirati, pochi giorni prima delle elezioni presidenziali americane del 2016. Lo stesso approccio era stato utilizzato qualche mese prima per influenzare l’esito del referendum sulla Brexit.”

La profilazione consiste nell’elaborazione dei dati personali al fine di analizzare aspetti individuali, come la situazione economica, lo stato di salute, le preferenze, gli interessi, le performance lavorative, i comportamenti, i desideri e le paure, comportando potenziali rischi per il diritto alla privacy.

Negli Stati Uniti viene utilizzato COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), uno strumento di intelligenza artificiale progettato per stimare le probabilità di recidiva di un condannato. Tuttavia, si è rivelato influenzato da pregiudizi razziali nei confronti delle persone di colore, violando così i principi fondamentali del giusto processo.

“I modelli linguistici operano sfruttando enormi quantità di testi e dati in ingresso, che spesso possono risultare imprecisi o discriminatori, producendo quindi risultati simili,” ha spiegato la Fabbro. “Inoltre, fanno uso di dati personali degli utenti, articoli e video pubblicati, violando frequentemente i diritti d’autore.”

Per conciliare lo sviluppo tecnologico con il rispetto dei diritti fondamentali, l’Unione Europea, prima al mondo, ha introdotto strumenti innovativi per garantire la dignità della persona. Dal 1° agosto 2024 è in vigore il Regolamento (UE) 2024/1689, che disciplina il funzionamento del mercato interno e promuove la diffusione di un’intelligenza artificiale affidabile. Questo regolamento assicura un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione Europea, inclusi la democrazia, lo Stato di diritto e la tutela dell’ambiente.

“Il Regolamento stabilisce diversi gradi di rischio,” ha dichiarato Fabbro. “Il rischio inaccettabile include tutte quelle situazioni che rappresentano un pericolo concreto per la sicurezza delle persone. Tra queste rientrano la manipolazione comportamentale, il riconoscimento delle emozioni in contesti lavorativi o scolastici, la valutazione sociale, l’utilizzo di strumenti di giustizia e polizia predittiva, l’estrazione di immagini facciali per creare banche dati, e le categorizzazioni biometriche finalizzate a dedurre informazioni sensibili come l’orientamento sessuale, il credo religioso, l’appartenenza sindacale o le convinzioni politiche.”

Dal 2 febbraio 2025, queste pratiche saranno vietate e, a partire da tale data, diventerà obbligatoria l’alfabetizzazione sull’IA per tutto il personale coinvolto. Sono considerate a alto rischio attività come l’identificazione biometrica, la gestione di infrastrutture critiche (ad esempio acqua, energia, gas, traffico), l’utilizzo di dispositivi medici, le valutazioni in ambito scolastico o lavorativo, l’accesso a servizi essenziali (come la sanità), la valutazione dell’affidabilità creditizia e i sistemi di supporto ai giudici nell’analisi e interpretazione dei fatti.

Entro il 2027, questi sistemi saranno sottoposti a una rigorosa Valutazione di conformità, volta a esaminare i dati utilizzati, la trasparenza, la tracciabilità, a garantire l’intervento umano e la sicurezza informatica. Inoltre, sarà centrale la Valutazione dell’impatto sui Diritti Fondamentali, assicurando che il loro utilizzo rispetti principi etici e legali fondamentali.

“I sistemi ad alto impatto, come i modelli linguistici del calibro di ChatGPT o Mistral Le Chat, dovranno assicurare un elevato livello di trasparenza, accompagnato da una documentazione tecnica accurata e da un monitoraggio costante sugli eventuali incidenti,” ha dichiarato Fabbro. “I contenuti audio e video generati artificialmente (deepfake) dovranno essere chiaramente etichettati. Le violazioni saranno soggette a sanzioni severe: fino al 7% del fatturato, con un massimo di 35 milioni di euro.”

La sfida è davvero imponente: da un lato, gli ingenti investimenti di Stati e aziende, che ammontano a centinaia di miliardi; dall’altro, la Carta europea dei Diritti Fondamentali, custode della nostra storia e dei nostri valori, a partire dall’articolo 1: “La dignità umana è inviolabile. Deve essere rispettata e protetta.”

© RIPRODUZIONE RISERVATA