L’intelligenza artificiale fra diritti e doveri

0
504

Quale sarà l’impatto dell’intelligenza artificiale sui diritti dei cittadini? Il tema è stato sempre più discusso nell’ultimo anno e mezzo in seguito alla diffusione dell’IA generativa da parte di Open Ai, subito seguita da altri colossi dell’informatica con un potere economico in grado di influenzare profondamente la società. E questo è il primo dato di fatto. Il secondo è l’impennata che ha subito questa tecnologia in mano a privati, professionisti e piccole imprese. Come abbiamo spiegato nell’articolo Non un solo sguardo sull’intelligenza artificiale, l’addestramento delle macchine avviene grazie ai dati degli utenti che, mentre usano i modelli conversazionali, ricevono risposte e allo stesso tempo alimentano le capacità di elaborazione degli algoritmi. È un do ut des di cui non conosciamo il conto finale in termini di costi e benefici. I temi ci riguardano in prima persona perché sono di interesse collettivo: il diritto di custodire i propri dati personali, di mantenere un posto di lavoro e di non essere discriminati in nessuna situazione sono tra le questioni più delicate.

Ciò che preoccupava era l’assenza di una regolamentazione del nuovo ecosistema digitale con un’evoluzione tanto rapida quanto imprevedibile. Sui media e sulle riviste specializzate si sono moltiplicati gli articoli di esperti, addetti ai lavori e anche della società civile per fare chiarezza e porre fine a una situazione di stallo. 

Una data e un luogo segnano la fine di questo limbo: a Strasburgo il 13 Marzo 2024 il Parlamento Europeo ha approvato l’AI Act, il primo regolamento al mondo sull’uso e lo sviluppo dell’intelligenza artificiale. Accolto in Europa come un traguardo importante, non senza una punta di orgoglio, ha suscitato anche l’attenzione di Stati Uniti e Cina. I motivi sono tutt’altro che banali e ci portano a riflessioni più approfondite sugli obiettivi di questo progetto il cui iter è durato circa quattro anni e non è ancora concluso (1). L’entusiasmo del co-relatore Dragos Tudorache è comprensibile, eppure ha suscitato in me qualche perplessità: “la legge ha spinto il futuro dell’intelligenza artificiale in una direzione incentrata sull’uomo, in cui i diritti fondamentali sono protetti, gli esseri umani hanno il controllo della tecnologia e la possono sfruttare per inaugurare un’era di scoperte, progresso e potenziale umano sbloccato” (2). Presentata come certezza assoluta, è una dichiarazione impegnativa. Tra le righe si leggono infatti due aspetti centrali che hanno animato questa proposta di legge, da un lato l’ambizione di plasmare il futuro digitale dell’Europa e assumere così un ruolo di rilievo nell’arena del mercato globale, dall’altro l’intenzione di trovare un compromesso per tutelare i cittadini senza ostacolare l’innovazione e, quindi, tutte le imprese e i settori economici coinvolti, inclusa la PA.

Credo che all’Unione Europea vada riconosciuto il ruolo pionieristico nel porre le basi per ripartire col piede giusto: una tecnologia lanciata come un treno in corsa deve, necessariamente, poggiare su una governance condivisa “incentrata sull’uomo”. In tal senso mi sento di interpretarla come un grande passo avanti e non come tappa conclusiva. 

Tre sono i punti che mi sono sembrati più significativi: 1) i divieti introdotti come il riconoscimento delle emozioni sui luoghi di lavoro e l’utilizzo dei dati biometrici negli ambienti pubblici 2) l’estensione della normativa anche ai fornitori al di fuori della UE 3) l’approccio orientato al rischio che consente di adattare il regolamento in corso d’opera rispetto al rapido avanzamento della tecnologia. 

Infine un aspetto importante riguarda la trasparenza, ad esempio gli utenti di un servizio dovranno sapere se la loro conversazione si svolge in una chat con un operatore in carne e ossa o in un chatbot, cioè con una macchina. Per alcuni contenuti diffusi in rete, come video e immagini, sarà prevista un’etichetta per segnalare che sono stati creati dall’intelligenza artificiale. In altri casi sarà necessario anche indicare le fonti (piattaforme, software e provenienza dei dati). Sorge spontaneo porsi la domanda se queste misure saranno sufficienti per contrastare le deep fakes e, più in generale, la disinformazione.

Provo a fare una scommessa: credo di non sbagliarmi pensando che chi mi sta leggendo ha già una risposta pronta: “sì” oppure “no”. Come sempre, due sole opzioni in un sistema binario.

Quando penso ai diritti dei cittadini e alla responsabilità degli stati, dei governi, dei politici, delle imprese, dei dirigenti, dei dipendenti, dei liberi professionisti e del lungo elenco che si può fare a cascata, non posso che constatare che in fondo alla lista ci siamo noi, i cittadini. I nostri diritti e i nostri doveri sono inscindibili. La battaglia per il diritto all’informazione non è meno importante del dovere di informarsi. Se ai giornalisti spetta il compito di ancorare i propri contenuti a fonti verificabili, dichiarando gli scopi e la provenienza del materiale pubblicato, i lettori hanno la responsabilità di documentarsi in modo ampio e diversificato. Un antidoto non esiste, poiché la domanda se sia possibile regolamentare il web non ha una risposta, ma una ricetta alla portata di tutti è fare leva sul proprio senso di responsabilità, sia come utenti che come creatori e divulgatori di contenuti. 

Sappiamo che l’intelligenza artificiale – come tutta la tecnologia – può essere usata per fini leciti o illeciti:

With ICT tools, it’s all about what you do with technology as a human being #aiforgood or #aiforbad. As an AI designer, I refuse to make certain images and videos for clients or to tell them where it can be done.” 

Vale la pena porsi domande, oltre che cercare risposte, e riflettere sulle conseguenze delle nostre azioni. Ho sperimentato in prima persona l’euforia di creare immagini con semplici strumenti, come DALL·E di Canva, all’interno di un percorso di prima alfabetizzazione sull’intelligenza artificiale. Ho esercitato un diritto e un dovere in modo spensierato. A distanza di pochi mesi, non ho più la stessa leggerezza. Dopo essermi documentata sull’impatto ambientale dell’IA generativa, confesso di provare un senso di colpa per tutte le volte in cui ho superato il limite, molto labile, tra uso professionale e intrattenimento. Senza togliere valore al piacere della scoperta e dell’apprendimento, mi chiedo oggi quando vale la pena ricorrere all’intelligenza artificiale, sapendo che è la tecnologia più energivora e inquinante di tutta la filiera produttiva del digitale. Conoscerne l’impronta ecologica è importante per controllarla e usarla in modo responsabile, proviamo a pensare, ad esempio, quanto consumiamo quando giochiamo per generare contenuti con l’IA.

Nei pareri degli esperti emergono temi comuni come la necessità di mantenere sempre l’essere umano al centro, si parla addirittura di come un “umanesimo digitale” potrà tutelare i soggetti più vulnerabili. E se, invece, anziché umanizzare le macchine, provassimo a essere semplicemente più umani? Solo noi siamo in grado di trasformare concetti astratti come cura, equità, responsabilità, empatia e sensibilità in azioni concrete. Non chiediamolo a una macchina, perché non sarà mai in grado di farlo.

Note

(1) Ora si attende l’approvazione formale da parte del Consiglio Europeo e la successiva pubblicazione sulla Gazzetta Ufficiale. Il regolamento diventerà esecutivo dopo due anni dalla data di pubblicazione, come già accaduto per l’iter del DGPR 2016/679.

(2)  Kevin Carboni, “Il Parlamento Europeo ha approvato l’AI Act”, pubblicato su Wired, 13 Marzo 2024