Conversazioni sull’intelligenza artificiale – Parte 1

0
94

Esplorare l’intelligenza artificiale con un approccio pragmatico: intervista al prof. Hellmut Riediger 

È possibile fare una fotografia della situazione attuale per capire dove ci sta portando l’intelligenza artificiale? Animati da curiosità e dal desiderio di approfondire temi specifici che ci riguardano da vicino, abbiamo intervistato il Prof. Hellmut Riediger, linguista e germanista, esperto e docente di traduzione alla Civica Scuola Interpreti e Traduttori Altiero Spinelli. In questo appuntamento offriamo ai lettori la possibilità di adottare un approccio critico come un punto di partenza per riflessioni personali e per intraprendere un proprio percorso di (in)formazione.

Da diversi mesi sui media, sia cartacei che online, leggiamo articoli sulla futura “rivoluzione” dell’intelligenza artificiale come se non avessimo idea di cosa ci sta aspettando. Secondo lei la rivoluzione è già iniziata o siamo solo agli inizi?

Per quanto mi riguarda, rispetto a questi temi da un lato ho una percezione personale come cittadino che segue le notizie e il dibattito sull’IA come vengono proposte dai media, e dall’altro come professionista un approccio pratico, perché nel campo della traduzione delle lingue ci stiamo confrontando su questo tema già da tempo. La traduzione automatica neurale è una realtà con la quale ci stiamo confrontando da circa sette anni e di cui abbiamo potuto osservare i notevoli processi.

Oggi invece si parla molto dei LLM Large Language Models che, per quanto ci riguarda, rappresentano la prosecuzione di quel solco, di quel percorso. Occorre poi definire rispetto a cosa c’è preoccupazione oppure, al contrario, non c’è da preoccuparsi. In entrambi i casi sono sempre presenti due livelli di riflessione, uno un po’ fantascientifico e uno pragmatico. Sul primo si può dire tutto o il contrario di tutto, quindi l’evoluzione che ci attende può essere (o sembrare) estremamente affascinante, come un futuro in cui le macchine sono al nostro servizio per svolgere attività più noiose, faticose o complesse, oppure dispotica, cioè un mondo in cui le macchine prendono il sopravvento, e sottomessi a soldati robot gli umani diventano inutili o irrilevanti ad eccezione di una esigua élite transumanista in grado di permettersi di superare le limitazioni della condizione umana, come la malattia, l’invecchiamento e la morte fondendosi con la tecnologia. Mi vengono in mente figure come quella di Kurzweill che già una ventina di anni fa preconizzava l’avvento della cosiddetta singularity (in cui il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani) entro il 2029. Come detto, queste dimensioni possono apparire suggestive o angoscianti, ma perlopiù sono percepite da noi normali cittadini come sorta di science fiction, più o meno apprezzata. Ma cosa significhi dal punto di vista della nostra vita quotidiana è ancora tutto da vedere e da esplorare.

Quello che sicuramente si è registrato nell’ultimo anno è un hype legato ai LLM che, all’improvviso, sembrano essere capaci di scrivere su qualsiasi argomento come o meglio degli esseri umani. È questo che ha avuto un impatto travolgente su molte persone, soprattutto su chi aveva poca esperienza o era toccato in modo marginale dall’intelligenza artificiale generativa. Non bisogna dimenticare anche il ruolo dei media che enfatizzano tutto e il messaggio che passa è che l’intelligenza artificiale esiste solo da sei mesi, come se prima non si fosse mai manifestata, ma le cose non stanno esattamente così. Usiamo Google Maps da oltre dieci anni, ma pensiamo che sia un centralino in California a suggerire a milioni di utenti il percorso migliore da percorrere? È solo uno degli esempi che potrei citare insieme a tanti altri servizi simili come la gestione dei motori di ricerca o dei social media, la profilazione o i suggerimenti che ci vengono forniti quando usiamo le applicazioni installate sui nostri smartphone. Evidentemente sono diventati una parte integrante della nostra vita quotidiana anche se non ci rendiamo conto né di cosa siano né di come funzionino. È come se tutto, in generale, appartenesse a un passato sul quale non ci siamo posti delle domande.

Ciò che è nuovo e ciò che è diverso ci spaventa. A questo punto dovremmo forse pensare di informaci di più. Secondo lei è anche un dovere dei cittadini informarsi?

Probabilmente sì, direi che è un dovere quasi politico. Purtroppo però la maggior parte delle persone non si informa neanche di politica, con l’idea che “tanto qualcuno ci penserà”… Tendiamo a delegare ad altri ciò che dovremmo fare noi in prima persona, quindi temo che anche in questo caso la gente ci penserà solo quando si sentirà toccata direttamente. 

Sarebbe importante considerare questo aspetto anche come oggetto di studio nelle scuole, poi bisognerà vedere con quali modalità. Sarebbe bene che fosse introdotto a livelli sempre più precoci per avere delle basi e poter cogliere di cosa si sta parlando, conoscendo quali sono limiti e possibilità di questi strumenti. Non sappiamo cosa succederà fra cinque anni, ma in qualche misura oggi si possono descrivere degli scenari su ciò che accade di fase in fase.

È quindi possibile ipotizzare che i programmi educativi si adegueranno come è successo, ad esempio, con la progressiva introduzione della lingua inglese in tutte le scuole di ogni ordine e grado?

L’aspetto educativo è fondamentale, ma come in tante altre cose il problema è che serve un approccio pragmatico e sensato. Le difficoltà sono collegate a un rifiuto un po’ aprioristico, influenzato da una certa tradizione umanistica, che vede la tecnica con sospetto. Questo retaggio ha radici antiche, per cui entrare nella scuola è un po’ delicato. D’altro canto ci sono, all’opposto, i “technolgy enthusiast” per cui basta la parolina “IA” a illuminare gli orizzonti, facendo sembrare tutto stupendo. Né l’uno né l’altro atteggiamento dal mio punto di vista stanno dalla parte della ragione e non si tratta nemmeno di fare una gara.

Se informarsi è importante, è possibile farlo senza soccombere di fronte alla tecnologia?

Come dicevo prima, sarebbe bene usare un po’ di buon senso e non lasciarsi guidare da posizioni estreme. Nel caso di un eccessivo entusiasmo nei confronti della tecnologia c’è sempre il rischio di caricare troppo questi temi con la conseguenza di trasformarli in condizionamenti molto forti. È come se le persone dovessero conoscere tutto. La strada vista così è percepita come un’improbabile salita, accessibile solo agli addetti ai lavori. È comprensibile essere scoraggiati, se si pensa che diventare degli esperti in materia sia l’unico modo per non essere tagliati fuori. Ci sono poi altre forme di manipolazione, come quelle esercitate da gruppi di interesse (economico) che per raggiungere i propri scopi fanno leva su minacce più o meno esplicite: “dovete seguirci e diventare i nostri apostoli o siete persi”.

La paura che l’intelligenza artificiale comporterà la perdita di molti posti di lavoro, soprattutto per i cosiddetti emarginati digitali, cioè coloro che non sapranno usare l’intelligenza artificiale, è quindi giustificata?

Certamente, in un modo o nell’altro bisognerà confrontarsi con l’intelligenza artificiale, come componente dell’alfabetizzazione artificiale. Per fare un paragone, sia pure un po’ grossolano, è difficile che qualcuno oggi possa dire: “Io so fare bene tante cose, ma il computer non lo uso, non lo apro neanche”. Ecco, a meno che non si decida di vivere come eremita nei boschi, è necessario possedere competenze digitali adeguate alle attività che si svolgono. Conoscere questi strumenti è importante, ma non solo per la questione del lavoro. C’è anche un altro tema che chiamerei ideologico, perché tutti questi strumenti possono essere ottimi pretesti per fare altro, ad esempio per abbassare i salari o licenziare dei dipendenti con la motivazione che “ora ci sono le macchine”. Dal mio punto di vista, se lasciamo la conoscenza alla controparte e restiamo nel nostro cantuccio, ci mancheranno strumenti di difesa. Avere delle coordinate di base è utile per capire se le politiche che sono portate avanti nascondono degli alibi o delle scuse.

In concreto, in questa fase mi sento di consigliare a tutti di sperimentare questi LLM di cui ci raccontano tante cose. Ci sono centinaia di tutorial, ma non c’è nulla di meglio che toccarli con mano, vedere se e come funzionano. Ad esempio, lei che sta scrivendo questo articolo potrebbe provare a usare ChatGPT inserendo alcune parole chiave e poi confrontare il suo articolo con il risultato generato dall’intelligenza artificiale. Dire semplicemente a ChatGPT di farlo può essere pericoloso. Rischi di impigrirti e in questo caso giustifichi che anche la macchina è in grado di fare certe cose, quindi può sostituire il tuo lavoro, cioè te. 

Per concludere, sperimentare è il modo migliore per acquisire famigliarità con questi strumenti. Se lo facciamo con consapevolezza e proviamo a individuare le criticità della macchina, saremo in grado di avere elementi da usare anche nella nostra vita quotidiana e professionale, quale che sia.

LUnione Europea ha appena approvato la prima legislazione al mondo sulluso dellintelligenza artificiale. È possibile immaginare nuovi scenari grazie allapplicazione delle nuove norme introdotte per le attività ad alto rischio e la tutela dei cittadini?

Non conosco molto bene i dettagli, ma sentire certe parole, come il verbo “regolamentare” mi rende sospettoso perché mi sembra che spesso e volentieri sia un modo per regolare il traffico, decidere chi può fare cosa, quali player entrano in campo e quali no. Ci sono i decisori da una parte e dall’altra chi non decide affatto. 

Sono rimasta un po’ perplessa dall’approccio legislativo basato sulla necessità di trovare un compromesso fra l’innovazione tecnologica e la tutela dei cittadini in termini di “salute”, “salvezza” e “diritti”. Mi sembrano parole impegnative. Cosa ne pensa?

Sono parole estremamente nobili, ma in concreto cosa significano? Se non hanno un risvolto pratico sono parole al vento. A mio giudizio sarebbe preferibile se certe istanze partissero in qualche maniera dalla società, da persone e gruppi di cittadini informati che, avendo fatto esperienze, dopo averle condivise e confrontate, fissassero alcuni punti. Ecco, secondo me sarebbe più credibile. Dopodiché si può anche parlare di principi generali, assoluti, universali, metafisici… Ma se restano nell’etere come concetti astratti non ce ne facciamo nulla.

Lo stesso discorso si potrebbe fare col web, essendo molto difficile pensare che possa essere regolamentato?

Il web qualche decennio fa era una cosa, il web di adesso è tutta un’altra storia. All’inizio Internet era effettivamente un territorio di sperimentazione, c’era di libertà di azione. Poi è stato colonizzato da big player che fanno il bello e il cattivo tempo, come i social media che determinano i discorsi, ovvero decidono di cosa di può parlare e come, o i motori di ricerca che decidono cosa deve salire e cosa invece deve stare sotto. Sono diventati così dei grandi censori e lo stesso rischio ci può essere anche in questo settore. Per questo l’Unione Europea, con le sue lobby, mi lascia un po’ scettico.

Anche la democrazia quindi è messa alla prova?

Sicuramente, ma lo è già da prima.

Con una spinta più veloce?

Sì perché aumentano tutte le possibilità di manipolazione, questo aspetto interessa tutta la comunicazione digitale che è molto ambigua, per come la vedo io ha portato molti benefici ma è anche il grande regno della menzogna a livelli stratosferici, non mi riferisco solo alle fake news, anche alla manipolazione dei governi, dei media, dei servii segreti, ecc…

Tornando al tema dell’alfabetizzazione al digitale, da un lato serve mettere le mani in pasta, come ha detto lei, d’altra parte sarebbe importante avere delle coordinate teoriche per capire come funzionano questi sistemi. Come si può attuare in modo concreto ed efficace? 

Alfabetizzazione è un concetto abbastanza vago. Se mi sta parlando dei risvolti etici, sociali e politici collegati, la domanda è: “Chi li dovrebbe insegnare”? Per tornare alle nostre materie scolastiche del liceo, in quali lezioni si fa? In quella di informatica che ti spiega a schiacciare i bottoni giusti o in quella di filosofia? Probabilmente una via di mezzo, anzi questi aspetti sono più da filosofia, da formazione, diventa un aspetto che accompagna la vita e su cui occorre riflettere. Non è solo una questione di sapere procedurale dove io sono bravo a usare un certo programma. Non è solo questo. Per gli utenti non presenta grandi problemi, ci sono applicazioni informatiche molto più complicate. Ovviamente per avere una completa padronanza forse devi fare cinque anni di università e non bastano, mentre per avere un’idea di fondo è sufficiente sapere che non si basano su processi semi magici.

Avere un’idea del concetto di dati e di informazioni, che tra l’altro non sono nuovi, ma che acquisiscono una nuova attualità, sarebbe utile. Sarebbe auspicabile che ci fosse una sensibilità sui dati.

Se mi vengono rubati dei dati cosa succede? Nessuno si rende ben conto di cosa sta facendo e cosa sia normale. L’unico furto che percepisco è se entrano nel mio conto e mi rubano mille euro. Se invece il governo o una multinazionale mi spia io mi sento a posto. Se è questo tale livello di consapevolezza diffuso su larga scala su questi temi, il lavoro da fare è ancora lungo.