Oltre le apparenze – Ep. 1: Non solo uno sguardo sull’intelligenza artificiale

0
442

Uno dei temi più dibattuti sui media alla fine dell’anno scorso, accompagnato spesso da allarmismo, è stato l’uso sempre più pervasivo dell’intelligenza artificiale. Anche se oggi il trend è un po’ cambiato, almeno dal punto di vista dell’urgenza con cui se ne parla, l’argomento è tutt’altro che passato di moda. Mi sono chiesta il motivo di tanto clamore. Lungi dall’essersi spento, ha lasciato non ceneri, ma braci pronte ad accendersi alla prima occasione per occupare spazio e alimentare così campagne di informazione e disinformazione.

Non occorre essere esperti in materia per accorgersi che l’intelligenza artificiale è un tema divisivo e che l’industria mediatica accentua questa polarizzazione con titoli forti che fanno leva sulle nostre emozioni e sulla paura di un futuro incerto che sfugge al nostro controllo.

Siamo tutti alla ricerca di una risposta e le domande che ci poniamo di fronte alla vastità delle informazioni fornite, dalle scoperte più recenti ai nuovi campi di applicazione (futuri e futuribili) rischiano di farci scivolare in una trappola, quella di trarre giudizi affrettati, cedendo alle lusinghe di verità rassicuranti, in un senso o nell’altro. Ma la sfida a cui ci dobbiamo preparare è davvero o una minaccia o un’opportunità?

Per valutare come gli ambiti di applicazione dell’intelligenza artificiale si ripercuotono sulla nostra vita quotidiana, dal lavoro all’acquisto di beni di consumo, dalla sanità ai trasporti sino a includere categorie di servizi per scopi più svariati, come istruzione, intrattenimento e finanza, è utile osservare come anche la nostra sfera privata sia già in parte governata dall’intelligenza artificiale. Smartphone, computer e altri strumenti ci semplificano molti compiti con automatismi di cui siamo più o meno consapevoli: comandi vocali, servizi di assistenza online, metodi di pagamento, filtri anti spam rendono alcune operazioni più semplici e sostituiscono gesti e interazioni fra noi e altri umani. Non ci sentiamo per questo dei robot né pensiamo che la tecnologia prenda il sopravvento sui nostri pensieri e possa entrare nelle nostre menti. 

Come mai si profilano allora scenari apocalittici, o al contrario improntati da un fiducioso ottimismo, sulla sostituzione di attività umane da parte delle macchine? Dove si collocano il libero arbitrio e competenze squisitamente umane, il senso di responsabilità individuale e collettiva rispetto al rischio di errori e difetti generati dalle macchine? Chi li controlla o chi ci controlla?

Dipanare una matassa ingarbugliata è complicato, ma non impossibile. E fare i conti con la scienza è necessario, oltre che doveroso, poiché l’evoluzione della tecnica e le sue applicazioni hanno sempre accompagnato l’evoluzione del genere umano. 

Per iniziare a sciogliere qualche nodo, è utile delimitare il campo semantico della cosiddetta “intelligenza” artificiale, distinguendo fra l’IA in senso lato e un suo sottoinsieme più limitato, l’IA generativa. La prima è in uso già da alcuni decenni e si è fatta strada silenziosamente con lo sviluppo di algoritmi sempre più sofisticati per svolgere compiti stabiliti in modo preciso e predeterminato, ovvero in risposta a istruzioni di automazione. La seconda ha avuto un impatto dirompente a partire dal 20 Novembre 2022 con il lancio, da parte di Open AI, di ChatGPT, un chatbot conversazionale (1) in grado di simulare una conversazione umana, perfezionato un anno dopo con GPTs, versioni personalizzate di modelli linguistici addestrabili dagli utenti. Grazie all’uso di milioni di persone, è stata acquisita una quantità di dati, con o senza consenso, in modo tale da rendere sempre più performanti le funzionalità multimodali (testo, audio, video e immagini) per generare contenuti sempre più personalizzati e personalizzabili. A partire da questo momento questa particolare declinazione dell’intelligenza artificiale è diventata accessibile a tutti perché non richiede le competenze di programmatori, informatici e data scientist e, aspetto non trascurabile, è gratuita, almeno nelle versioni più semplici e user friendly.

Si è quindi creata una cesura fra un ambito, quello scientifico, degli addetti ai lavori, che è più impalpabile da catturare e comprendere nei rispettivi usi, ma che ha confini più precisi e delimitati, e campi di applicazione che stanno evolvendo dal puro intrattenimento a usi professionali. È proprio questa crepa che sta facendo scricchiolare facili entusiasmi, alimentando dubbi e preoccupazioni sia fra il pubblico che fra gli esperti.

La prima questione riguarda l’assenza di una regolamentazione in un contesto che si sta espandendo a macchia d’olio. Ad esempio, chi si occupa di linguaggio e comunicazione può trovare in ChatGPT, Gemini, Copilot, You.Com e altri chatbot AI risorse utili non solo per scrivere, riassumere e tradurre testi, ma anche per avere suggerimenti creativi. Attività di copywriting e brainstorming, ad esempio, possono essere svolte con l’ausilio di modelli linguistici basati su meccanismi di “botta e risposta” in grado di fornire risultati sempre più precisi, cioè in linea con le aspettative degli utenti. A patto di saperli usare in modo informato, etico e consapevole, per non dire “intelligente”. E qui viene il bello. Chi è (più) intelligente, l’uomo o le macchine? 

Elena Esposito, sociologa allieva di Umberto Eco e Niklas Luhmann, che si occupa da anni di comunicazione, algoritmi e intelligenza artificiale (2), chiarisce questo aspetto introducendo un approccio nuovo che sgombra il campo da tanti equivoci:

Le macchine non hanno imparato a diventare intelligenti, ma a partecipare alla comunicazione, perché si può comunicare senza condividere gli stessi pensieri. Per questo più che di intelligenza artificiale dovremmo forse discutere di comunicazione artificiale” (3).

Molti esperti, tra cui James Bridley (4), parlano di antropomorfizzazione per metterci in guardia dal nostro modo di rapportarci alla realtà e da una visione distorta anche nei confronti dell’intelligenza artificiale. L’analogia fra algoritmi e intelligenza è fuorviante nell’attribuire alla tecnologia qualcosa che non è, cioè caratteristiche umane. In modo analogo quando si fa riferimento alle “reti neurali” per comprendere alcuni modelli di intelligenza artificiale, è necessario essere consapevoli che non devono essere confusi con le “reti neuronali” di cui imitano il funzionamento. Molti fraintendimenti sono dovuti all’uso di un linguaggio nato per semplificare e chiarire i concetti ma che usato in modo improprio può dare adito a interpretazioni false, come chiarisce anche Maurizio Ferraris:

Le macchine non sono né vive né morte, diversamente dagli organismi […] Quella che chiamiamo intelligenza in una macchina è sempre e soltanto una metafora” (5).

Mi sembra quindi interessante la nuova nomenclatura suggerito da Elena Esposito, anche perché implica un cambio di paradigma e sposta l’attenzione su questioni più pratiche, allargando i nostri orizzonti. 

Un dibattito che può fare la differenza è come gestire la competizione fra le intelligenze umane e forme automatizzate di gestione delle informazioni.

Capire cosa le macchine sono in grado di fare meglio di noi e quali compiti affidargli, prosegue Elena Esposito, è un primo passo per valutare, come cittadini, l’impatto delle nuove tecnologie e, per gli addetti ai lavori, per tracciare percorsi sostenibili.

I computer sanno tradizionalmente svolgere compiti strutturati, come l’elaborazione di buste paga, l’invio automatico di email, la programmazione di attività quali riunioni, agende, calendari. In questi casi le operazioni sono più o meno ripetitive e i risultati prevedibili, o almeno verificabili, dal momento che i dati in entrata e in uscita sono ben definiti. La mente umana è intelligente ma non altrettanto veloce rispetto alle capacità di calcolo e di elaborazione dati, specialmente quando si parla dei cosiddetti “big data” che vanno spesso a braccetto con le “Big Tech” e fanno molto discutere, basti pensare ad attività come la profilazione per l’e-mail marketing in cui molti dati vanno a beneficio di pochi, con tutte le implicazioni che conosciamo. Di cosa siamo invece capaci? Il raziocinio, la logica, il pensiero critico e creativo e una combinazione di queste e altre qualità rendono alcune attività umane uniche e insostituibili. Siamo capaci di progettare un prodotto, di supportare un team di lavoro, di mediare e risolvere conflitti personali, di prestare cura e assistenza a persone ammalate, di apprendere e di educare…

Si potrebbe continuare con altri esempi di attività non strutturate e di compiti cognitivi che sino a poco tempo fa erano una prerogativa umana. Le cose sono cambiate e stanno evolvendo rapidamente da quando anche le macchine hanno iniziato a essere addestrate in nuovi contesti con l’Apprendimento Automatico (6). Il punto di partenza è l’enorme quantità di dati disponibili su Internet come registrazioni di webcam e telecamere di sorveglianza, rilevazioni satellitari, dati della pubblica amministrazione, oltre a quelli a noi più accessibili come foto, video e testi presenti online, in questo caso di provenienza non sempre certificata, caricati su magazine, piattaforme social e chatbot AI. Il punto di arrivo sono applicazioni concrete negli ambiti più svariati. Diagnosi mediche, sistemi antifrode, riconoscimento di ostacoli per dispositivi di guida, analisi di dati comportamentali, moderazione di contenuti sui social network sono alcuni degli esempi di quello che viene comunemente indicato come knowledge work, traducibile in italiano come “lavoro cognitivo”. Tutto il percorso che c’è in mezzo può essere considerato come una sfida da affrontare per una distribuzione etica del lavoro. Se è lecito domandarsi quanti e quali posti di lavoro siano a rischio, gli studi più avanzati puntano a trovare soluzioni innovative che superano le logiche di una strategia difensiva per cogliere nuove opportunità.

Fra le proposte di cui si parla c’è quella che viene chiamata riduzione del carico cognitivo, applicabile a diversi settori, dall’istruzione alla finanza, dalla legge alla medicina. Ad esempio alleviare la fatica mentale di compiti ripetitivi per il personale sanitario consentirebbe di avere più tempo a disposizione per assistere i pazienti. In teoria sembra semplice, in pratica non lo è. Occorre sciogliere un altro nodo che sta a monte di tutti i processi: chi decide quali mansioni affidare alle macchine? Per quali scopi?

Ivana Bartoletti, riconosciuta come una delle massime esperte a livello internazionale per i suoi studi sulla tecnologia responsabile e sull’etica dell’IA (7), affronta il tema del mondo del lavoro ponendo l’accento sui decisori e sul ruolo della politica. Nel suo saggio “An Artificial Revolution: On Power, Politics and Ai” evidenzia il legame tra etica e tecnologia, fra dibattito pubblico e processi decisionali. Quando gli algoritmi sono addestrati non solo per classificare ma anche per decidere, entrano in gioco questioni etiche ed è qui che si annidano le vere minacce dell’intelligenza artificiale. Il riferimento a tutti gli ambiti con un impatto importante sulla vita delle persone è molto esplicito: ci sono algoritmi che filtrano a monte chi può svolgere un lavoro e chi no, penalizzando senza esclusione di colpi persone ritenute non idonee in base a criteri discriminatori come genere, età, classe sociale. Per questo non è etico affidare le decisioni agli algoritmi e la responsabilità non dipende dalle macchine, ma di chi sta alla guida, decidendo come e per quali scopi utilizzarle:

Dobbiamo smettere di pensare che gli algoritmi possano sostituirsi alle scelte che dobbiamo fare come società” (8).

Sembra quasi paradossale che, nonostante molti approcci nei confronti dell’intelligenza artificiale si siano ispirati a una visione antropomorfa, assistiamo a un risultato finale in cui l’uomo non è al centro dei processi decisionali né dei benefici attesi. Con un escamotage che assomiglia a uno scarico di responsabilità si pensa così di aggirare problemi complessi e si perpetua l’inganno iniziale, quello di attribuire agli strumenti di calcolo capacità senzienti, come se avessero una coscienza. Col rischio di prendere spunti per dare adito a una narrativa fantascientifica, tanto fuorviante quanto pericolosa, poiché un computer non prenderà mai il sopravvento. Può succedere. È vero. Ma – ce lo auguriamo – solo nei libri o nei film. 

Nella realtà, è possibile contenere i rischi di un uso pericoloso dell’intelligenza artificiale. Implica un cambio di prospettiva: anziché farci condurre dall’innovazione, come indica Ivana Bartoletti insieme ad altri autori, possiamo indirizzare l’innovazione verso i bisogni della società.

Note

(1) Una conversazione che avviene in una chat fra una persona che formula una domanda – tecnicamente un “prompt” – e una macchina con un modello linguistico programmato per fornire risposte. Per seguire le tappe e l’evoluzione dei LLM (Large Language Models) si può consultare l’articolo “Un anno di ChatGPT: a che punto è la rivoluzione AI?”, pubblicato su AI news – notizie sull’intelligenza artificiale il 30 Novembre 2023.

(2) Il suo libro più recente, edito da Bocconi University Press, è uscito nel 2022 e si intitola “Comunicazione artificiale”.

(3) “Automatica-mente: l’intelligenza artificiale nelle nostre vite”, Podcast di Luca De Biase per RayPlay Sound.

(4) Figura poliedrica con una formazione diversificata che spazia dall’informatica alle scienze cognitive, contamina la scrittura con installazioni artistiche, attivismo e impegno politico. Di recente ha scritto il libro Modi di essere, pubblicato in Italia da Rizzoli, in cui confuta l’esistenza di un’unica intelligenza: «quando pensiamo all’intelligenza ci riferiamo a ciò che noi umani facciamo (…) è una visione molto ristretta e limitata di questo concetto (…) Dobbiamo uscire dalla credenza che l’intelligenza sia solo nel cervello umano e vederla più in relazione e in rapporto con gli altri e l’altro».

(5) Maurizio Ferraris, Padroni, non schiavi della tecnica: sei passaggi per riprendere il controllo delle nostre vite, pubblicato il 13 Maggio 2021 sul magazine Agenda agendadigitale.eu

(6) Per approfondire l’argomento e comprendere la terminologia usata per specifici modelli di apprendimento, come il deep learning, il machine learning, il supervised learning, si rimanda al paper “Breve introduzione tecnica all’Intelligenza Artificiale” di Paolo Traverso, pubblicato il 7 Aprile 2022 sulla rivista online dell’Associazione di Diritto Pubblico Comparato Europeo sul sito www.dpce.it.

(7) Esperta di IA per il Consiglio d’Europa, già ricercatrice presso la Virginia Tech University, Ivana Bartoletti si occupa di questioni etico-giuridiche per promuovere i diritti e la privacy degli utenti. Lavorando a stretto contatto con scienziate, accademiche, imprenditrici e politiche provenienti da contesti molto diversi, nel 2004 ha contribuito a fondare l’associazione Women Leading in AI con l’obiettivo di costruire la parità di genere in questo campo.

(8) Ivana Bartoletti, An Artificial Revolution: On Powers, Politics and Ai, The Indigo Press, London, 2020.

Fonti

Bibliografia

James Bridle, Modi di essere

Maurizio Ferraris, Documanità. Filosofia del mondo nuovo, Laterza Editore, Bari, 2021

https://www.corriere.it/opinioni/23_dicembre_17/che-cosa-non-sappiamo-dell-intelligenza-naturale-e3e77112-9d00-11ee-8b34-1e18e1726a61.shtml

https://cris.unibo.it/retrieve/69d5ce7c-3d74-4c31-b4dc-5c99ed4df806/Esposito%20Intro.pdf

https://www.ingenere.it/prossima/ivana-bartoletti-il-futuro-dei-dati

https://www.ilmessaggero.it/tecnologia/moltofuturo/intelligenza_artificiale_creativita_imitazione_algoritmi_codice_etico_ivana_bartoletti_wipro_comprensione_mondo-7173953.html

https://www.raiplay.it/video/2019/09/498-D-IVANA-BARTOLETTI-460d7f51-9612-4fd6-9fe3-3704b7dfcbca.html

https://www.raiplay.it/video/2023/12/Digitalworld-Il-futuro-della-narrazione-digitale-b2dbfad0-b2f8-4b98-a9ef-2e09dd2ad61e.html

xhttps://www.raiplay.it/video/2023/10/Digitalworld-Dobbiamo-aver-paura-dellIA-de56e547-2cc2-4f11-9dbd-715c90c6be57.html

https://www.wired.it/attualita/tech/2019/03/13/intelligenza-artificiale-persone

https://www.itforbusiness.fr/la-desinformation-et-les-deepfakes-representent-un-risque-significatif-pour-la-stabilite-des-societes-73293