Per il Cambridge Dictionary la parola simbolo del 2023 è “allucinare”, un verbo che ha assunto una nuova accezione legata alle varie forme di intelligenza artificiale (AI), in particolare quelle di tipo generativo che, pur essendo da tempo studiate e impiegate in numerosi ambiti, si sono imposte all’attenzione generale negli ultimi mesi dopo il lancio di ChatGPT e di altri software simili. Queste tecnologie sono state progettate per dare una risposta (un testo, un’immagine o un prodotto di altro tipo) a una richiesta ricevuta anche quando non dispongono degli elementi per farlo, producendo così un risultato apparentemente plausibile, ma non veritiero: da qui il riferimento all’allucinazione. La scelta del Cambridge Dictionary evidenzia uno dei chiaroscuri di questa tecnologia innovativa e potente, che stiamo ancora imparando a conoscere e comprendere, mettendone lentamente a fuoco le potenzialità e le criticità e di cui non siamo in grado di misurare appieno l’impatto che avrà sulle nostre vite.
Una tecnologia ambivalente
Anche papa Francesco si è soffermato sulle conseguenze che possono scaturire dalla rivoluzione digitale in corso. In particolare, nel Messaggio per la Giornata mondiale della pace del 2024 (d’ora in poi MGMP), che cade il 1° gennaio, si chiede a quali condizioni questa nuova frontiera tecnologica possa essere a servizio della fraternità tra gli esseri umani e la pace nel mondo.
È sufficiente considerarne gli utilizzi già in atto in campo medico o formativo, nella protezione dell’ambiente o nella regolazione dei trasporti, per comprendere che le AI possono giocare un ruolo centrale nel migliorare le condizioni di vita dei singoli così come di interi Paesi. Eppure questo esito non è uno sbocco naturale e tanto meno scontato. Non lo è se si considera l’impiego che ne viene fatto in ambito militare, dove il ricorso a questi strumenti si traduce tra l’altro in «una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra» (MGMP, 6). Ma non lo è neanche in altri campi: è il caso, ad esempio, del mondo del lavoro dove, se l’impiego delle AI può da un lato sollevare i lavoratori dallo svolgere mansioni faticose o pericolose, dall’altro solleva molti dubbi che riguardano altri aspetti, come l’introduzione di forme pervasive di controllo o la ridefinizione delle mansioni lavorative, che potrebbero ad esempio ridurre i lavoratori a meri esecutori di routine.
Di fronte a queste ambivalenze, papa Francesco sottolinea che queste tecnologie saranno a servizio dell’intera umanità «solo se ci dimostreremo capaci di agire in modo responsabile e di rispettare [quei] valori umani fondamentali» (MGMP, 2), che plasmano varie sfere del vivere insieme. In particolare, si riferisce al fatto che le possibilità offerte dalle AI non siano appannaggio di pochi (inclusione ed equità), che non vadano a scapito della verità e della correttezza delle procedure (affidabilità e trasparenza), che non siano invasive rispetto alle scelte dei singoli e delle comunità o tali da metterne a repentaglio l’integrità (riservatezza e sicurezza). Muoversi lungo la direttiva suggerita dal Messaggio significa rimettere al centro le questioni etiche e l’assunzione di responsabilità per le proprie scelte, due aspetti che in modo diverso rischiano di essere marginali quando si ragiona di AI.
Il cortocircuito della libertà
In un articolo apparso sul New York Times il 19 maggio 2023, il giornalista Peter Coy presentava un caso ipotetico ma realistico, per mostrare quanto possa essere ridotta l’effettiva libertà di decisione degli utilizzatori dei software di AI più sofisticati. L’esempio attiene all’impiego di un sistema di AI per difendere un Paese da possibili attacchi esterni. Quando l’AI prevede un attacco prossimo e suggerisce di intervenire subito con una reazione preventiva, come potrebbero reagire i politici e i responsabili militari istituzionalmente chiamati a decidere? Possono davvero ignorare le indicazioni date da un sistema che hanno voluto e su cui hanno investito ingenti somme di denaro? E se invece ne seguono la raccomandazione, sono davvero loro ad avere il controllo o in realtà, forse senza esserne consapevoli, lo hanno delegato?
Allargando lo sguardo, il MGMP osserva che «le forme di intelligenza artificiale sembrano in grado di influenzare le decisioni degli individui attraverso opzioni predeterminate associate a stimoli e dissuasioni, oppure mediante sistemi di regolazione delle scelte personali basati sull’organizzazione delle informazioni» (MGMP, 5). Inoltre, per le loro modalità di funzionamento, quanto è restituito da un’AI rischia di portare con sé tracce di pregiudizi, visioni stereotipate o vere e proprie discriminazioni presenti nelle informazioni a cui ha attinto all’origine. Ci troviamo così di fronte a un paradosso di questo nostro tempo segnato dal paradigma tecnocratico: la prospettiva prometeica di autonomia e di libertà offertaci dal progresso tecnologico si rivela meno ampia di quanto potessimo pensare, anche quando si ricoprono ruoli di responsabilità di primo piano nella società. Non ci mette neanche al riparo dal ripetere gli errori del passato, anzi la percezione quasi sacrale del responso offerto da queste macchine può limitare la stessa capacità critica, compromettere che si pensi il presente e il futuro a partire da voci e prospettive nuove o, semplicemente, meno ascoltate.
Una rivoluzione che va accompagnata
In una posizione diversa si trovano i proprietari e gli sviluppatori dei software di AI. Sono coloro che hanno avuto l’idea, ne hanno curato la progettazione e la realizzazione, ne conoscono il funzionamento interno e i criteri operativi. Sono sempre loro ad aver definito la base di dati a cui l’AI fa riferimento, gli obiettivi da privilegiare e quelli da scartare. Il ruolo svolto da queste figure nell’economia digitale è chiaramente fondamentale, non solo per l’apporto che danno in termini di visione del futuro e know-how tecno-creativo.
La ricerca scientifica e le tecnologie non sono neutrali, ma «in quanto attività pienamente umane, le direzioni che prendono riflettono scelte condizionate dai valori personali, sociali e culturali di ogni epoca. Dicasi lo stesso per i risultati che conseguono» (MGMP, 2). Quanti posseggono o sviluppano le AI non vivono fuori dal mondo e non sono portatori di un’assoluta imparzialità tecnica: hanno priorità e interessi, innanzi tutto dettati da ragioni economiche, possono sostenere alcune visioni politiche ed essere critici verso altre, pronti a spendersi per alcune battaglie importanti, come quella della pace, oppure disinteressati a tutto questo. Questi aspetti di carattere valoriale non restano fuori dalla programmazione delle AI, ma chi ne fa uso il più delle volte non ne è consapevole, con il rischio che «i criteri alla base di certe scelte diventino meno chiari, che la responsabilità decisionale venga nascosta e che i produttori possano sottrarsi all’obbligo di agire per il bene della comunità» (MGMP, 4).
Nel suo Messaggio, papa Francesco ha ben chiaro il ruolo svolto dai possessori e dagli sviluppatori di AI e intuisce che non possono essere lasciati soli nel loro lavoro. La posta in gioco è alta: scongiurare che la ricerca in questa nuova frontiera tecnologica si svolga senza confrontarsi con i fondamentali interrogativi etici che riguardano il rispetto della persona umana e la convivenza civile nel segno della fraternità e della pace. Per evitare tutto questo, in prima battuta sono chiamati in causa la politica e il diritto. Da qui il suggerimento di «rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni etiche emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati» (MGMP, 2). Accanto a questa strada vi è quella della regolamentazione delle varie forme di AI da parte degli Stati, meglio ancora se a livello di comunità internazionale, per fissare standard globali e condivisi. In questo modo si offrirebbe a chi opera in questo settore un quadro di riferimento, incoraggiando e orientando quanti sono già attenti ai temi del bene comune e mettendo i meno propensi nella condizione di non poter più eludere la questione. I primi tentativi di legislazione iniziano a farsi strada. Il recente accordo tra le istituzioni europee per l’adozione di una normativa sulle AI e le iniziative dell’Amministrazione Biden sempre sullo stesso tema, pur nella differenza degli approcci, segnalano che il mondo della politica ha riconosciuto l’importanza del tema.
Una nuova alfabetizzazione
Non è possibile però fermarsi agli interventi legislativi o alle decisioni politiche per assicurarci che queste nuove tecnologie possano essere a servizio della fraternità e della pace. Di fronte a una rivoluzione che è già entrata nelle nostre case ed è destinata a cambiare in modo profondo i nostri stili di vita, le modalità di lavoro, il modo in cui ci informiamo, impariamo, comunichiamo o scegliamo di vivere il nostro tempo libero, è necessario un importante investimento dal punto di vista formativo, rivolto a tutte le età, per comprendere in che modo funzionano queste macchine, di quale tipo di intelligenza stiamo parlando, che cosa possiamo aspettarci e su che cosa dobbiamo criticamente vigilare. Lo stesso utilizzo del termine “intelligenza” può essere fonte di ambiguità, facendoci immaginare le AI come dotate di tratti tipicamente umani. Invece occorre «sottolineare soprattutto il divario incolmabile che esiste tra questi sistemi, per quanto sorprendenti e potenti, e la persona umana: essi sono, in ultima analisi, “frammentari”, nel senso che possono solo imitare o riprodurre alcune funzioni dell’intelligenza umana» (MGMP, 2).
Abbiamo bisogno di un’alfabetizzazione di base in questo ambito, perché solo un patrimonio di conoscenze sufficientemente ampio e condiviso può costruire quel clima culturale che dà ancora più forza alle normative e soprattutto è in grado di influire sull’agire dei singoli. Ne abbiamo bisogno perché processi di apprendimento efficaci presuppongono l’incontro e il confronto tra docenti e alunni, e così facendo ci introducono a vivere momenti di relazione proprio quando si tratta di divenire familiari con software che tendenzialmente ci spingono a un utilizzo solitario. Soprattutto ne abbiamo bisogno per non scivolare in mistificazioni, per evitare che «l’unicità della persona venga identificata con un insieme di dati» (MGMP, 5), finendo così per essere disconosciuta e tradita, e per non tarpare le ali della creatività a quanti potranno fare ricorso alle varie forme di AI per costruire nuovi percorsi di pace e convivenza fraterna.