L’intelligenza artificiale (AI) è ormai entrata a far parte della nostra quotidianità, che ne siamo consapevoli o meno. Il filosofo Luciano Floridi, che si occupa di questo argomento da diversi anni, ha raccolto e approfondito alcuni suoi contributi in un volume per dare un quadro complessivo sui risvolti etici al riguardo. Lo scopo è duplice: informare sullo stato dell’arte attuale e cercare di trovare dei parametri per delineare il futuro su tre livelli: istituzioni, imprese e semplici cittadini.
La consapevolezza di essere in un cambio d’epoca in cui la realtà diventa sempre più digitale (trasformandosi nell’infosfera, come la chiama l’A.) ci pone in una posizione privilegiata: possiamo plasmare il presente e il futuro definendo le linee guida per la programmazione e lo sviluppo degli algoritmi. Avendo in mano gli strumenti, potremmo decidere davvero dove andare. Infatti «quanto più ci piace la nostra destinazione, tanto più rapidamente vorremo arrivarci. È perché ci manca un chiaro senso di direzione sociopolitica che siamo preoccupati dalla velocità del nostro viaggio tecnologico» (p. 126).
Ed è qui che si inserisce la riflessione etica. L’A. parte dal concetto stesso di AI: «Il problema dell’intelligenza artificiale è quello di far sì che una macchina agisca con modalità che sarebbero definite intelligenti se un essere umano si comportasse allo stesso modo» (p. 44). Siamo di fronte a una nuova forma di comportamento, non a una nuova intelligenza o razionalità. E l’agire va regolato. Il rischio altrimenti è che «gli esseri umani possono diventare inavvertitamente parte del meccanismo. Questo è proprio ciò che Kant raccomandava di non fare mai: trattare gli esseri umani solo come mezzi anziché come fini» (p. 59).
Nell’affrontare questo tema, l’A. si propone di accompagnare il lettore senza dare per scontate acquisizioni precedenti e spiegando molti passaggi. Sebbene non si tratti di una lettura di divulgazione per il grande pubblico, la struttura e la qualità della scrittura facilitano l’ingresso nelle diverse sezioni, che danno solo cenni della complessità e della vastità dell’argomento e fanno intuire quanto siano vaste la letteratura e la bibliografia al riguardo.
Nel nucleo speculativo dell’opera (capitolo 4) vengono enunciati, a partire dal confronto con le posizioni già assunte da diversi enti nazionali e sovranazionali, i principi etici che possono essere di riferimento e guidare nella valutazione dei benefici e dei rischi. Questi principi, che farebbero parte di un’etica digitale condivisa, sono: beneficenza, non maleficenza, autonomia, giustizia, esplicabilità. Mentre i primi quattro sono comuni all’agire umano, l’ultimo caratterizza l’agire dell’AI e delle sue applicazioni in macchine “intelligenti” (definite agenti artificiali o AA). Questo principio consta di due elementi: la trasparenza e la responsabilità. Il primo risponde alla domanda «Come funziona?» ed è una condizione di possibilità per l’agire etico. Conoscere fino in fondo come l’algoritmo o la macchina funzioni può essere fondamentale (perché l’umano possa capire i risultati o prendere una decisione autonomamente) oppure un ostacolo (sapendolo è possibile modificare i comportamenti e dunque falsare i risultati). Da qui il secondo aspetto: «Chi è responsabile del comportamento/risultato?». Il progettista? L’utilizzatore? L’agente artificiale stesso? L’A. propenderebbe per lo sviluppatore o l’utente, ma il dibattito rimane aperto, complicato anche dal fatto che spesso l’AI sviluppata attraverso machine learning a reti neuronali (dinamica dell’addestramento, dove la macchina “impara” da sé) arriva a modificare la propria struttura in modo del tutto ignoto allo sviluppatore stesso (ciò che riguarda la spiegabilità).
A questi elementi che formano l’etica digitale (la soft law) serve affiancare anche una regolamentazione digitale per dare dei paletti normativi al suo sviluppo e utilizzo (la hard law) e arrivare a una direzione da prendere a livello politico e sociale, la governance digitale. A questo proposito sono citati alcuni documenti europei o internazionali, oltre a numerosi esempi di utilizzo per il bene sociale ed ecologico del pianeta. Non vengono negati i rischi, che sono ben analizzati, senza però dare credito a visioni fantascientifiche o catastrofiche (nessun Terminator in vista).
La conclusione del filosofo è un richiamo forte alla nostra responsabilità e la chiamata a mantenere la propria autonomia, in un ambiente sempre più avvolto, cioè sempre più costruito a misura di AI, per evitare difficoltà alle macchine. Chi si adatterà a chi?