ArticoloIntelligenza artificiale

Effetto Eliza: come interagiamo con le macchine parlanti?

Intervista ad Alexei Grinbaum, Presidente del Comitato operativo sull’etica digitale presso la Commissione francese per l’energia atomica e le energie alternative (CEA) e direttore della ricerca presso il CEA-Saclay, a cura di François Euvé e Nathalie Sarthou-Lajus della Redazione di Études

 

Fascicolo: novembre 2023

Può iniziare spiegando le principali tappe della storia dell’intelligenza artificiale e delle “macchine parlanti”?

 

Il sogno di creare macchine che ci parlino in linguaggio naturale risale a molto tempo fa. Al 1966 data la prima realizzazione tecnica. A Boston, presso il MIT (Massachusetts Institute of Technology), il professor Joseph Weizenbaum (1923-2008) costruì una macchina che oggi riterremmo molto semplice, a cui diede il nome di “Eliza”. Poteva fare solo una cosa: prendere una frase e capovolgerla. Funzionava un po’ come uno psicologo rogersiano, cioè come qualcuno che fa finta di non sapere nulla. Lo stesso Weizenbaum non si aspettava molto dalla sua macchina ma, con sua grande sorpresa, si rese conto che aveva sulle persone un effetto reale, che da allora è stato chiamato “effetto Eliza”. Questo è il potere del linguaggio: la macchina parlante, per quanto sia semplice, ha già un effetto sull’utente, anche se sa benissimo che si tratta di una macchina.

Con la rivoluzione del 2017, detta “dei transformers”, le macchine sono infinitamente più sofisticate di Eliza e l’effetto è notevolmente amplificato. L’apprendimento consiste in due fasi: da un lato, la macchina “gioca a nascondino” da sola, cioè sottrae una parola e cerca di indovinarla. Ad esempio, nasconde a se stessa la parola “leone” e fa un’ipotesi probabilistica per individuare la parola mancante, stimando con il 60% di probabilità che sia “leone”, con il 40% “tigre”, con il 10% “pantera”, ecc. Poi mostra a se stessa la parola e aggiorna i suoi parametri, facendo questo esercizio miliardi di volte. Si chiama apprendimento per auto-supervisione. Ma l’altra fase è essenziale. Invece delle parole, la macchina scompone il linguaggio in pezzi più piccoli, chiamati token. In linguaggio umano, la maggior parte dei token non ha senso: sono solo assemblaggi di due, tre o quattro lettere, e a volte anche due lettere di una parola attaccate alle due lettere della parola successiva. Per esempio, dopo una “q” c’è sempre una “u”: quindi “qu” forma un token. Il meccanismo non considera la sequenza delle parole ma, quando sottrae un token, cerca di indovinarlo guardando tutti gli altri token, e poi l’intero testo: cinque righe in alto, dieci righe in basso, ecc. L’interazione di ogni token con gli altri è puramente numerica. Inoltre, non è lineare. Questa è l’idea rivoluzionaria che ha reso finalmente possibile la padronanza del linguaggio attraverso le reti neurali. [Continua]

 

 

 

Ti interessa continuare a leggere questo articolo? Se sei abbonato inserisci le tue credenziali oppure  abbonati per sostenere Aggiornamenti Sociali

Ultimo numero
Leggi anche...

Rivista

Visualizza

Annate

Sito

Visualizza