ArticoloIntelligenza artificiale
Effetto Eliza: come interagiamo con le macchine parlanti?
Intervista ad Alexei Grinbaum, Presidente del Comitato operativo sull’etica digitale presso la Commissione francese
per l’energia atomica e le energie alternative (CEA) e direttore della ricerca presso il CEA-Saclay, a cura di François Euvé e Nathalie Sarthou-Lajus della Redazione di Études
Può iniziare spiegando le principali tappe della storia dell’intelligenza
artificiale e delle “macchine parlanti”?
Il sogno di creare macchine che ci parlino in linguaggio naturale risale a
molto tempo fa. Al 1966 data la prima realizzazione tecnica. A Boston,
presso il MIT (Massachusetts Institute of Technology), il professor Joseph
Weizenbaum (1923-2008) costruì una macchina che oggi riterremmo
molto semplice, a cui diede il nome di “Eliza”. Poteva fare solo una cosa:
prendere una frase e capovolgerla. Funzionava un po’ come uno psicologo
rogersiano, cioè come qualcuno che fa finta di non sapere nulla. Lo stesso
Weizenbaum non si aspettava molto dalla sua macchina ma, con sua
grande sorpresa, si rese conto che aveva sulle persone un effetto reale, che da allora è stato chiamato “effetto
Eliza”. Questo è il potere del linguaggio:
la macchina parlante, per
quanto sia semplice, ha già un effetto
sull’utente, anche se sa benissimo
che si tratta di una macchina.
Con la rivoluzione del 2017, detta
“dei transformers”, le macchine
sono infinitamente più sofisticate
di Eliza e l’effetto è notevolmente
amplificato. L’apprendimento consiste
in due fasi: da un lato, la macchina
“gioca a nascondino” da sola,
cioè sottrae una parola e cerca di
indovinarla. Ad esempio, nasconde
a se stessa la parola “leone” e fa un’ipotesi probabilistica per individuare la
parola mancante, stimando con il 60% di probabilità che sia “leone”, con
il 40% “tigre”, con il 10% “pantera”, ecc. Poi mostra a se stessa la parola
e aggiorna i suoi parametri, facendo questo esercizio miliardi di volte. Si
chiama apprendimento per auto-supervisione. Ma l’altra fase è essenziale.
Invece delle parole, la macchina scompone il linguaggio in pezzi più piccoli,
chiamati token. In linguaggio umano, la maggior parte dei token non
ha senso: sono solo assemblaggi di due, tre o quattro lettere, e a volte anche
due lettere di una parola attaccate alle due lettere della parola successiva.
Per esempio, dopo una “q” c’è sempre una “u”: quindi “qu” forma un
token. Il meccanismo non considera la sequenza delle parole ma, quando
sottrae un token, cerca di indovinarlo guardando tutti gli altri token, e poi
l’intero testo: cinque righe in alto, dieci righe in basso, ecc. L’interazione di
ogni token con gli altri è puramente numerica. Inoltre, non è lineare. Questa
è l’idea rivoluzionaria che ha reso finalmente possibile la padronanza
del linguaggio attraverso le reti neurali.
[Continua]
Ti interessa continuare a leggere questo articolo? Se sei abbonato inserisci le tue credenziali oppure
abbonati per sostenere Aggiornamenti Sociali
Update RequiredTo play the media you will need to either update your browser to a recent version or update your
Flash plugin.
© FCSF 