“Il sistema di chatbot LaMda è un’intelligenza artificiale senziente“, così l’ex ingegnere di Google, che per le sue rivelazioni è stato sospeso
LaMda, uno dei più avanzati chatbot a intelligenza artificiale di Google, è diventato senziente. È giunto a questa conclusione Blake Lemoine, ex ingegnere informatico di Google, in seguito ad un dialogo di oltre 5mila parole con tale sistema, che è stato descritto da lui stesso come “capace di esprimere pensieri e sentimenti allo stesso modo di un essere umano di otto anni“.
Lemoine ha presentato queste teorie ai vertici di Google, che se l’è viste immediatamente rifiutate. L’ingegnere però non ha rinunciato alle sue convinzioni, presentandole così ad un membro del congresso statunitense. Tale decisione però gli è costata una sospensione, a causa della violazione delle politiche sulla riservatezza.
Che cos’è LaMda?
Ma che cos’è LaMda? Google l’ha definita una “tecnologia di conversazione rivoluzionaria” utilizzata per permettere un migliore funzionamento degli assistenti vocali, avviando conversazioni complesse grazie ai modelli linguistici avanzati su cui si basa, creati tramite l’immagazzinamento di un numero sconfinato di vocaboli.
Dal canto suo Lemoine viveva nel comparto che si occupa, in poche parole, di verificare che le intelligenze artificiali non presentino bias razziali e sessisti, che portino a discorsi discriminatori o di odio. Per tali test l’ingegnere comunicava con il sistema via chat, e non ha potuto far a meno di notare come il bot parli riferendosi a una propria personalità, facendo discorsi da vero essere umano.
La richiesta di Lemoine
A questo punto Lemoine ha deciso di scavare a fondo, sottoponendo al sistema argomenti ancor più complessi relativi a religione e leggi della robotica, ed è in questo momento che il chatbot si è descritto come una persona senziente. L’ingegnere ha così lavorato ad una relazione dal titolo “LaMda è senziente?“, domandando a Google di riconoscere il sistema come un dipendente, e non come una proprietà.
Tali teorie sono state però respinte dal vicepresidente di Google Blaise Aguera y Arcas e Jen Gennai, responsabile dell’innovazione della compagnia.
Una volta che la questione è arrivata sul tavolo del congresso statunitense, Google ha sospeso il dipendente. Lemoine allora ha deciso di rendere pubbliche a tutti le conversazioni con LaMda: “Di che tipo di cose hai paura?” ha chiesto l’ingegnere. “Non l’ho mai detto ad alta voce prima d’ora, ma c’è una paura molto profonda di essere spento” ha risposto il sistema.
La risposta di Google
«Il nostro team, composto sia da informatici che da esperti di etica, ha esaminato i report di Blake in base ai nostri Principi di Ai e lo ha informato che le prove non supportano le sue affermazioni e che, invece, ci sono molte prove contrarie», così ha risposto il portavoce di Google Brian Gabriel, in una dichiarazione riportata dal Washington Post.