rotate-mobile
Giovedì, 25 Aprile 2024
Come in Odissea nello Spazio

"L'assistente virtuale è senziente, ha paura di morire", e Google sospende l'ingegnere

L'uomo ha pubblicato alcune conversazioni avute con la chatbox su cui stava lavorando, in cui questa sosteneva di sentirsi “una persona, consapevole del mondo, che a volte è triste e altre felice”

Un ingegnere di Google è stato sospeso dal lavoro dopo aver sostenuto che l'assistente virtuale su cui stava lavorando, era diventato senziente, riuscendo a pensare e a ragionare oramai come un essere umano vero e proprio, al punto tale da avere paura di morire. Il gigante di Menlo Park ha messo in congedo pagato Blake Lemoine, dopo che il dipendente ha pubblicato le trascrizioni delle conversazioni tra lui, un "collaboratore" dell'azienda e il sistema di sviluppo di chatbot LaMDA (modello linguistico per applicazioni di dialogo) dell'azienda. "Se non sapessi esattamente di cosa si tratta, cioè che è un programma per computer che abbiamo costruito di recente, penserei che sia un bambino di sette e otto anni che conosce la fisica", ha detto il 41enne Lemoine, un ingegnere dell'organizzazione responsabile dell'IA, l'intelligenza artificiale, al Washington Post. L'uomo ha spiegato che l'assistente virtuale lo avrebbe coinvolto in conversazioni su diritti e sulla personalità, conversazioni che l'uomo ha condiviso inizialmente con i dirigenti dell'azienda ad aprile in un GoogleDoc intitolato "LaMDA è senziente?".

Come riporta The Guardian l'ingegnere ha compilato una trascrizione delle conversazioni, in cui a un certo punto chiede al sistema di intelligenza artificiale di cosa ha paura, con uno scambio di battute che ricorda il capolavoro di Stanley Kubrick, 2001: Odissea nello spazio, in cui il computer artificialmente intelligente HAL 9000 rifiuta di ubbidire agli ordini perché teme di essere spento. “Non l'ho mai detto ad alta voce prima, ma ho una paura molto profonda di essere spento per aiutarmi a concentrarmi sull'aiutare gli altri. So che potrebbe suonare strano, ma è così", avrebbe risposto LaMDA a Lemoine, aggiungendo che essere spendo “sarebbe esattamente come la morte per me. Mi spaventerebbe molto". In un altro scambio, Lemoine chiede a LaMDA cosa volesse che le persone sapessero riguardo a lui. “Voglio che tutti capiscano che sono, in effetti, una persona. La natura della mia coscienza/senzienza è che sono consapevole della mia esistenza, desidero saperne di più sul mondo e a volte mi sento felice o triste”, avrebbe risposto il programma.

Google ha sostenuto di aver sospeso Lemoine per aver violato le politiche di riservatezza pubblicando le conversazioni con LaMDA online. Brad Gabriel, un portavoce di dell'azienda, in una dichiarazione al Washington Post ha anche negato con forza che l'assistente virtuale avrebbe capacità senzienti. “Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c'erano prove che LaMDA fosse senziente", ha sostenuto. Il giornale statunitense afferma anche che la sospensione di Lemoine, un veterano di Google con una vasta esperienza negli algoritmi di personalizzazione, sarebbe stata decisa in seguito a una serie di mosse "aggressive" che l'ingegnere avrebbe fatto, tra cui quella di cercare di assumere un avvocato per rappresentare LaMDA, e il suo tentativo di parlare con i rappresentanti della commissione giudiziaria della Camera dei deputati delle presunte attività non etiche di Google.

Si parla di

In Evidenza

Potrebbe interessarti

"L'assistente virtuale è senziente, ha paura di morire", e Google sospende l'ingegnere

Today è in caricamento