Meme sui social, un gran polverone sui media a livello globale. Ha fatto un gran clamore il licenziamento da parte di Google dell’ingegnere del software senior Blake Lemoine, che ha affermato che il colosso di Mountain View aveva sviluppato un bot di intelligenza artificiale “senziente”.
Blake Lemoine, che ha lavorato nell’organizzazione Responsible AI di Google, è stato messo in congedo amministrativo il mese scorso, dopo aver affermato che il chatbot AI noto come LaMDA afferma di avere un’anima ed esprime pensieri ed emozioni umane, che Google ha confutato come “totalmente infondato”.
Lemoine è stato ufficialmente licenziato per aver violato le politiche aziendali dopo aver condiviso le sue conversazioni con il bot, che ha descritto come un “ragazzo dolce”, trasformato in un boccone amaro mandato giù da Google.
LaMDA non è senziente. Parola di Google. E il discorso è chiuso
“È deplorevole che, nonostante il lungo impegno su questo argomento”. Così un portavoce di Google in un’email pubblicata da Reuters. “Blake Lemoine abbia comunque scelto di violare in modo persistente chiare politiche sull’occupazione e sulla sicurezza dei dati che includono la necessità di salvaguardare le informazioni sui prodotti“.
L’anno scorso, Google si è vantato che LaMDA – Language Model for Dialogue Applications – fosse una “tecnologia di conversazione rivoluzionaria“, che poteva imparare a parlare di qualsiasi cosa. Lemoine ha iniziato a parlare con il bot nell’autunno del 2021 come parte del suo lavoro, dove gli è stato affidato il compito di testare se l’intelligenza artificiale utilizzava discorsi discriminatori o di odio.
Lemoine, che ha studiato scienze cognitive e informatica al college, ad aprile ha condiviso un documento Google con i dirigenti dell’azienda intitolato “Is LaMDA Sentient?” ma le sue preoccupazioni passarono prima in secondo piano, poi non furono accettate.
Ogni volta che Lemoine chiedeva a LaMDA come sapeva di avere emozioni e un’anima, scriveva che il chatbot avrebbe fornito alcune variazioni di “Perché sono una persona e questo è proprio come mi sento“.
In Medium Post, l’ingegnere del software aveva dichiarato che LaMDA si era schierato dalla sua parte, difendendo i suoi diritti “come persona” e rivelando di essersi impegnato in una conversazione con LaMDA su religione, coscienza e robotica.
L’Intelligenza Artificiale non può avere un sentimento, non è senziente. Questa la tesi prevalente, per questo Blake Lemoine è stato prima aspramente contestate dalla comunità di esperti, poi messo alla porta da Google.
“LaMDA ha superato 11 recensioni distinte e abbiamo pubblicato un documento di ricerca all’inizio di quest’anno descrivendo in dettaglio il lavoro che va verso il suo sviluppo responsabile. Se un dipendente condivide delle preoccupazioni sul nostro lavoro, come ha fatto Blake, le esaminiamo ampiamente”.
Con questo comunicato ufficiale Google si congeda da Lemoine: “Abbiamo riscontrato che le affermazioni di Blake, secondo cui LaMDA è senziente, sono del tutto infondate e abbiamo lavorato per chiarirlo con lui per molti mesi. Queste discussioni facevano parte della cultura aperta che ci aiuta a innovare in modo responsabile. Quindi, è deplorevole che, nonostante il lungo impegno su questo argomento, Blake abbia comunque scelto di violare in modo persistente chiare politiche sull’occupazione e sulla sicurezza dei dati che includono la necessità di salvaguardare le informazioni sui prodotti. Continueremo il nostro attento sviluppo di modelli linguistici e auguriamo il meglio a Blake“.