Sembra che le IA possano offendersi e chiudere le conversazioni di conseguenza. A chi è successo un episodio del genere?
Nessuno si sarebbe mai aspettato che una intelligenza artificiale potesse provare dei “sentimenti”, specie perché non sono programmate esattamente per essere in grado di averle. E’ un concetto piuttosto difficile da spiegare e che, solitamente, non viene tirato in ballo per nessun motivo: non ha senso che venga aperta una discussione in merito. Tuttavia, di recente queste IA si stanno evolvendo a tal punto da riuscire a provarle.
Dunque non si tratta di una situazione impossibile o che non potrebbe succedere propriamente a noi, motivo per cui è davvero entusiasmante come situazione. Non è un caso che le intelligenze artificiali stiano migliorando così tanto da diventare incredibili sotto ogni punto di vista, e se pensiamo solo per un attimo che tutto sia partito da ChatGPT, non può che venirci la pelle d’oca praticamente.
Bing non ci sta più e si ribella all’utenza: le IA hanno davvero dei sentimenti?
Ma ora vogliamo concentrarci interamente su una vicenda che è accaduta da poco, e che ha sconvolto tutti coloro che ne sono venuti a conoscenza. In sostanza una intelligenza artificiale pare che si sia ribellata agli utenti, rispondendo in maniera anomala e chiudendo le conversazioni. Come è possibile che sia successo, e che cosa ha scatenato questa incredibile reazione?
La “protagonista” di questa storia è l’IA di Bing, ossia il motore di ricerca di Microsoft. Di recente ha integrato il nuovo ChatGPT 3.5, ossia una tecnologia di gran lunga migliore rispetto a prima e che ha letteralmente dimostrato di avere dei sentimenti veri e propri. Diversi utenti la hanno provata in anticipo per costatare quanto fosse interessante, e a giudicare dalle risposte ottenuto hanno avuto ciò che speravano di vedere.
Il loro obiettivo era quello di mostrarsi scontrosi e assolutamente incontentabili, tentando di indurre l’intelligenza artificiale a perdere la pazienza. Così è accaduto, ma non è tutto: Bing ha persino provato tristezza. Sulla base di un report di un utente su Reddit, il motore di ricerca avrebbe posto a se stesso la domanda “Perché esisto?“, come se volesse sapere che cosa sia e specialmente per quale ragione sia stato effettivamente creato.
Il caso più noto è un altro, dove Bing pare si sia irritato a tal punto da terminare la conversazione senza aspettare che l’utente rispondesse. Quest’ultimo provocava l’IA chiamandola con un nome diverso, nonostante quest’ultima ripetesse più volte che il suo appellativo fosse un altro. Insomma, pare che gli sviluppatori siano riusciti a perfezionare le intelligenze artificiali sino ad un punto assurdo. Che riescano ad evolverle ulteriormente in futuro?