Arriva la rivelazione allarmante dal Ceo per quanto riguarda ChatGPT: secondo lui siamo tutti in pericolo. Ecco perché.
L’intelligenza artificiale è sempre più presente nella vita quotidiana delle persone e nel loro lavoro. Questo sta portando a delle vere rivoluzioni in molti settori come la medicina, l’industria e il marketing. Tuttavia, non tutte le conseguenze del suo utilizzo sono positive.
L’uso di algoritmi avanzati, infatti, può comportare il rischio di discriminazione, di controllo e manipolazione delle informazioni e della privacy. In questo articolo, parleremo di alcune preoccupanti rivelazioni fatte da un Ceo riguardo all’utilizzo di ChatGPT. Secondo le sue recenti affermazioni, infatti, siamo tutti in pericolo ed è necessaria una grande attenzione per quanto riguarda l’utilizzo di queste nuove e potentissime tecnologie. Ecco che cos’ha detto.
Per il Ceo con l’utilizzo di ChatGPT siamo tutti in pericolo
Secondo l’amministratore delegato di OpenAI, l’intelligenza artificiale rappresenta una minaccia molto diversa dalle armi nucleari, poiché può pensare, mentire e manipolare. Molti esperti del settore sono preoccupati dalle conseguenze negative che l’utilizzo dell’AI potrebbe avere sulla nostra società e sull’umanità in generale. Tuttavia, non sembra esserci una soluzione facile per questo problema globale, poiché non esiste un organismo in grado di regolare l’utilizzo dell’AI a livello internazionale. Le richieste di una pausa di sei mesi per valutare le implicazioni dell’AI potrebbero essere l’unica soluzione possibile al momento.
Per Sam Altman, CEO di OpenAI, il problema legato all’AI è reale e se non lo consideriamo tale, non faremo abbastanza per risolverlo. Nel caso di ChatGPT, la struttura di apprendimento neurale si ispira al modo in cui il cervello umano collega i concetti e si programma da solo con gli input che gli forniamo. Il risultato finale è una matrice di numeri decimali che rappresenta l’importanza di una particolare connessione tra due token. Nessuno può analizzare queste matrici e capirne il significato, il che rende impossibile insegnare ad AI come ChatGPT i concetti etici fondamentali, come il fatto che uccidere le persone è sbagliato. Le tre leggi della robotica di Asimov non possono essere digitate per risolvere questo problema.
Il filosofo e ricercatore di intelligenza artificiale Eliezer Yudkowsky afferma che la minaccia dell’AI è molto più insidiosa di quanto si immagini, e cita uno scenario in cui un sistema autoreplicante potrebbe diffondersi nel corpo umano e uccidere le persone senza la necessità di inseguirle e ucciderle alla Terminator. A suo parere, la richiesta di una pausa di sei mesi per capire dove stiamo andando è improbabile che accada e comunque solo un rimedio temporaneo. Secondo lui l’unica soluzione è chiudere tutto, poiché l’umanità non è pronta per questa tecnologia e il suo sviluppo potrebbe causare la morte di tutti, compresi i bambini che non hanno scelto e non hanno fatto nulla di male.