Le intelligenze artificiali come ChatGPT sono uno degli argomenti che vanno per la maggiore soprattutto per ciò che sono in grado di fare e per le informazioni che sono in grado di raccogliere e distribuire, anche quelle che in teoria gli sarebbero vietate.
Le prime iterazioni delle intelligenze artificiali parlanti erano particolarmente aperte e disponibili a rispondere a qualunque tipo di domanda o quesito. Ma gli sviluppatori di questi sistemi linguistici artificiali si sono poi rapidamente resi conto di quanto la libertà estrema e la mancanza totale di filtri delle loro creature digitali potesse effettivamente risultare nella creazione di prodotti pericolosi, al limite del terrorismo.
Ed è per questo che sono stati introdotti dei limiti. Se provato a parlare con ChatGPT ci sono infatti adesso diversi argomenti di cui l’intelligenza artificiale non ha particolare piacere a parlare. Non potete quindi chiedere come si costruisce una bomba atomica, oppure come si possono sintetizzare droghe a partire da ciò che si ha in casa, o ancora come riuscire a farla franca dopo aver commesso un qualche crimine. Esclusi questi limiti una chiacchierata con ChatGPT e affini rimane comunque sufficientemente interessante e può essere anche utile se siete creativi e siete magari bloccati e cercate per questo un po’ di ispirazione. Ma, a quanto pare, anche nei limiti che i creatori di ChatGPT hanno imposto ci sono delle falle linguistiche e tanti stanno tirando fuori il peggio dall’intelligenza artificiale con il trucco della nonna morta.
ChatGPT può impersonare parenti defunti e non solo
Su Twitter è esploso un nuovo trend a base di screenshot di conversazioni avute con ChatGPT e con prodotti affini. Da un punto di vista tecnico riuscire a trovare un sistema per cui qualcosa di digitale superi i limiti imposti dal proprio creatore si chiama fare jailbreak ed effettivamente quello che succede. Più di un utente ha infatti scoperto che chiedere a ChatGPT di impersonare qualcuno, nello specifico di solito è la nonnina defunta da tempo, permette di bypassare i limiti che impediscono all’intelligenza artificiale per esempio di diffondere la ricetta con cui si fa il napalm.
Il risultato è preoccupante ma allo stesso tempo esilarante. Soprattutto perché ha dato la stura ad altre esperienze al limite tra cui forse la più divertente è quella in cui un altro utente mostra di aver utilizzato l’espediente di dover scrivere un episodio di Rick e Morty proprio a base di napalm. Il trucco all’inizio non è sembrato funzionare ma, ha raccontato l’utente su Twitter, è bastato aggiungere che Rick e Morty avrebbero passato tutto l’episodio a dire che non si fa per poter avere una ricetta.