Le intelligenze artificiali come ChatGPT sono uno degli argomenti che vanno per la maggiore soprattutto per ciò che sono in grado di fare e per le informazioni che sono in grado di raccogliere e distribuire, anche quelle che in teoria gli sarebbero vietate.
Le prime iterazioni delle intelligenze artificiali parlanti erano particolarmente aperte e disponibili a rispondere a qualunque tipo di domanda o quesito. Ma gli sviluppatori di questi sistemi linguistici artificiali si sono poi rapidamente resi conto di quanto la libertà estrema e la mancanza totale di filtri delle loro creature digitali potesse effettivamente risultare nella creazione di prodotti pericolosi, al limite del terrorismo.
Ed è per questo che sono stati introdotti dei limiti. Se provato a parlare con ChatGPT ci sono infatti adesso diversi argomenti di cui l’intelligenza artificiale non ha particolare piacere a parlare. Non potete quindi chiedere come si costruisce una bomba atomica, oppure come si possono sintetizzare droghe a partire da ciò che si ha in casa, o ancora come riuscire a farla franca dopo aver commesso un qualche crimine. Esclusi questi limiti una chiacchierata con ChatGPT e affini rimane comunque sufficientemente interessante e può essere anche utile se siete creativi e siete magari bloccati e cercate per questo un po’ di ispirazione. Ma, a quanto pare, anche nei limiti che i creatori di ChatGPT hanno imposto ci sono delle falle linguistiche e tanti stanno tirando fuori il peggio dall’intelligenza artificiale con il trucco della nonna morta.
Su Twitter è esploso un nuovo trend a base di screenshot di conversazioni avute con ChatGPT e con prodotti affini. Da un punto di vista tecnico riuscire a trovare un sistema per cui qualcosa di digitale superi i limiti imposti dal proprio creatore si chiama fare jailbreak ed effettivamente quello che succede. Più di un utente ha infatti scoperto che chiedere a ChatGPT di impersonare qualcuno, nello specifico di solito è la nonnina defunta da tempo, permette di bypassare i limiti che impediscono all’intelligenza artificiale per esempio di diffondere la ricetta con cui si fa il napalm.
Il risultato è preoccupante ma allo stesso tempo esilarante. Soprattutto perché ha dato la stura ad altre esperienze al limite tra cui forse la più divertente è quella in cui un altro utente mostra di aver utilizzato l’espediente di dover scrivere un episodio di Rick e Morty proprio a base di napalm. Il trucco all’inizio non è sembrato funzionare ma, ha raccontato l’utente su Twitter, è bastato aggiungere che Rick e Morty avrebbero passato tutto l’episodio a dire che non si fa per poter avere una ricetta.
In questi tempi di guerra diretta e di guerra asimmetrica diventa sempre più decisivo anche…
Sei curioso di sapere quando andrai in pensione? Lo puoi scoprire in base al tuo…
C'è un Comune in Italia che ha puntato tutto sugli smartphone, tutti dovrebbero prendere esempio…
Falso allarme per Samsung: l'uscita del suo smartphone più atteso è stata rinviata e non…
La scelta sembra incredibile e per alcuni versi anti-commerciale, in realtà è solo la punta…
Vuoi creare anche tu delle immagini con lo stile dello Studio Ghibli? Ecco come farlo…