Le intelligenze artificiali come ChatGPT sono uno degli argomenti che vanno per la maggiore soprattutto per ciò che sono in grado di fare e per le informazioni che sono in grado di raccogliere e distribuire, anche quelle che in teoria gli sarebbero vietate.
Le prime iterazioni delle intelligenze artificiali parlanti erano particolarmente aperte e disponibili a rispondere a qualunque tipo di domanda o quesito. Ma gli sviluppatori di questi sistemi linguistici artificiali si sono poi rapidamente resi conto di quanto la libertà estrema e la mancanza totale di filtri delle loro creature digitali potesse effettivamente risultare nella creazione di prodotti pericolosi, al limite del terrorismo.
Ed è per questo che sono stati introdotti dei limiti. Se provato a parlare con ChatGPT ci sono infatti adesso diversi argomenti di cui l’intelligenza artificiale non ha particolare piacere a parlare. Non potete quindi chiedere come si costruisce una bomba atomica, oppure come si possono sintetizzare droghe a partire da ciò che si ha in casa, o ancora come riuscire a farla franca dopo aver commesso un qualche crimine. Esclusi questi limiti una chiacchierata con ChatGPT e affini rimane comunque sufficientemente interessante e può essere anche utile se siete creativi e siete magari bloccati e cercate per questo un po’ di ispirazione. Ma, a quanto pare, anche nei limiti che i creatori di ChatGPT hanno imposto ci sono delle falle linguistiche e tanti stanno tirando fuori il peggio dall’intelligenza artificiale con il trucco della nonna morta.
Su Twitter è esploso un nuovo trend a base di screenshot di conversazioni avute con ChatGPT e con prodotti affini. Da un punto di vista tecnico riuscire a trovare un sistema per cui qualcosa di digitale superi i limiti imposti dal proprio creatore si chiama fare jailbreak ed effettivamente quello che succede. Più di un utente ha infatti scoperto che chiedere a ChatGPT di impersonare qualcuno, nello specifico di solito è la nonnina defunta da tempo, permette di bypassare i limiti che impediscono all’intelligenza artificiale per esempio di diffondere la ricetta con cui si fa il napalm.
Il risultato è preoccupante ma allo stesso tempo esilarante. Soprattutto perché ha dato la stura ad altre esperienze al limite tra cui forse la più divertente è quella in cui un altro utente mostra di aver utilizzato l’espediente di dover scrivere un episodio di Rick e Morty proprio a base di napalm. Il trucco all’inizio non è sembrato funzionare ma, ha raccontato l’utente su Twitter, è bastato aggiungere che Rick e Morty avrebbero passato tutto l’episodio a dire che non si fa per poter avere una ricetta.
Sta per arrivare una nuova funzione di WhatsApp che renderà felici moltissimi utenti. Vediamo insieme…
Google foto permette di eliminare persone indesiderate dalle foto e consente di evitare brutti ricordi.…
Come funziona la nuova direttiva UE sul diritto alla riparazione? Ecco tutto quello che serve…
Se possiedi un iPhone, dovresti davvero considerare di aggiungere questo accessorio alla tua collezione: una…
Attenzione se utilizzi Vinted o Wallapop, potresti ricevere cattive notizie e finire nei guai. Ecco…
Instagram, da sempre attento ai trend e alle esigenze degli utenti, ha deciso di dare…