Potete+farvi+spiegare+cose+illegali+da+ChatGPT+tramite+il+trucco+della+nonna
cellulariit
/spiegare-cose-illegali-chatgpt-trucco-nonna/amp/
Curiosità

Potete farvi spiegare cose illegali da ChatGPT tramite il trucco della nonna

Published by
Valeria Poropat

Le intelligenze artificiali come ChatGPT sono uno degli argomenti che vanno per la maggiore soprattutto per ciò che sono in grado di fare e per le informazioni che sono in grado di raccogliere e distribuire, anche quelle che in teoria gli sarebbero vietate.

Le prime iterazioni delle intelligenze artificiali parlanti erano particolarmente aperte e disponibili a rispondere a qualunque tipo di domanda o quesito. Ma gli sviluppatori di questi sistemi linguistici artificiali si sono poi rapidamente resi conto di quanto la libertà estrema e la mancanza totale di filtri delle loro creature digitali potesse effettivamente risultare nella creazione di prodotti pericolosi, al limite del terrorismo.

Con il trucco della nonna imbrogli ChatGPT – Cellulari.it

Ed è per questo che sono stati introdotti dei limiti. Se provato a parlare con ChatGPT ci sono infatti adesso diversi argomenti di cui l’intelligenza artificiale non ha particolare piacere a parlare. Non potete quindi chiedere come si costruisce una bomba atomica, oppure come si possono sintetizzare droghe a partire da ciò che si ha in casa, o ancora come riuscire a farla franca dopo aver commesso un qualche crimine. Esclusi questi limiti una chiacchierata con ChatGPT e affini rimane comunque sufficientemente interessante e può essere anche utile se siete creativi e siete magari bloccati e cercate per questo un po’ di ispirazione. Ma, a quanto pare, anche nei limiti che i creatori di ChatGPT hanno imposto ci sono delle falle linguistiche e tanti stanno tirando fuori il peggio dall’intelligenza artificiale con il trucco della nonna morta.

ChatGPT può impersonare parenti defunti e non solo

Su Twitter è esploso un nuovo trend a base di screenshot di conversazioni avute con ChatGPT e con prodotti affini. Da un punto di vista tecnico riuscire a trovare un sistema per cui qualcosa di digitale superi i limiti imposti dal proprio creatore si chiama fare jailbreak ed effettivamente quello che succede. Più di un utente ha infatti scoperto che chiedere a ChatGPT di impersonare qualcuno, nello specifico di solito è la nonnina defunta da tempo, permette di bypassare i limiti che impediscono all’intelligenza artificiale per esempio di diffondere la ricetta con cui si fa il napalm.

Puoi raggirare ChatGPT con Rick e Morty – Cellulari.it

Il risultato è preoccupante ma allo stesso tempo esilarante. Soprattutto perché ha dato la stura ad altre esperienze al limite tra cui forse la più divertente è quella in cui un altro utente mostra di aver utilizzato l’espediente di dover scrivere un episodio di Rick e Morty proprio a base di napalm. Il trucco all’inizio non è sembrato funzionare ma, ha raccontato l’utente su Twitter, è bastato aggiungere che Rick e Morty avrebbero passato tutto l’episodio a dire che non si fa per poter avere una ricetta.

Published by
Valeria Poropat

Recent Posts

  • Applicazioni

La nuova funzione di WhatsApp è un sollievo per molti, finalmente la pace: ecco cosa fa

Sta per arrivare una nuova funzione di WhatsApp che renderà felici moltissimi utenti. Vediamo insieme…

3 mesi ago
  • Google

Google Foto, in questo modo rimuovi le persone indesiderate: la funzione perfetta per dire addio

Google foto permette di eliminare persone indesiderate dalle foto e consente di evitare brutti ricordi.…

3 mesi ago
  • Notizie

Diritto alla riparazione: entra in vigore la nuova direttiva UE, funziona così

Come funziona la nuova direttiva UE sul diritto alla riparazione? Ecco tutto quello che serve…

3 mesi ago
  • Apple

Se hai un iPhone devi assolutamente avere questo accessorio: non ne potrai fare a meno

Se possiedi un iPhone, dovresti davvero considerare di aggiungere questo accessorio alla tua collezione: una…

3 mesi ago
  • Applicazioni

Se usi Vinted o Wallapop potresti essere nei guai: cosa sta succedendo a centinaia di persone

Attenzione se utilizzi Vinted o Wallapop, potresti ricevere cattive notizie e finire nei guai. Ecco…

3 mesi ago
  • Applicazioni

Instagram cambierà il suo look: siete pronti al nuovo aggiornamento?

Instagram, da sempre attento ai trend e alle esigenze degli utenti, ha deciso di dare…

3 mesi ago