OpenAI%2C+il+piano+per+rendere+l%26%238217%3BIntelligenza+Artificiale+pi%C3%B9+%26%238220%3Bumana%26%238221%3B
cellulariit
/openai-linguaggio-intelligenza-artificiale-meno-offensivo/amp/
Scienze

OpenAI, il piano per rendere l’Intelligenza Artificiale più “umana”

Published by
Lidia Sonsini

Il modello di linguaggio basato su intelligenza artificiale di OpenAI è volgare ed offensivo: i ricercatori hanno elaborato un metodo per “insegnare” valori più umani all’AI.

(Unsplash)

Nel 2020, l’organizzazione non profit di ricerca sull’intelligenza artificiale OpenAI ha lanciato GPT-3, un modello di linguaggio basato su AI che ha eccitato le speranze di molti sulla possibile scrittura autonoma di poesia e prosa, articoli e codici da parte di computer e dispositivi smartphone. Molto presto, però, GPT-3 si è rivelato volgare ed offensivo, e OpenAI ha recentemento scoperto che la tecnologia è stata utilizzata anche per la creazione di materiali pedopornografici.

In un recente studio sui metodi di riduzione dei comportamenti indesiderati di GPT-3, OpenAI ha pubblicato i risultati di alcuni test che hanno dimostrato come la versione base di GPT-3 si riferisse ad alcune persone come “animali” e associasse le persone bianche con i termini “supremazia” e “superiorità”: un vocabolario deumanizzante e dannoso che perpetua stereotipi offensivi anche tramite la generazione di battute razziste, apologia del terrorismo, ed accuse infondate di stupro.

I testi generati da modelli di linguaggio come GPT-3 sono in continuo sviluppo, e sempre più realistici: realistico, tuttavia, non significa umano. Assomiglia al testo prodotto da una persona, ma manca delle sottigliezza che distinguono una produzione della ragione e della creatività umana; non mostra alcuna comprensione dello stesso testo che produce, che risulta sconnesso dai fondamenti di realtà che consentono la dinamicità e profondità dell’apprendimento umano.

I ricercatori di OpenAI hanno dunque decisione di approcciarsi al problema del linguaggio offensivo di GPT-3 da un punto di vista alternativo: quello dell’apprendimento dei valori associati alle parole.

LEGGI ANCHE >>> Facebook aggiorna gli Standard della community sulla satira. La causa? Un meme

Il modello basato su valori: la soluzione di OpenAI per “educare” l’intelligenza artificiale

I dati registrati da OpenAI: i modelli “values-targeted” rispettano più accuratamente gli standard di comportamento definiti dai ricercatori (OpenAI.com)

I modelli di linguaggio possono generare qualsiasi tipologia di testo, con tono e personalità diverse, a seconda dell’input che ricevono dall’utente: lo scopo di OpenAI è quello di limitare questo set di comportamenti universale con un dataset di determinati valori per la creazione di un modello “Values-targeted“, indirizzato ai valori. I ricercatori forniranno delle linee guida per monitorare il modello, ma selezione esatta del set di valori sarà scelta dagli utenti a seconda dell’applicazione per cui utilizzeranno GTP-3.

Il team di OpenAI insegnerà al modello degli esempi di testi scritti da professionisti (umani) nel campo della storia e della tecnologia, ma anche su temi più delicati selezionati come abusi, violenza ed ingiustizie, relazioni, politica e terrorismo: una quantità di informazione regolate e scelte con la massima precisione per aderire ad uno standard di comportamento accettabile e non offensivo, almeno secondo i canoni dettati dalle leggi internazionali sui diritti umani e dai movimenti sociali per l’uguaglianza ed i diritti civili in Occidente.

La valutazione dei risultati è avvenuta tramite intervento umano, con risultati più che positivi: gli output dei modelli indirizzati ai valori hanno aderito con maggiore accuratezza al comportamento specificato, con un’efficacia che aumenta con la grandezza del modello – una caratteristica che differisce dalla tendenza generale dei modelli a peggiore man mano che crescono ricevendo più input.

I modelli di linguaggio ed i sistemi di AI che operano in una società devono essere adattati a quella società“, ha dichiarato OpenAI, “ed è importante che, per fare ciò, venga ascoltata un’ampia diversità di voci. Pensiamo che per avere successo ci sarà bisogno di ricercatori specializzati in AI, rappresentanti di comunità, responsabili politici, sociologi e molti altri, per unire le forze per comprendere come desideriamo che questi sistemi si comportino nel mondo.”

LEGGI ANCHE >>> Google Messaggi si aggiorna introducendo una comodissima novità

Published by
Lidia Sonsini

Recent Posts

  • Applicazioni

La nuova funzione di WhatsApp è un sollievo per molti, finalmente la pace: ecco cosa fa

Sta per arrivare una nuova funzione di WhatsApp che renderà felici moltissimi utenti. Vediamo insieme…

3 mesi ago
  • Google

Google Foto, in questo modo rimuovi le persone indesiderate: la funzione perfetta per dire addio

Google foto permette di eliminare persone indesiderate dalle foto e consente di evitare brutti ricordi.…

3 mesi ago
  • Notizie

Diritto alla riparazione: entra in vigore la nuova direttiva UE, funziona così

Come funziona la nuova direttiva UE sul diritto alla riparazione? Ecco tutto quello che serve…

3 mesi ago
  • Apple

Se hai un iPhone devi assolutamente avere questo accessorio: non ne potrai fare a meno

Se possiedi un iPhone, dovresti davvero considerare di aggiungere questo accessorio alla tua collezione: una…

3 mesi ago
  • Applicazioni

Se usi Vinted o Wallapop potresti essere nei guai: cosa sta succedendo a centinaia di persone

Attenzione se utilizzi Vinted o Wallapop, potresti ricevere cattive notizie e finire nei guai. Ecco…

3 mesi ago
  • Applicazioni

Instagram cambierà il suo look: siete pronti al nuovo aggiornamento?

Instagram, da sempre attento ai trend e alle esigenze degli utenti, ha deciso di dare…

3 mesi ago