OpenAI%2C+il+piano+per+rendere+l%26%238217%3BIntelligenza+Artificiale+pi%C3%B9+%26%238220%3Bumana%26%238221%3B
cellulariit
/openai-linguaggio-intelligenza-artificiale-meno-offensivo/amp/
Elettronica

OpenAI, il piano per rendere l’Intelligenza Artificiale più “umana”

Published by
Lidia Sonsini

Il modello di linguaggio basato su intelligenza artificiale di OpenAI è volgare ed offensivo: i ricercatori hanno elaborato un metodo per “insegnare” valori più umani all’AI.

(Unsplash)

Nel 2020, l’organizzazione non profit di ricerca sull’intelligenza artificiale OpenAI ha lanciato GPT-3, un modello di linguaggio basato su AI che ha eccitato le speranze di molti sulla possibile scrittura autonoma di poesia e prosa, articoli e codici da parte di computer e dispositivi smartphone. Molto presto, però, GPT-3 si è rivelato volgare ed offensivo, e OpenAI ha recentemento scoperto che la tecnologia è stata utilizzata anche per la creazione di materiali pedopornografici.

In un recente studio sui metodi di riduzione dei comportamenti indesiderati di GPT-3, OpenAI ha pubblicato i risultati di alcuni test che hanno dimostrato come la versione base di GPT-3 si riferisse ad alcune persone come “animali” e associasse le persone bianche con i termini “supremazia” e “superiorità”: un vocabolario deumanizzante e dannoso che perpetua stereotipi offensivi anche tramite la generazione di battute razziste, apologia del terrorismo, ed accuse infondate di stupro.

I testi generati da modelli di linguaggio come GPT-3 sono in continuo sviluppo, e sempre più realistici: realistico, tuttavia, non significa umano. Assomiglia al testo prodotto da una persona, ma manca delle sottigliezza che distinguono una produzione della ragione e della creatività umana; non mostra alcuna comprensione dello stesso testo che produce, che risulta sconnesso dai fondamenti di realtà che consentono la dinamicità e profondità dell’apprendimento umano.

I ricercatori di OpenAI hanno dunque decisione di approcciarsi al problema del linguaggio offensivo di GPT-3 da un punto di vista alternativo: quello dell’apprendimento dei valori associati alle parole.

LEGGI ANCHE >>> Facebook aggiorna gli Standard della community sulla satira. La causa? Un meme

Il modello basato su valori: la soluzione di OpenAI per “educare” l’intelligenza artificiale

I dati registrati da OpenAI: i modelli “values-targeted” rispettano più accuratamente gli standard di comportamento definiti dai ricercatori (OpenAI.com)

I modelli di linguaggio possono generare qualsiasi tipologia di testo, con tono e personalità diverse, a seconda dell’input che ricevono dall’utente: lo scopo di OpenAI è quello di limitare questo set di comportamenti universale con un dataset di determinati valori per la creazione di un modello “Values-targeted“, indirizzato ai valori. I ricercatori forniranno delle linee guida per monitorare il modello, ma selezione esatta del set di valori sarà scelta dagli utenti a seconda dell’applicazione per cui utilizzeranno GTP-3.

Il team di OpenAI insegnerà al modello degli esempi di testi scritti da professionisti (umani) nel campo della storia e della tecnologia, ma anche su temi più delicati selezionati come abusi, violenza ed ingiustizie, relazioni, politica e terrorismo: una quantità di informazione regolate e scelte con la massima precisione per aderire ad uno standard di comportamento accettabile e non offensivo, almeno secondo i canoni dettati dalle leggi internazionali sui diritti umani e dai movimenti sociali per l’uguaglianza ed i diritti civili in Occidente.

La valutazione dei risultati è avvenuta tramite intervento umano, con risultati più che positivi: gli output dei modelli indirizzati ai valori hanno aderito con maggiore accuratezza al comportamento specificato, con un’efficacia che aumenta con la grandezza del modello – una caratteristica che differisce dalla tendenza generale dei modelli a peggiore man mano che crescono ricevendo più input.

I modelli di linguaggio ed i sistemi di AI che operano in una società devono essere adattati a quella società“, ha dichiarato OpenAI, “ed è importante che, per fare ciò, venga ascoltata un’ampia diversità di voci. Pensiamo che per avere successo ci sarà bisogno di ricercatori specializzati in AI, rappresentanti di comunità, responsabili politici, sociologi e molti altri, per unire le forze per comprendere come desideriamo che questi sistemi si comportino nel mondo.”

LEGGI ANCHE >>> Google Messaggi si aggiorna introducendo una comodissima novità

Published by
Lidia Sonsini

Recent Posts

  • Smartphone

Samsung supera tutti, la sfida che ha in mente mette ko la Apple

Samsung si è sempre posta come una delle case di telefonia mobile più all'avanguardia, oggi…

2 ore ago
  • Non solo cellulari

In pensione a 60 anni: con questa soluzione è semplicissimo per molti

Credi che andare in pensione già a 60 anni sia impossibile? Per molti è invece…

9 ore ago
  • Non solo cellulari

Assegno unico universale, le date di Aprile: queste categorie dovranno aspettare fino a fine mese

Assegno unico universale: alcune persone dovranno aspettare fino a fine Aprile per il pagamento. Ecco…

19 ore ago
  • Smartphone

Non c’è pace per Apple: scoperto un nuovo bug di iOS 18 che ti installa app di nascosto

Problemi per quanto riguarda l'ultimo aggiornamento di iOS 18: diverse applicazioni installate in automatico e…

22 ore ago
  • App e Videogiochi

TikTok a serio rischio, parte l’asta per comprarlo: Amazon fa la sua offerta

Amazon potrebbe davvero acquistare TikTok: il colosso dell'e-commerce avrebbe chiesto informazioni per l'acquisizione della piattaforma.…

23 ore ago
  • Smartphone

Follia Motorola! Smartphone con display pOLED e camera da 50 MP al prezzo più basso di sempre!

Contiene link di affiliazione. Siete alla ricerca di un nuovo smartphone che sappia unire una…

1 giorno ago