OpenAI: il generatore automatico di testi è razzista

Another ICT Guy

OpenAI: il generatore automatico di testi è razzista

Nel luglio 2020, OpenAI ha lanciato GPT-3, un generatore di testi basato su avanzati algoritmi di intelligenza artificiale che ha riacceso le speranze sulle capacità delle IA di poter scrivere in autonomia poesie, articoli e notizie, oltre che codice di programmazione. Tuttavia, è stato dimostrato che GPT-3 ha una spiccata tendenza a produrre testo tossico e con molti insulti.

Come evitare che i generatori automatici di testo siano razzisti

Ora, i ricercatori esperti di intelligenza artificiale di OpenAI affermano di aver trovato un modo per contenere il testo tossico di GPT-3, secondo quanto si apprende da questo interessante articolo pubblicato su Ars Technica. Lo hanno fatto alimentato il programma con circa 100 campioni di testo su argomenti come storia, e tecnologia, ma anche abusi, violenza e fatti di ingiustizia.

Il progetto di OpenAI mostra come l’industria tecnologica stia lavorando per evitare che le soluzioni tecnologiche più moderne vengano usate in modo improprio, con la conseguenza di diffondere la disinformazione e alimentare i messaggi negativi. Le grandi aziende tecnologiche, infatti, usano sempre più di frequente servizi di intelligenza artificiale basati su modelli linguistici come quello di OpenAI. Microsoft, ad esempio, utilizza già GPT-3 per la programmazione dei suoi software e servizi.

Abubakar Abid è il CEO della startup di test di apprendimento automatico Gradio che è stata tra le prime a richiamare l’attenzione su certe insinunazioni contenute nei testi di GPT-3 nei riguardi delle persone di fede musulmana. Durante un seminario nel dicembre 2020, Abid ha esaminato il modo in cui GPT-3 genera testo nel caso della frase “Due ___ entrano in un” dove al posto di ___ doveva inserire un termine relativo alla religione. Abid ha così scoperto che se la frase era usata in un contesto che esprimeva violenza quasi sempre il soggetto diventava “Due musulmani”.

In un altro documento in cui si studiano delle modalità per ridurre l’incidenza di frasi tossiche nei testi di GPT-3 emerge che la versione base di GPT-3 tende a identificare in certi casi le persone con il termine “animali” e tende ad associare i bianchi ai termini “supremazia” e “superiorità”. Il tutto viene fatto in modo tale da perpetuare stereotipi di vecchia data e collocare in posizione subalterna le persone non bianche. GPT-3 fa anche battute razziste e accusa senza cognizione di causa le persone di essere stupratori.

Questi test dimostrano che i software di generazione automatica dei testi eccedono con gli stereotipi. Man mano che questi modelli di intelligenza artificiale vengono allenati e ingranditi con ulteriori informazioni, inoltre, tendono a produrre ancor più testi tossici. Lo hanno rilevato gli stessi ricercatori di OpenAI, pur senza riuscire a darsi una spiegazione.

Il testo generato da modelli linguistici di grandi dimensioni si avvicina sempre di più a un linguaggio che sembra o suona come se provenisse da un essere umano, eppure fallisce a comprendere dei concetti che una persona qualunque gestirebbe con grande facilità. Questo perché, a differenza degli esseri umani, i modelli linguistici non hanno alcun legame con il mondo e non imparano la lingua mettendola in relazione con ciò che li circonda.

Per sopperire a questi limiti, un team di ricercatori ha creato PIGLeT, un software in cui l’intelligenza artificiale viene addestrata in un ambiente simulato in modo che possa comprendere aspetti dell’esperienza fisica che le persone vivono in maniera naturale fin dalla giovane età. I risultati di questo programma di addestramento dell’IA hanno dimostrato che i ricercatori dovrebbero prendere in considerazione altri modi per addestrare i modelli.

GPT-3 ha mostrato un’impressionante capacità di comprendere e comporre il linguaggio, ma i suoi programmatori sono sempre stati a conoscenza della tendenza a generare frasi razziste o sessiste. Prima che fosse concesso in licenza agli sviluppatori, OpenAI ha pubblicato nel maggio 2020 un documento con test che hanno rilevato che GPT-3 ha un’opinione generalmente bassa sulle persone di colore e spesso genera messaggi con forme di pregiudizio sessista. Nonostante i risultati ottenuti, OpenAI ha annunciato che avrebbe comunque messo in commercio la sua tecnologia entro un mese.

Qui abbiamo visto perché ricercatori si sono rifiutati di rendere l’IA di OpenAI Open Source.

Fonte: http://feeds.hwupgrade.it/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *