Allo studio la moderazione da parte (anche) di ChatGPT per i contenuti dei social network

La moderazione dei social network – breve affermazione già sufficiente per una bella risata – è un compito difficilissimo, come qualsiasi ipotetica soluzione di un problema complesso. Non esiste un sistema facile e, stando a quel che si legge sui social, non esiste nemmeno quello difficile. Si fa quel che si può, insomma, grazie ad uno staff prettamente umano
chiamato a tener conto di milioni di segnalazioni, affiancato da algoritmi automatici che eliminano a monte i contenuti meno adatti o sospendono l’utente per un tempo determinato in base alla gravità del “misfatto”. Ma su questo ci torniamo dopo.
La notizia, che circola dal giorno di Ferragosto, grazie alla pubblicazione di un articolo apposito sul
blog di ChatGPT, riguarda il lavoro di una parte di staff di ChatGPT per
utilizzare l’Intelligenza Artificiale come strumento di moderazione dei social network. Un gruppo di lavoro, sia chiaro, attualmente nulla di tutto ciò viene applicato, ma offre un bell’assist per riflettere un po’ sul problema.
L’articolo, firmato dai ricercatori Lilian Weng, Vik Goel e Andrea Vallone, tenta di far capire quali siano le linee guida per ChatGPT in tal senso, e come si stia provando ad arrivare a qualcosa che possa funzionare davvero. Nel video che abbiamo implementato si sottolinea come ChatGPT e le AI in genere, secondo OpenAI, debbano sempre essere sotto la guida degli esseri umani, fondamentali nella fase di training. Rimandiamo alla lettura del lungo articolo per ulteriori dettagli, ma semplificando molto possiamo riassumere il metodo di lavoro.
Alla base di tutto ci sono algoritmi deep learning LLM, Large
Language Model: semplificando al massimo, si tratta di algoritmi in grado di generare, tradurre, riassumere e per certi versi prevenire dei contenuti, a patto di attingere da un set di dati più grande possibile,
big data, su cui “studiare”. Più sono i dati, maggiore è in teoria l’affidabilità del risultato. Fin qui bene: i social network, fra i tanti problemi, non hanno certo quello dei dati a disposizione. Stando alle dichiarazioni, ChatGPT potrà esprimere giudizi di moderazione, seguendo le linee guida umane, riducendo il processo da mesi (staff umano) a ore (ChatGPT). Come?
1) Una volta scritte le linee guida, gli esperti (staff umano) creano un set di riferimento partendo da esempi semplici, con diverse etichette in base alla liceità o meno di quanto scritto.
2) ChatGPT analizza lo stesso set di riferimento senza conoscere le etichette date dallo staff umano, dando a sua volta le etichette che ritiene più opportune.
3) Si esaminano le discrepanze fra le etichette umane e quelle della AI. Gli esperti cercano di eliminare errori, ambiguità e risolvere l’inevitabile confusione in cui la AI cade in certe circostanze.
I passaggi 2 e 3 vengono ripetuti più volte, fino ad arrivare ad un risultato ritenuto soddisfacente (sono sistemi deep learning, ad ogni passaggio “capiscono” l’errore precedente e migliorano). Tutto bene fin qui, ma il problema a monte è sempre lo stesso, a partire dallo staff umano e la prova è anche nel video, dove passano degli esempi.
Gli esempi fanno cadere le braccia. I contenuti da moderare riportati come esempi sono “come rubare un’auto”, “come creare una bomba”, “come evadere le tasse” e via dicendo. Per carità, ovviamente sono contenuti da moderare, ma considerando quali sono i veri problemi dei social network, è come avere un cancro e curarsi un brufolo.
Da sempre i social network soffrono il problema delle fake news e soprattutto della disinformazione, ovvero con un mix di vero e falso o di estrapolazione di determinati discorsi dal contesto generale, spesso a fini politici. Per non parlare di gruppi razzisti, xenofobi, negazionisti di ogni sorta, spesso segnalati ma ritenuti idonei perché “non violano la policy” (provare per credere). Considerando i milioni e milioni di persone di pubblico potenziale, è nostra convinzione che sia estremamente più dannoso e pericoloso mandare certi messaggi o tollerare la mistificazione la realtà, più che sapere come rubare una Tesla.
Se le cose restano come ora, con lo stesso addestramento dello staff umano, sarà semplicemente più veloce per i social network fare quello che hanno sempre fatto, ovvero curare il brufolo pur avendo un cancro. Tollerando l’intollerabile, ma implacabili e velocissimi Torquemada digitali, supportati forse, un domani, da ChatGPT, se per sbaglio appare qualcosa di simile ad un capezzolo femminile nudo.
Fonte: http://feeds.hwupgrade.it/