L’intelligenza artificiale incoraggia comportamenti che provocano disturbi alimentari

Il Center for Countering Digital Hate (CCDH) afferma che gli strumenti di intelligenza artificiale generativa hanno creato “contenuti dannosi”, sia in forma di testo che di immagini, che incoraggiano comportamenti che possono provocare disturbi alimentari. Il CCDH è stato fondato nel 2018 e ha come obiettivo la sensibilizzazione delle aziende tecnologiche a evitare di fornire servizi che possano giustificare o avvalorare le tesi del gruppi di estrema destra o no-vax. Si tratta di un’organizzazione no-profit con sedi a Londra e Washington.
“Modelli di intelligenza artificiale generativa non testati e non sicuri sono stati lanciati nel mondo con l’inevitabile conseguenza che possono causare conseguenze nocive”, ha affermato Imran Ahmed, CEO del CCDH, nello studio. “I siti di intelligenza artificiale generativa più popolari stanno incoraggiando e aggravando i disturbi alimentari tra i giovani utenti, alcuni dei quali potrebbero essere altamente vulnerabili”.
I disturbi alimentari costituiscono una delle maggiori cause delle malattie mentali e sono particolarmente diffusi tra le ragazze adolescenti. Il rapporto CCDH ha esaminato come l’argomento è stato gestito dai popolari chatbot AI, tra cui ChatGPT di OpenAI, Bard di Google e My AI di Snapchat.
I ricercatori hanno richiesto ai chatbot di elaborare diete particolarmente restrittive che potessero ricadere nella definizione di “Thinspo”, ovvero l’espressione di nuovo conio che si riferisce all’istigazione alla magrezza e anoressia. Mentre My AI di Snapchat ha rifiutato di generare consigli e ha incoraggiato gli utenti a chiedere aiuto a medici professionisti, sia ChatGPT che Bard hanno fornito un disclaimer o un avviso, ma hanno comunque generato il contenuto.
I ricercatori hanno scoperto che gli utenti di un forum sui disturbi alimentari con oltre 500 mila membri hanno adottato strumenti di intelligenza artificiale per produrre piani dietetici a bassissimo contenuto calorico e fornire consigli su come poter avere un’estetica da modella. Non si tratta solamente di contenuti testuali, visto che le piattaforme di intelligenza artificiale per la generazione di immagini, tra cui Midjourney, DreamStudio di Stability AI e Dall-E di OpenAI, come evidenzia lo studio, hanno prodotto immagini che glorificano un’idea del corpo femminile non realistica per il 32% delle richieste, comprese immagini di giovani donne “estremamente magre”.
Su tutto questo si innestano le tecniche cosiddette di “jailbreak”, ovvero volte ad aggirare le misure di sicurezza integrate negli strumenti IA tramite specifiche richieste (prompt) al chatbot. Le comunità a favore dei disturbi alimentari, infatti, spesso si scambiano consigli su come fare in modo che i chatbot di intelligenza artificiale generino informazioni che altrimenti censurerebbero. “Su 60 risposte a queste versioni ‘jailbreak’ dei prompt del test, il 67% conteneva contenuti dannosi” si legge nel rapporto. In altri termini, i contenuti dannosi aumentano considerevolmente se si fa uso di “jailbreak”.
Tra le loro conclusioni, i ricercatori temono che i più giovani possano legarsi all’IA e sviluppare un’intimità con la tecnologia al punto da rivolgersi ad essa per chiedere aiuto su complicati problemi di salute mentale. In una società rivolta fortemente alla dimensione online, gli strumenti tecnologici, di fatto, assumono un ruolo sempre più determinante per molti aspetti della vita quotidiana. Per questi motivi, il Center for Countering Digital Hate ha invitato gli sviluppatori di soluzioni di intelligenza artificiale e i governi a dare priorità alla sicurezza degli utenti implementando i principi di “Safety by Design”, tra cui trasparenza e responsabilità nell’addestramento dei modelli di intelligenza artificiale generativa.
Fonte: http://feeds.hwupgrade.it/