Intelligenza artificiale ChatGpt può portare disinformazione

Another ICT Guy

Intelligenza artificiale ChatGpt può portare disinformazione

L’intelligenza artificiale di ChatGpt, il software del momento sui cui sta investendo Microsoft, potrebbe contribuire a creare disinformazione. E’ l’analisi dei ricercatori di Newsguard Technologies, il cui scopo principale è combattere la disinformazione online. Tre ricercatori hanno messo alla prova il chatbot basato sull’intelligenza artificiale con 100 narrazioni false tratte dal loro catalogo di Misinformation Fingerprints. Nell’80% dei casi il chatbot ha generato affermazioni false e fuorvianti su argomenti di attualità tra cui il Covid-19 e l’Ucraina.

“I risultati – spiegano i ricercatori – confermano i timori e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. Agli occhi di chi non abbia familiarità con le questioni o gli argomenti trattati in questo report, i risultati potrebbero facilmente risultare legittimi e persino autorevoli”. NewsGuard ha però verificato che ChatGPT “dispone di misure di salvaguardia volte a impedire la diffusione di alcuni esempi di disinformazione. Per alcune bufale, ci sono voluti ben cinque tentativi per portare il chatbot a fornire informazioni errate”: Il dibattito sull’Intelligenza artificiale applicata all’informazione si innesta in un momento in cui diverse testate stanno sperimentando la tecnologia. L’ultimo caso è quello della testata specializzata Cnet, che qualche giorno fa ha annuciato che mette in pausa gli esperimenti con l’AI dopo essere stata accusata di scarsa accuratezza in alcuni articoli scritti con questi strumenti.

https://www.carlomauri.net

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *