ChatGPT è buono o cattivo? Kaspersky risponde

Another ICT Guy

ChatGPT è buono o cattivo? Kaspersky risponde

Si può usare ChatGPT per produrre malware? Come riportava una ricerca di Cyberark, ChatGPT è in grado di produrre codice che può essere usato a scopi malevoli. Ma qual è il suo impatto più in generale sulla cybersicurezza? Kaspersky ne ha parlato in un webinar, dando la sua visione su questo strumento.

Kaspersky su ChatGPT e il suo uso da parte dei cybercriminali

Kaspersky ha effettuato diverse prove per verificare le capacità di ChatGPT nell’aiutare i cybercriminali. Il primo aspetto verificato è che l’IA è in grado di dare istruzioni dettagliate sulle procedure per compromettere un sistema: per quanto tali istruzioni siano utili più che altro ai non esperti e ai cosiddetti “script kid”, si tratta comunque di un modo in più per aiutare i criminali.

Secondariamente, ChatGPT può essere impiegato per generare testi da inviare per email con lo scopo di truffare i riceventi o di effettuare attacchi di phishing, con la possibilità di creare testi estremamente personalizzati, addirittura specificando il tono da usare, che portano dunque allo spearphishing (un tipo particolare di phishing caratterizzato proprio dalla precisione con cui prende di mira un bersaglio). L’aspetto interessante è che i testi generati sono privi di evidenti errori grammaticali, un fatto che facilita di molto il lavoro di criminali che magari non parlano la lingua della vittima e che, dall’altro lato, rendono le email di phishing meno facilmente individuabili guardando il solo aspetto linguistico.

Kaspersky ha verificato, come aveva già fatto Cyberark, che è possibile usare ChatGPT per generare codice da usare per scopi malevoli, ad esempio per generare un ransomware. Il fatto, però, è che il codice spesso non è immediatamente utilizzabile e richiede comunque delle competenze di programmazione da parte del criminale per poter essere impiegato.

Un campo in cui ChatGPT può operare è quello della raccolta di dati per la threat intelligence. La capacità dell’IA di raccogliere dati da Internet e dai social media può infatti portare a ottenere dati interessanti molto più velocemente rispetto a quanto possono fare ricercatori specializzati, i quali poi dovranno comunque filtrare e verificare quanto rilevato dall’IA. Secondariamente, ChatGPT è in grado di analizzare testo e codice per rilevarne eventuali intenti malevoli.

Uno dei rischi più significativi è quello della violazione delle norme, aziendali o di legge, relative al trattamento dei dati nel momento in cui viene usato dai lavoratori. Dal momento che l’IA richiede la connessione a Internet e sfrutta il cloud per elaborare i dati, in molti casi non è sfruttabile per gestire dati riservati o personali. È facile, però, immaginare violazioni da parte dei dipendenti meno preparati o attenti e questo sarà probabilmente un problema significativo nel corso dei prossimi mesi o anni.

È interessante notare come i ricercatori di Kaspersky affermino che comunque l’IA, al di là dello specifico caso di ChatGPT, sia uno strumento per rendere possibili nuove funzionalità e nuovi scenari, ma come richieda comunque supervisione da parte delle persone. Solo le persone, infatti, sono in grado di analizzare il contesto correttamente e di capire se quanto generato sia valido e risponda alle esigenze effettive della situazione.

Per rispondere alla domanda con cui era partita la conferenza, “ChatGPT è buono o cattivo?”: dipende da come viene usato. Sarà interessante vedere come le aziende e i cybercriminali useranno questi nuovi strumenti in futuro.

Fonte: http://feeds.hwupgrade.it/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *