OpenAI si prepara ai ‘rischi catastrofici’ legati all’intelligenza artificiale: creato un team ad hoc

Another ICT Guy

OpenAI si prepara ai ‘rischi catastrofici’ legati all’intelligenza artificiale: creato un team ad hoc

OpenAI ha creato un nuovo team che avrà il compito di “monitorare, valutare, prevedere e proteggerci dai rischi catastrofici” che un’intelligenza artificiale sempre più evoluta potrebbe comportare per l’umanità. Il nuovo gruppo, chiamato Preparedness, è guidato da Aleksander Madry, ex direttore del Center for Deployable Machine Learning del MIT.

Cosa intende OpenAI con rischi catastrofici? La società cita alcune categorie come la capacità dell’IA di persuadere e ingannare gli uomini, ambiti come la sicurezza informatica (cioè la capacità di generare codice maligno), ma anche minacce di carattere chimico, biologico, radiologico e nucleari, per arrivare infine alla capacità dell’IA di replicarsi e adattarsi in modo autonomo.

Il mira a instaurare e mantenere una politica di sviluppo consapevole del rischio (RDP). Madry e compagni andranno a supervisionare i prodotti di OpenAI in modo da comprendere se la loro evoluzione stia prendendo una piega benefica per l’umanità oppure comportare rischi gravi. Inoltre, saranno impegnati nell’approntare misure di contenimento.

Riteniamo che i modelli di intelligenza artificiale, che supereranno le capacità attualmente presenti nei modelli esistenti più avanzati, abbiano il potenziale per apportare benefici a tutta l’umanità“, scrive OpenAI nel post. “Ma comportano anche rischi sempre più gravi. Dobbiamo assicurarci di disporre della comprensione e delle infrastrutture necessarie per la sicurezza dei sistemi di intelligenza artificiale altamente capaci“.

Nonostante OpenAI abbia nell’AI generativa il suo business fondante, il CEO Sam Altman è un noto “AI doomsayer”, ovvero pensa che lo sviluppo della tecnologia rappresenti un serio problema per l’uomo, tanto da spingersi a parlare di rischio “estinzione”. Altman, ma non solo, ritiene che un’intelligenza artificiale superiore a quella umana potrebbe arrivare entro un decennio e che non sarà necessariamente benevola, il che richiede di essere proattivi nella ricerca di modi per limitarla.

Fonte: http://feeds.hwupgrade.it/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *