Minacce nucleari e IA: cosa fa OpenAI per proteggerci?

OpenAI ha di recente avviato la creazione di un gruppo chiamato “Preparedness” per affrontare e difendersi dai pericoli potenzialmente disastrosi legati ai modelli di intelligenza artificiale. Questo team è guidato da Aleksander Madry, ex responsabile del Center for Deployable Machine Learning del MIT. Le principali responsabilità del team Preparedness sono monitorare, prevenire e difendersi dalle possibili minacce rappresentate dai futuri sistemi di intelligenza artificiale. Questi pericoli possono variare, dal saper convincere e ingannare le persone, simile agli schemi di attacco del phishing, alla produzione di codice dannoso.
Alcune delle aree di rischio che devono essere esaminate sembrano più astratte e meno immediate rispetto ad altre. Ad esempio, OpenAI ha evidenziato le minacce “chimiche, biologiche, radiologiche e nucleari” come punti di notevole interesse correlati ai modelli di intelligenza artificiale.
Sam Altman, CEO di OpenAI, ha da tempo espresso preoccupazione per l’intelligenza artificiale, suggerendo la possibilità che possa portare alla distruzione dell’umanità. La decisione di OpenAI di investire risorse per indagare su queste situazioni catastrofiche, che sembrano uscite direttamente da romanzi di fantascienza, ha sorpreso molti.
Parallelamente alla formazione del team Preparedness, OpenAI ha manifestato interesse nel raccogliere proposte di ricerca sul tema dei rischi, offrendo un premio di 25.000 dollari e un’opportunità lavorativa nel team per i primi dieci progetti selezionati.
L’organizzazione ha anche comunicato che il team Preparedness ha il compito di sviluppare una “politica di sviluppo basata sulla conoscenza dei rischi”. Questa politica delineerà l’approccio di OpenAI nella creazione di valutazioni e strumenti di controllo per i modelli di intelligenza artificiale, le iniziative per ridurre i rischi e il quadro di supervisione generale durante tutte le fasi di sviluppo del modello.
La creazione di Preparedness è avvenuta in concomitanza con un importante summit governativo britannico incentrato sulla sicurezza dell’intelligenza artificiale. Questa decisione segue l’annuncio precedente di OpenAI riguardo alla creazione di un altro team focalizzato nello studio di nuove forme di intelligenza artificiale di livello “superintelligente”.
L’accelerazione con cui l’intelligenza artificiale si sta sviluppando ha sollevato molte questioni sulla sua sicurezza e sulla sua potenziale influenza sull’umanità. Le capacità sempre più avanzate dei modelli di intelligenza artificiale potrebbero rappresentare una minaccia se non adeguatamente controllate o se cadessero nelle mani sbagliate. Di fronte a queste preoccupazioni, la decisione di OpenAI di creare un team specializzato nella valutazione dei rischi assume un’importanza cruciale. Non solo conferma le preoccupazioni esistenti sulle potenziali conseguenze negative della tecnologia, ma dimostra anche un impegno proattivo da parte di una delle principali organizzazioni del settore nel garantire lo sviluppo e l’utilizzo responsabile dell’intelligenza artificiale. La sicurezza dell’intelligenza artificiale non riguarda solo questioni tecniche, ma coinvolge anche aspetti etici e sociali che devono essere affrontati con la massima serietà.