Per ridurre i rischi dell’AI, OpenAI annuncia un team di sicurezza

OpenAI ha comunicato la recente introduzione di una strategia di sicurezza volta a gestire le potenziali minacce associate ai modelli di intelligenza artificiale che sono in fase di sviluppo. In base a tale piano, il consiglio di amministrazione avrà il potere di impedire decisioni prese dall’amministratore delegato, Sam Altman, nel caso in cui queste siano ritenute troppo rischiose.

Il Framework di preparazione

L’azienda ha spiegato attraverso un post che l’analisi dei pericoli legati all’intelligenza artificiale di punta, ovvero dei modelli più avanzati e potenti, non è adeguata alle attuali necessità e possibilità. A tale scopo, hanno adottato la prima versione del loro Framework di preparazione, che delineerà i processi per identificare, valutare, prevedere e prevenire i rischi catastrofici derivanti da questi modelli.

Oltre ai team già presenti dedicati alla sicurezza dei modelli AI esistenti, come ChatGPT, OpenAI introdurrà due nuovi team specifici per i modelli di punta. Questi saranno il Preparedness Team e il Superalignment Team. Il primo avrà l’incarico di testare e valutare i modelli di punta, mentre il secondo sorveglierà lo sviluppo di intelligenze artificiali “superiori” che possono superare l’intelligenza umana.

OpenAI ha espresso la volontà di anticipare lo scenario futuro dell’IA, andando oltre l’attualità. Hanno dichiarato di comprendere che l’umanità è ancora lontana dall’avere AI superintelligenti, ma desiderano essere preparati per tale eventualità.

Livelli e categorie di rischio

I modelli di punta di OpenAI saranno soggetti a test rigorosi e al termine verranno fornite valutazioni dettagliate per quattro categorie di rischio: sicurezza informatica, persuasione (bugie e disinformazione), autonomia del modello (capacità di agire autonomamente) e CBRN (minacce chimiche, biologiche, radiologiche e nucleari).

Ciascuna categoria sarà valutata con livelli di rischio: basso, medio, alto o critico. Dopo l’applicazione di misure di mitigazione, verrà calcolato un punteggio post-migrazione. Se il livello di rischio è medio o inferiore, il modello potrà essere rilasciato. Nel caso di rischio alto, il modello potrà essere sviluppato con cautela, mentre se il rischio è critico, il modello sarà interrotto e non verrà rilasciato.

Misure di responsabilità

OpenAI ha dichiarato la propria volontà di assumersi la responsabilità delle conseguenze dei propri modelli di IA. Di conseguenza, hanno annunciato l’implicazione di terze parti indipendenti in caso di problematiche per verificare la tecnologia e fornire un feedback. Inoltre, collaboreranno con parti esterne e con i loro team interni per monitorare l’uso improprio e i rischi legati ai modelli nella realtà.

Infine, hanno comunicato di avviare una nuova ricerca per comprendere l’evolversi dei rischi in relazione alla scalabilità dei modelli. L’obiettivo è anticipare i rischi futuri, seguendo il successo precedente ottenuto con le leggi di scalabilità.