OpenAI ha annunciato l'introduzione di nuove e significative funzionalità di sicurezza progettate per proteggere gli utenti da potenziali abusi delle sue tecnologie di intelligenza artificiale. Tra queste novità spiccano il 'Lockdown Mode', un'opzione aggiuntiva per ChatGPT, e le etichette di 'Rischio Elevato', implementate in ChatGPT, ChatGPT Atlas e Codex. Queste misure rappresentano un ulteriore passo avanti nella protezione degli utenti, affiancandosi alle difese già esistenti a livello di modello, prodotto e sistema, che includono sandboxing, prevenzione della perdita di dati tramite URL, strumenti di monitoraggio e applicazione di policy, e controlli aziendali come la segregazione dei privilegi e i registri di audit.
Il 'Lockdown Mode' in ChatGPT offre la possibilità di disabilitare strumenti e funzionalità specifiche del chatbot che potrebbero essere sfruttate da malintenzionati per estrarre dati sensibili dalle conversazioni degli utenti o dalle applicazioni connesse, ad esempio tramite l'iniezione di prompt aggiuntivi. In particolare, durante la navigazione web in modalità blocco, viene attivata una restrizione al contenuto memorizzato nella cache, garantendo che le richieste di rete in tempo reale rimangano all'interno della rete controllata di OpenAI.
Questa modalità è disponibile per gli utenti con account aziendali, istituzioni sanitarie e scolastiche. Per gli utenti standard, il 'Lockdown Mode' impone ulteriori restrizioni, in aggiunta alle impostazioni scelte dall'amministratore. Sono inoltre disponibili impostazioni aggiuntive per personalizzare ulteriormente la protezione, consentendo di selezionare quali applicazioni e quali azioni all'interno di tali applicazioni devono essere eseguite in modalità blocco. OpenAI offre anche un set di strumenti chiamato Compliance API Logs Platform, che permette di registrare i dati sull'utilizzo delle applicazioni, dei dati condivisi e delle fonti esterne collegate.
Parallelamente, OpenAI ha evidenziato come i servizi di intelligenza artificiale possano generare nuove minacce per gli utenti. Per rendere questo aspetto più chiaro e coerente, la società ha introdotto una standardizzazione delle etichette per le funzionalità esistenti. Di conseguenza, le funzionalità rilevanti di ChatGPT, ChatGPT Atlas e Codex saranno contrassegnate con l'etichetta uniforme di 'Rischio Elevato'. Ad esempio, in Codex, l'assistente alla programmazione, la funzione di accesso a risorse esterne, originariamente pensata per la ricerca di documentazione, riceverà questa etichetta. La segnalazione sarà accompagnata da spiegazioni dettagliate sui potenziali rischi e cambiamenti, e indicherà in quali contesti è appropriato concedere tale accesso.
L'impegno di OpenAI nel rafforzare la sicurezza dei suoi prodotti è una risposta diretta alla crescente preoccupazione per i potenziali usi impropri dell'IA. Con l'avanzare delle capacità di questi sistemi, diventa sempre più cruciale implementare misure di sicurezza robuste e flessibili. Il 'Lockdown Mode' e le etichette di 'Rischio Elevato' rappresentano un passo importante in questa direzione, offrendo agli utenti un maggiore controllo e consapevolezza sui rischi associati all'utilizzo dell'IA.
Queste nuove funzionalità dimostrano come OpenAI stia attivamente lavorando per bilanciare l'innovazione con la responsabilità, cercando di creare un ambiente in cui l'IA possa essere utilizzata in modo sicuro e produttivo. Resta da vedere come queste misure influenzeranno l'esperienza degli utenti e se saranno sufficienti a mitigare completamente i rischi emergenti, ma è chiaro che OpenAI sta prendendo sul serio la sfida della sicurezza dell'IA.

