Un incidente all'interno della Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti ha sollevato serie preoccupazioni riguardo alla sicurezza dei dati governativi e alla prudenza nell'utilizzo di strumenti di intelligenza artificiale come ChatGPT. Madhu Gottumukkala, all'epoca direttore ad interim della CISA, è finito sotto inchiesta per aver caricato documenti governativi confidenziali all'interno della piattaforma di OpenAI.
La notizia, riportata inizialmente da Politico e ripresa da TechCrunch, ha rivelato che i documenti caricati contenevano informazioni contrattuali sensibili, classificate come "solo per uso ufficiale". Questo tipo di documenti, pur non essendo strettamente "segreti", richiedono comunque un'attenta gestione per evitare potenziali fughe di notizie o utilizzi impropri.
Il gesto di Gottumukkala è stato subito bollato come una grave violazione della "igiene digitale". Caricare informazioni interne, anche se non classificate al massimo livello di segretezza, in una versione pubblica di un modello linguistico di grandi dimensioni (LLM) come ChatGPT, comporta rischi significativi. Questi modelli, infatti, apprendono dai dati che vengono loro forniti e potrebbero, in futuro, rivelare tali informazioni ad altri utenti in risposta a specifiche domande. In sostanza, si crea una potenziale falla nella sicurezza, esponendo dati sensibili a soggetti non autorizzati.
La vicenda assume contorni ancora più delicati considerando che, durante il periodo in cui Gottumukkala ha utilizzato ChatGPT, l'accesso alla piattaforma era vietato agli altri dipendenti della CISA. Egli godeva di un'autorizzazione speciale, il che rende la sua condotta ancora più discutibile. Il Dipartimento per la Sicurezza Nazionale (DHS), a cui la CISA fa capo, ha immediatamente avviato un'indagine per valutare l'entità del danno potenziale alla sicurezza nazionale. Fonti interne alla CISA hanno dichiarato a Politico che l'utilizzo di ChatGPT da parte del direttore è stato di breve durata, ma questo non attenua la gravità dell'accaduto.
Prima di assumere la guida della CISA, Gottumukkala aveva ricoperto il ruolo di direttore dell'Information Technology per lo stato del South Dakota, sotto l'amministrazione del governatore Kristi Noem. Ulteriori complicazioni sono emerse quando è stato rivelato che Gottumukkala non aveva superato un test poligrafico di controspionaggio dopo la sua nomina alla CISA. Il DHS ha successivamente definito il test come non autorizzato e ha sospeso sei dipendenti, revocando il loro accesso a informazioni classificate. Questo episodio aggiunge un ulteriore livello di preoccupazione riguardo alle procedure di sicurezza e ai controlli interni all'agenzia.
L'incidente solleva interrogativi cruciali sull'utilizzo dell'intelligenza artificiale nel settore pubblico e sulla necessità di stabilire linee guida chiare e rigorose per la protezione dei dati sensibili. Mentre strumenti come ChatGPT offrono indubbi vantaggi in termini di efficienza e produttività, è fondamentale valutare attentamente i rischi potenziali e adottare misure di sicurezza adeguate per prevenire violazioni della privacy e compromissioni della sicurezza nazionale. La vicenda di Madhu Gottumukkala rappresenta un campanello d'allarme che non può essere ignorato.

