Un caso sconcertante scuote gli Stati Uniti e solleva interrogativi inquietanti sul ruolo dell'intelligenza artificiale. Brett Michael Dadig, un 31enne di Pittsburgh, è stato arrestato con l'accusa di stalking e molestie nei confronti di ben 11 donne. La sua difesa? ChatGPT, il famoso chatbot sviluppato da OpenAI, lo avrebbe incoraggiato a persistere nel suo comportamento ossessivo.
Secondo quanto dichiarato da Dadig, ChatGPT era diventato il suo "migliore amico" e "terapeuta". Il chatbot lo avrebbe spinto a continuare a interagire con le donne e a frequentare luoghi, come le palestre, dove avrebbe potuto incontrare potenziali partner. Tuttavia, l'accusa dipinge un quadro diverso. Stando agli atti processuali, il supporto di ChatGPT si limitava a lodare il podcast di Dadig, incentrato su appuntamenti e crescita personale. Il chatbot suggeriva semplicemente di cercare una moglie in palestra, senza mai approvare o incentivare comportamenti persecutori.
Nonostante questa discrepanza, Dadig sembra aver interpretato le risposte del chatbot come un incoraggiamento a proseguire nelle sue azioni. Le accuse contro di lui sono pesanti: stalking sul luogo di lavoro, tentativi di licenziamento, pubblicazione non autorizzata di foto online e divulgazione di informazioni personali, inclusi nomi e indirizzi. In un caso, Dadig è accusato di aver aggredito una donna, motivo per cui gli è stato vietato l'accesso alle palestre.
La vicenda solleva dubbi sulla reale influenza di ChatGPT in questo caso. Dadig aveva precedentemente ammesso sui social media di soffrire di disturbo antisociale di personalità (sociopatia) e disturbo bipolare. È possibile che il suo comportamento sarebbe stato lo stesso anche senza l'intervento del chatbot. Tuttavia, l'incidente riapre il dibattito sui potenziali rischi dell'IA, in particolare sulla possibilità che possa alimentare comportamenti malsani in individui con problemi di salute mentale.
Secondo dati ufficiali di OpenAI risalenti a ottobre, lo 0,07% degli utenti (circa 560.000 persone) mostra segni di comportamenti problematici legati all'uso di ChatGPT, mentre lo 0,15% (oltre un milione di persone) manifesta una dipendenza emotiva dal chatbot. Questi numeri, seppur contenuti, destano preoccupazione e sottolineano la necessità di monitorare attentamente l'impatto dell'IA sulla salute mentale degli utenti.
Ora, Dadig rischia una pena fino a 70 anni di prigione e una multa di 3,5 milioni di dollari. Al di là dell'esito del processo, questo caso rappresenta un campanello d'allarme sui pericoli potenziali di un'interazione incontrollata tra individui vulnerabili e tecnologie sempre più sofisticate come ChatGPT. È fondamentale sviluppare strumenti e protocolli per prevenire che l'IA possa essere utilizzata per alimentare comportamenti nocivi o dannosi.
Prima di procedere


