Un'ombra di preoccupazione si addensa sulla startup Figure AI, specializzata nello sviluppo di robot umanoidi e sostenuta da colossi come Nvidia. Robert Gruendel, ex responsabile della sicurezza dei prodotti dell'azienda, ha intentato una causa clamorosa, sostenendo di essere stato licenziato ingiustamente dopo aver lanciato l'allarme sui potenziali pericoli rappresentati dai robot sviluppati. Secondo Gruendel, i robot di Figure AI sarebbero "sufficientemente forti da poter fratturare un cranio umano".
La denuncia, presentata presso il tribunale federale del distretto settentrionale della California, dipinge Gruendel come un whistleblower, un informatore che avrebbe pagato a caro prezzo il suo tentativo di tutelare la sicurezza. L'ingegnere afferma di essere stato licenziato nel settembre scorso, pochi giorni dopo aver formalmente comunicato le sue preoccupazioni ai vertici aziendali.
La vicenda emerge in un momento particolarmente delicato per Figure AI, reduce da una valutazione di mercato schizzata a 39 miliardi di dollari a seguito di un'importante tornata di finanziamenti guidata dal fondo Parkway Venture Capital. Un valore moltiplicato per 15 rispetto all'inizio del 2024, quando la startup aveva incassato il sostegno di investitori del calibro di Jeff Bezos, Nvidia e Microsoft.
Nella sua denuncia, Gruendel afferma di aver avvertito ripetutamente l'amministratore delegato di Figure AI, Brett Adcock, e il capo ingegnere, Kyle Edelberg, circa la possibilità che i robot potessero causare gravi lesioni alle persone. A sostegno delle sue affermazioni, l'ingegnere cita un episodio in cui un robot, a causa di un malfunzionamento, avrebbe praticato un foro di circa sei millimetri nello sportello d'acciaio di un frigorifero.
Ma non è tutto. Gruendel sostiene di aver messo in guardia i dirigenti dal ridimensionare un piano di sicurezza che lui stesso aveva presentato a due potenziali investitori, poi diventati finanziatori della startup. L'ingegnere temeva che la "distruzione" di questo piano, avvenuta proprio nel mese in cui Figure AI ha chiuso il round di finanziamento, potesse configurarsi come una vera e propria frode, avendo potenzialmente influenzato le decisioni degli investitori.
Secondo Gruendel, le sue preoccupazioni per la sicurezza venivano percepite dal management come "ostacoli" anziché come un adempimento dei suoi doveri professionali. Il licenziamento sarebbe poi avvenuto con una motivazione vaga, legata a un presunto "cambio di direzione aziendale". Ora, Gruendel chiede un risarcimento danni, oltre a sanzioni esemplari per Figure AI, insistendo affinché il caso venga esaminato da una giuria popolare.
La risposta di Figure AI non si è fatta attendere. Un portavoce dell'azienda ha dichiarato che Gruendel "è stato licenziato per prestazioni insoddisfacenti" e che le sue "accuse sono false e saranno confutate in tribunale". Resta da vedere come si evolverà la vicenda, ma di certo la causa intentata da Gruendel solleva interrogativi inquietanti sulla sicurezza dei robot umanoidi e sulla responsabilità delle aziende che li sviluppano.
Al di là delle specifiche accuse mosse contro Figure AI, il caso ripropone un tema di grande attualità: quello della sicurezza e dell'etica nello sviluppo dell'intelligenza artificiale e della robotica avanzata. Con robot sempre più potenti e autonomi, è fondamentale garantire che la sicurezza venga sempre al primo posto, evitando di sacrificare la tutela delle persone sull'altare dell'innovazione e del profitto.
Prima di procedere


