Dopo un acceso dibattito durato mesi, gli sviluppatori del kernel Linux hanno ufficialmente approvato una politica sull'uso dell'Intelligenza Artificiale (AI). L'accordo, raggiunto tra Linus Torvalds e i principali partner del settore, consente l'impiego di assistenti AI nello sviluppo, ma introduce rigide regole di trasparenza e attribuisce la piena responsabilità di eventuali errori agli sviluppatori umani.
Le nuove regole vietano l'uso del tag 'Signed-off-by', legalmente vincolante, per il codice generato da sistemi AI. Questo tag viene sostituito da un nuovo tag, 'Assisted-by', che indica chiaramente l'origine delle modifiche. Questa decisione, come riportato da Tom's Hardware, è una risposta alle crescenti tensioni nella comunità, causate da un flusso di codice di bassa qualità e dall'uso non dichiarato di reti neurali. Ogni bug o vulnerabilità presente nel codice contrassegnato come 'Assisted-by' sarà legalmente responsabilità della persona che ha pubblicato le modifiche. Questo impedisce di scaricare la colpa sugli algoritmi e permette di integrare strumenti moderni nel flusso di lavoro, senza compromettere i principi della certificazione Developer Certificate of Origin (DCO).
Le dispute sull'integrazione dell'AI hanno raggiunto il culmine a gennaio, quando rappresentanti di Intel e Oracle si sono scontrati pubblicamente sulle regole per le reti neurali nel progetto. Torvalds ha criticato aspramente l'idea di un divieto totale, definendola inutile e sottolineando che l'AI è solo uno strumento, come qualsiasi altro software. Ha evidenziato che gli utenti malintenzionati non leggerebbero comunque la documentazione, quindi è più efficace controllare il risultato attraverso la responsabilità individuale piuttosto che tentare di vietare le tecnologie sulle macchine degli sviluppatori.
Prima dell'adozione di una politica unificata, i grandi progetti open source avevano approcci diversi al problema, arrivando anche a divieti totali. Ad esempio, le distribuzioni Gentoo e NetBSD avevano bloccato l'accettazione di codice generato dall'AI, sostenendo che i dati utilizzati per addestrare i modelli spesso contengono codice con licenze restrittive, rendendo il risultato legalmente illegittimo. Gli specialisti di Red Hat, a loro volta, avevano avvertito che l'uso di tali strumenti potrebbe involontariamente violare le licenze GNU GPL e compromettere l'intero sistema DCO, poiché lo sviluppatore non può garantire la purezza dell'origine di ogni riga di codice.
Oltre ai rischi legali, la comunità ha dovuto affrontare il problema di un enorme volume di modifiche di bassa qualità, soprannominate 'AI slop'. I creatori di progetti popolari come cURL e tldraw sono stati costretti a chiudere i programmi di ricompensa o a rifiutare automaticamente le richieste esterne a causa dello spam contenente codice con 'allucinazioni' dell'AI. Nel caso del kernel Linux, la situazione è stata aggravata da un incidente che ha coinvolto Sasha Levin, ingegnere di Nvidia, che ha introdotto una patch per il kernel 6.15 completamente scritta da un modello AI senza darne comunicazione. Il codice era funzionale, ma conteneva una regressione delle prestazioni, nonostante fosse stato verificato e testato.
Il problema della sfiducia dovuta all'uso nascosto dell'AI ha colpito non solo la programmazione di sistema, ma anche altri settori, come la comunità dei modder di Doom. In particolare, il leader del progetto GZDoom, Christoph Oelckers, ha affrontato un esodo di massa dei partecipanti al progetto dopo aver utilizzato patch AI senza rivelarlo e rifiutandosi di scendere a compromessi con i critici. Di conseguenza, la maggior parte dei collaboratori ha abbandonato il progetto originale e ha creato un fork chiamato UZDoom, dimostrando l'importanza della trasparenza e dell'onestà nei confronti della comunità. La nuova policy del kernel Linux mira a bilanciare l'innovazione offerta dall'AI con la necessità di mantenere alta la qualità e l'affidabilità del codice, tutelando al contempo i principi etici e legali che da sempre guidano lo sviluppo open source.

