Il panorama dell'automazione lavorativa sta attraversando una fase di profonda incertezza, alimentata paradossalmente dagli stessi strumenti che dovrebbero fornire chiarezza. Un recente e significativo studio condotto dagli economisti Michelle Yin e Hoa Vu della Northwestern University, insieme a Claudia Persico della American University, ha gettato luce su una problematica critica: l'affidabilità dei cosiddetti indici di esposizione all'Intelligenza Artificiale. Questi parametri, utilizzati da decisori politici e grandi aziende per prevedere quali carriere siano destinate a scomparire o a trasformarsi radicalmente, mostrano discrepanze allarmanti a seconda del modello linguistico utilizzato per calcolarli. Analizzando le risposte fornite da sistemi all'avanguardia come ChatGPT-5, Gemini 2.5 e Claude 4.5, i ricercatori hanno scoperto che non esiste un consenso univoco su quali professioni siano effettivamente a rischio, mettendo in discussione la solidità delle fondamenta su cui poggiano molte strategie industriali odierne.
Le divergenze emerse durante la ricerca non sono di poco conto. Ad esempio, mentre Claude 4.5 ha classificato la professione del contabile come estremamente vulnerabile all'automazione, Gemini 2.5 ha fornito una valutazione sensibilmente più rassicurante. Simili discrepanze sono state osservate anche per ruoli di alto profilo come i manager pubblicitari e i dirigenti di livello superiore. Sebbene ChatGPT-5 e Gemini 2.5 tendano a mostrare una maggiore coerenza reciproca, lo studio evidenzia che dissentono comunque in circa un quarto dei casi esaminati. Questo disallineamento suggerisce che gli indici di esposizione non siano specchi oggettivi della realtà economica, ma piuttosto il risultato di architetture algoritmiche differenti e di dati di addestramento che riflettono pregiudizi specifici o lacune informative.
Uno degli aspetti più affascinanti e al contempo preoccupanti individuati dai ricercatori riguarda il cosiddetto circolo vizioso dei dati. Gli economisti hanno scoperto che le valutazioni dei modelli sono pesantemente influenzate da quali professionisti stanno già utilizzando l'Intelligenza Artificiale. Settori come quello degli analisti finanziari, che sono stati tra i primi ad adottare queste tecnologie in Stati Uniti e in Europa, generano un volume di dati molto più elevato rispetto ad altri ambiti. Questo surplus di informazioni viene poi riassorbito dai modelli durante la fase di apprendimento, portando l'IA a sovrastimare o sottostimare l'impatto dell'automazione in base alla propria familiarità con i compiti specifici di quel settore. In pratica, più una categoria lavorativa interagisce con la tecnologia, più quest'ultima tende a sentirsi capace di sostituirla o supportarla, creando una distorsione percettiva che altera le classifiche di vulnerabilità globale.
Attualmente, la creazione di questi indici avviene attraverso tre metodologie principali, ognuna dotata di limiti intrinseci. Il metodo manuale si affida al giudizio di esperti che valutano quanto l'Intelligenza Artificiale possa velocizzare singoli compiti lavorativi, ma questo approccio soffre di una forte soggettività umana. Le indagini dirette tra i dipendenti, invece, riflettono l'esperienza d'uso su specifiche piattaforme, rischiando di non essere rappresentative dell'intero mercato del lavoro globale. Infine, l'uso degli stessi modelli linguistici per generare indici automatizzati sembrava la soluzione più efficiente, ma lo studio della Northwestern University dimostra che questa scelta introduce variabili imprevedibili legate alla versione del software e alla data di aggiornamento del database. Nonostante queste fragilità, tali report finiscono regolarmente sulle scrivanie di consulenti strategici e funzionari governativi a Washington, Bruxelles e altre capitali mondiali, orientando flussi di investimento e riforme del welfare.
In un'epoca di rapida evoluzione tecnologica, la tendenza a considerare le previsioni algoritmiche come verità assolute rappresenta un rischio concreto per la stabilità sociale. Gli autori della ricerca sottolineano come i datori di lavoro potrebbero prendere decisioni affrettate, come tagli al personale o sospensione dei percorsi formativi, basandosi su dati non verificati. La proposta avanzata da Michelle Yin e dal suo team è quella di adottare un approccio multi-modello: invece di affidarsi a una singola IA, i ricercatori dovrebbero consultare diverse piattaforme contemporaneamente, evidenziando le zone d'ombra e i punti di disaccordo. Questo metodo corale permetterebbe di ottenere una visione più sfumata e realistica delle trasformazioni in atto nel mercato occupazionale.
In conclusione, la strada verso una comprensione accurata dell'impatto dell'automazione è ancora lunga e richiede una cautela estrema. Oltre ai modelli linguistici, è fondamentale integrare dati provenienti dall'osservazione diretta dell'economia reale, analizzando come l'Intelligenza Artificiale viene effettivamente implementata nei flussi di lavoro quotidiani. Come suggerito da Michelle Yin, l'invito per i lavoratori e le famiglie è alla prudenza: non è ancora il momento di cambiare radicalmente percorso di studi o carriera basandosi esclusivamente su una percentuale generata da un algoritmo. La complessità del lavoro umano, fatta di creatività, etica e relazioni interpersonali, rimane un territorio difficile da mappare completamente, anche per le intelligenze artificiali più sofisticate sviluppate ad oggi. Solo una collaborazione tra analisi tecnologica e vigilanza umana potrà guidare la società attraverso questa transizione epocale senza cadere in facili allarmismi o ottimismi infondati.

