Grandi novità in arrivo nel mondo dell'intelligenza artificiale: DeepSeek si prepara a lanciare il suo nuovo modello DeepSeek-V4, un aggiornamento significativo rispetto al suo predecessore DeepSeek-R1, che aveva fatto scalpore nel gennaio 2023. Dopo mesi di speculazioni e indiscrezioni, sembra che il prossimo mese assisteremo al debutto di questa IA multimodale, frutto di un intenso lavoro di sviluppo.
Secondo fonti interne, negli ultimi sei mesi, il team di sviluppo di DeepSeek, guidato dal co-fondatore Liang Wenfeng, si è concentrato sul superamento dei limiti di DeepSeek nell'elaborazione di contenuti visivi e nel miglioramento della ricerca basata sull'IA. Un obiettivo primario è stato potenziare le capacità del modello nella generazione di codice e ampliare la sua finestra contestuale. Per raggiungere questi ambiziosi traguardi, DeepSeek ha stretto una partnership strategica con Baidu lo scorso anno.
L'attesa per la nuova versione di DeepSeek è palpabile tra gli esperti del settore. Recentemente, sulla piattaforma OpenRouter, un importante aggregatore di API per modelli IA, sono apparsi due nuovi algoritmi: Healer Alpha e Hunter Alpha. Healer Alpha è descritto come un modello linguistico multimodale, capace di interpretare informazioni visive e sonore, effettuare ragionamenti cross-modali ed eseguire compiti complessi in più fasi con elevata precisione. La sua finestra contestuale è di 260.000 token. Hunter Alpha, invece, è progettato specificamente per applicazioni agentive, con un'architettura da trilioni di parametri e una finestra contestuale di 1 milione di token. Questo modello eccelle nella pianificazione a lungo termine, nel ragionamento complesso e nell'esecuzione continua di attività in più fasi, seguendo scrupolosamente le istruzioni ricevute, un aspetto fondamentale per l'integrazione con framework come OpenClaw, che permette di creare agenti IA.
L'emergere di questi due modelli linguistici ha riacceso il dibattito sull'imminente rilascio di DeepSeek-V4. Tuttavia, le informazioni precedentemente divulgate su DeepSeek-V4 suggeriscono un modello con decine di trilioni di parametri, una finestra contestuale di 1 milione di token e la capacità di comprendere e generare dati multimodali, ovvero elaborare e creare testo, immagini e video. Pertanto, le caratteristiche degli algoritmi recentemente apparsi su OpenRouter non sembrano corrispondere pienamente alle specifiche attese per DeepSeek-V4.
Le ultime indiscrezioni indicano che lo sviluppo della prossima versione di DeepSeek si concentra sul miglioramento della memoria a lungo termine, considerata una caratteristica cruciale per i modelli linguistici. Negli ultimi sei mesi, Liang Wenfeng ha co-firmato tre pubblicazioni scientifiche incentrate sull'esplorazione delle potenzialità di espansione della memoria a lungo termine dei modelli linguistici. Questi studi rivelano una chiara traiettoria di evoluzione tecnologica. Dopo aver consolidato il paradigma dell'apprendimento per rinforzo per le capacità di ragionamento in DeepSeek-R1, i ricercatori stanno esplorando ulteriori innovazioni nell'architettura di base. Attraverso nuovi moduli, come la "memoria condizionale", mirano a migliorare le prestazioni dell'algoritmo, affrontando le limitazioni note dell'architettura tradizionale in termini di memoria e potenza di calcolo. Questo lavoro rappresenta anche una preparazione tecnologica per il lancio di DeepSeek-V4. Inoltre, il nuovo algoritmo sarà profondamente ottimizzato per gli acceleratori IA cinesi e potrebbe diventare il primo modello IA a operare interamente all'interno dell'"ecosistema di potenza di calcolo domestico".
Il mese di aprile si preannuncia particolarmente dinamico per il mercato cinese dei modelli IA. Oltre al lancio della nuova versione di DeepSeek, è previsto il rilascio di un altro modello IA di Tencent, con 30 miliardi di parametri. L'innovazione nel campo dell'intelligenza artificiale è inarrestabile e DeepSeek-V4 si candida a essere uno dei protagonisti di questa rivoluzione.

