NVIDIA ha rilasciato AceReason-Nemotron-14B, un modello open source da 14 miliardi di parametri incentrato sul ragionamento in matematica e codice.
È stato addestrato utilizzando l'apprendimento per rinforzo, prima su problemi matematici, poi su sfide di programmazione, con l'obiettivo di risolvere compiti logici complessi in modo più accurato rispetto ai modelli linguistici tradizionali.

Ora è disponibile su Hugging Face e chiunque può scaricarla e utilizzarla.

Cosa dice l'azienda

NVIDIA ha condiviso i benchmark che mostrano miglioramenti reali:

  • 78,6% su AIME 2024

  • 67,4% su AIME 2025

  • 61,1% su LiveCodeBench v5

  • 54,9% su LiveCodeBench v6

Questi punteggi dimostrano che il modello è in grado di risolvere problemi articolati in più fasi e di generare soluzioni migliori sia in matematica che in programmazione.

Non stanno semplicemente rilasciando un modello: stanno gettando le basi per la creazione di sistemi di intelligenza artificiale agentivi.

Come ha affermato Jensen Huang, CEO di NVIDIA:

I modelli di ragionamento aperti, il software e gli strumenti di NVIDIA forniscono agli sviluppatori e alle aziende di tutto il mondo gli elementi costitutivi per creare una forza lavoro AI agentiva accelerata.
- Comunicato stampa NVIDIA, 18 marzo 2025

Cosa significa (in parole umane)

NVIDIA non sta cercando di creare un nuovo assistente.
Stanno fornendo agli sviluppatori una cassetta degli attrezzi gratuita, aperta e pensata per pensare lucidamente a problemi complessi.

AceReason non ama fare due chiacchiere.
È progettato per aiutare ingegneri, programmatori e ricercatori a risolvere problemi complessi di matematica e programmazione, migliorando passo dopo passo il modo in cui il modello ragiona.

È qualcosa con cui costruisci, non qualcosa con cui parli.

Cosa significa apprendimento tramite rinforzo?

Quando NVIDIA afferma che questo modello è stato addestrato utilizzando l'apprendimento per rinforzo, ecco cosa intende realmente:

È come dare un feedback all'intelligenza artificiale mentre impara, in modo che possa provare diverse risposte e capire quali sono migliori.

Invece di copiare semplicemente gli esempi come nella formazione normale, il modello esegue un ciclo:

  1. Cerca di rispondere a un problema

  2. Riceve un punteggio o una “ricompensa” in base alla qualità della risposta

  3. Si adatta per fare meglio la prossima volta

Questo è utile per compiti come matematica e programmazione, in cui non esiste una sola frase che suona giusta, ma una risposta corretta che richiede dei passaggi logici per essere raggiunta.

L'apprendimento per rinforzo aiuta il modello a imparare a compiere questi passaggi in modo più accurato.

Quindi, in parole semplici:
Non è solo addestrato a parlare: è addestrato a risolvere.

Cosa c'entrano DeepSeek R1 Distilled e Qwen-14B

Quando si cerca di sviluppare un algoritmo di intelligenza artificiale, è fondamentale conoscere l'obiettivo, ovvero cosa si vuole effettivamente ottenere.

Ed è qui che entrano in gioco Qwen-14B e DeepSeek R1 Distilled.

Questi moduli non solo sono gratuiti (sì, Qwen-14B è open source), ma sono stati anche sviluppati con qualcosa di raro nel mondo LLM: la concentrazione.

E lo sappiamo: dire "concentrato" può suonare vago.
Ma quello che intendiamo è questo:

Questi modelli sono stati addestrati con uno scopo ben preciso.
Non devono gestire tutto, come fanno Gemini o ChatGPT.
Non cercano di alimentare una conversazione, di essere politicamente corretti, di comprendere le sfumature o di aiutarti a scrivere una poesia.

Sono progettati per fare bene una cosa e per questo non si lasciano sopraffare.

Ecco perché rappresentano un ottimo punto di partenza per creare qualcosa come AceReason.
Quando si parte da un modello già ottimizzato per essere nitido e ristretto, è più facile addestrarlo per compiti che hanno poco o nulla a che fare con il parlare, come la risoluzione di problemi matematici o la scrittura di codice funzionale.

Confronto: Scopo e ambito del modello

Modello

Architettura di base

Scopo

Pronti per una conversazione?

Tipo di formazione

Open Source?

Punto di forza principale

AceReason-Nemotron-14B

DeepSeek-R1-Distillato-Qwen-14B

Matematica focalizzata e ragionamento in codice

❌ No

Apprendimento per rinforzo (matematica/codice)

✅ Sì

Ragionamento strutturato, compiti basati sulla logica

GPT-4 (ChatGPT)

Proprietario

Assistente di ruolo

✅ Sì

Supervisionato + RLHF

❌ No

Fluidità linguistica, utilità multi-dominio

Gemelli (Google)

Proprietario

Assistente multimodale (testo, immagine, codice)

✅ Sì

Multimodale + messa a punto fine + RLHF

❌ No

Si integra nell'ecosistema Google

Mistral 7B

Trasformatore (denso)

LLM open source leggero e veloce

❌ No (non di default)

Previsione del prossimo token

✅ Sì

Velocità, efficienza del token, estensibile

Qwen-14B

Il trasformatore di Alibaba

Modello base aperto utilizzato in molti progetti

❌ No

Pre-addestrato, istruzioni ottimizzate

✅ Sì

Fondamenti di linguaggio e ragionamento

Conclusione

Prospettiva del team di Frozen Light

Questa mossa di NVIDIA la dice lunga.

Innanzitutto, è chiaro che stanno prendendo di mira i venditori di LLM, anche se non lo dicono ad alta voce.
Stanno inserendo il messaggio open source in modo da poter silenziosamente distogliere la conversazione da:

"Ehi, ora stiamo costruendo LLM",
e verso:
"Stiamo solo supportando gli sviluppatori."

Ma se ti fermi davvero e guardi, questo urla:
NVIDIA è appena passata dal parlare di chip... alla realizzazione di modelli.
E non modelli qualunque: modelli addestrati a ragionare, apprendere e costruire conoscenza.

E parliamo dei moduli che hanno scelto.
Qui è dove la cosa diventa interessante.

Hanno scelto DeepSeek, che potrebbe sembrare solo l'ennesimo progetto open source...
Ma sotto la superficie, cerca anche di essere il tuo assistente, solo che si presenta come un software open source.

Perché è importante?
Perché la cultura e i dati di addestramento plasmano il modo in cui un modello pensa.
E DeepSeek non ha le stesse origini di GPT-4 o Gemini.
Quindi i suoi pregiudizi, il suo stile e le sue priorità sono diversi.
Nel mondo dell'intelligenza artificiale, sappiamo che:

"Ciò su cui ti alleni è ciò che otterrai."

Ed ecco la verità: addestrare un modello affinché sia imparziale, politicamente corretto e bravo nella conversazione è davvero difficile.
Quindi NVIDIA non si è preoccupata.

Puntavano a qualcosa di molto più pulito:
Matematica e programmazione.
Niente politica. Niente sentimenti.
Semplicemente un linguaggio universale, con cui non devi preoccuparti di offendere nessuno.

Questa non è una nota a margine: è la strategia complessiva.

Perché la vera guerra dell'intelligenza artificiale non riguarda chi crea l'assistente più amichevole.
Il problema è chi possiede i dati.
E NVIDIA non può contare su nessun altro che le fornisca ciò di cui ha bisogno.
Se la tua attività riguarda le infrastrutture, è meglio che tu comprenda i programmi che si basano su di esse.

E come si fa?
Facile.
Soddisfa le esigenze grezze e non filtrate degli sviluppatori.
Inizia a raccogliere segnali.
Crea una linea di demarcazione tra te e il tuo pubblico, prima che lo faccia qualcun altro.

Non dimentichiamolo:
Ogni grande balzo in avanti nell'intelligenza artificiale è stato favorito da infrastrutture e GPU.
Quello è il territorio di NVIDIA. E hanno intenzione di rimanerci.
Ma per restare rilevanti, devono continuare a ispirare gli sviluppatori.
E questo?
Questa è la loro prossima grande idea.

E dobbiamo darglielo:
Leggono la stanza.
Sapevano che l'open source avrebbe parlato direttamente al cuore dello sviluppo reale.
Sapevano che i dati sono la nuova valuta, e noi ne abbiamo già spesi tanti gratuitamente, solo per usare ciò che altri hanno costruito.

Ecco cosa diremo forte e chiaro:

Se sei uno sviluppatore,
i tuoi dati non sono solo traffico.
È capitale.
E se non lo rivendichi tu adesso, lo farà qualcun altro.

Questa versione?
Non si tratta solo di ragionamento.

È una questione di posizionamento.
Proprietà.
E assicurarsi che non restino mai esclusi dalla fase successiva del gioco.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.