Desi hyperscalerii isi rezerva cea mai mare parte a noilor GPU-uri la fiecare anunt, Nvidia incearca sa dezvolte un ecosistem generativ si deschis de IA. Noile sale modele Nemotron 3 se inscriu in aceasta strategie.
Nvidia nu vrea sa se multumeasca cu a deservi doar cativa clienti gigantici precum Amazon, Microsoft sau OpenAI. Compania doreste sa vada centre de calcul inflorind peste tot in lume si de aceea sustine cu tarie ecosistemul open source… si initiativele suverane. Pentru ca, in orice caz, aceste solutii vor functiona pe baza tehnologiilor sale.
Lansarea familiei de modele Nemotron 3 pe 15 decembrie se inscrie in acest context. Este vorba de modele deschise – ca intotdeauna in cazul Nvidia – impartite in trei dimensiuni, asa cum este acum obisnuit. Acestea au fost concepute pentru a fi utilizate in crearea de sisteme multi-agenti si utilizeaza o arhitectura hibrida de tip „mixture of experts” (MoE), ceea ce le permite sa fie mai usoare decat modelele dense cu performante egale.
Nemotron 3 Nano dispune de 30 de miliarde de parametri, dintre care 3 miliarde sunt activi. Este recomandat pentru sarcini simple, cum ar fi rezumarea continutului sau cautarea de informatii intr-o baza de cunostinte.
Nemotron 3 Super este un model de rationament pentru aplicatii multi-agent care necesita o latenta redusa. Are 100 de miliarde de parametri, dintre care 10 miliarde sunt activi.
Nemotron 3 Ultra are 500 de miliarde de parametri, dintre care 50 de miliarde sunt activi, si este rezervat pentru cele mai complexe aplicatii.
Pana in prezent, este disponibila doar versiunea Nano.
Nvidia evidentiaza performantele Nemotron 3 Nano, cu benchmark-uri furnizate de Artificial Analysis. Potrivit companiei, acesta este „mai putin consumator de resurse in ceea ce priveste inferenta si mai precis in raspunsurile sale decat modelele de dimensiuni echivalente”. Cu toate acestea, se remarca absenta anumitor modele recente, precum Ministral 3.
Daca accentul este pus pe Nano, este pentru ca acesta este singurul disponibil pe Hugging Face pana in prezent. Variantele Super si Ultra vor fi lansate abia in prima jumatate a anului 2026. Adica o eternitate pentru sectorul IA generativa, unde in fiecare saptamana apar noi modele.
Nvidia precizeaza ca Nemotron 3 Nano poate produce de patru ori mai multe tokenuri decat modelul sau anterior (Nemotron 2 Nano) la o inferenta egala si ca necesita cu 60% mai putine tokenuri pentru sarcinile de rationament. De asemenea, dispune de o fereastra contextuala de un milion de tokenuri.
Nvidia publica si datele de antrenament
Fapt rar, Nvidia nu se multumeste sa publice doar ponderile modelelor sale, ci si datele de antrenament (reprezentand 3000 de miliarde de tokenuri), plus biblioteci de invatare prin intarire (NeMo Gym si NeMo RL) pentru a ajuta dezvoltatorii sa creeze proprii agenti IA specializati. In cele din urma, NeMo Evaluator este un instrument care permite validarea securitatii si performantei modelelor astfel create. Totul este disponibil pe GitHub si Hugging Face.
Asa cum am mentionat in introducere, strategia Nvidia decurge din faptul ca o pluralitate de clienti „mici” este preferabila unei mana de giganti, care, de altfel, cauta sa se elibereze de furnizorul lor costisitor. Printre „early adopters” ai modelelor sale se numara Accenture, Cadence, CrowdStrike, Cursor, Deloitte, EY, Oracle Cloud Infrastructure, Palantir, Perplexity, ServiceNow, Siemens si Zoom.


