Kategoriler
UYGULAMALAR
İstanbul

Nvidia, açık kaynaklı büyük dil modelleri yarışında elini daha da güçlendiren yeni modelini tanıttı: Nemotron 3 Super. Özellikle ajan tabanlı yapay zekâ uygulamaları için geliştirilen model, sadece teknik özellikleriyle değil, sahadaki performansıyla da öne çıkıyor.

1 milyon token’lık dev bağlam penceresiyle gelen Nemotron 3 Super, AI ajanlarının daha uzun ve karmaşık görevleri daha tutarlı şekilde yerine getirmesini hedefliyor. Açıkçası bu, özellikle çok katmanlı iş akışlarında ciddi bir fark yaratabilecek türden bir yenilik.
Modelin en dikkat çeken taraflarından biri, Nvidia imzası taşıyan hibrit Mamba-MoE mimarisi. Burada amaç yalnızca daha güçlü olmak değil, aynı zamanda daha verimli çalışmak. Geleneksel MoE modellerinden farklı olarak Mamba katmanları, veriyi State Space Model üzerinden lineer biçimde işliyor. Böylece gereksiz bilgilerin bağlam penceresine dolmasının önüne geçiliyor. Bu da modelin, kullanıcının iş yüküne daha uygun bir bağlam oluşturmasını ve agentic yanıtları daha isabetli üretmesini sağlıyor.

Bir başka dikkat çekici nokta da şu: Hibrit yapıda Mamba katmanları, bellek ve hesaplama verimliliğinde 4 kat avantaj sunuyor. Transformer katmanları ise işin akıl yürütme tarafını destekliyor. Yani model sadece hızlı değil, aynı zamanda düşünme tarafında da iddialı. Nemotron 3 Super toplamda 120 milyar parametreye sahip. Ancak çıkarım sırasında bunların yalnızca 12 milyarı aktif olarak kullanılıyor. Nvidia’nın eklediği Latent MoE tekniği de burada devreye giriyor. Sistem, doğruluğu artırmak için dört uzman parametreyi tek bir parametre maliyetiyle aktive ediyor. Sonuçta bir sonraki token üretilirken hem hız hem de doğruluk tarafında önemli bir kazanım elde ediliyor. Üstelik modelin çoklu token tahmini özelliği de var. Bu özellik sayesinde sistem, birden fazla kelimeyi aynı anda tahmin edebiliyor. Nvidia’ya göre bu yaklaşım, çıkarım hızını 3 kat artırıyor.
Nemotron 3 Super’in 1 milyon token’lık bağlam penceresi, onu açık kaynaklı modeller arasında oldukça farklı bir yere koyuyor. Karşılaştırmak gerekirse, Kimi 2.5’in bağlam penceresi bu modelin yaklaşık dörtte biri seviyesinde kalıyor. Ajan tabanlı sistemlerde bağlam penceresi büyüdükçe, modelin daha fazla bilgiyi aynı anda takip etmesi mümkün hale geliyor. Bu da yanıtların daha tutarlı, daha güçlü ve görev odaklı olmasını sağlıyor. Biraz da bu yüzden Nemotron 3 Super, açık kaynak LLM’ler içinde ayrı bir kulvara yerleşmiş durumda.

Nvidia, modeli OpenClaw platformu üzerinden PinchBench testlerinde denedi. Ortaya çıkan sonuçlar da dikkat çekici. Nemotron 3 Super, testlerin tamamında yüzde 85,6 başarı oranı elde etti. Bu skor; Opus 4.5, Kimi 2.5 ve GPT-OSS 120b gibi modellerin üzerine çıkıyor. Özellikle tek bir GPU ile geniş kapsamlı iş yükleri çalıştırmak isteyenler için modelin sunduğu tablo oldukça iddialı görünüyor.