Teknoloji

İşte karşınızda yapay zekâların yapay zekâsı

Nvidia, Nemotron 3 Super modeliyle agentic AI tarafında çıtayı yukarı taşıdı. 1 milyon token’lık bağlam penceresi, hibrit Mamba-MoE mimarisi ve test sonuçlarıyla model, açık kaynak dünyasında dikkatleri üzerine çekti.

İşte karşınızda yapay zekâların yapay zekâsı
KAYNAK:
Serhat Yıldız
|
GİRİŞ:
13.03.2026
saat ikonu 11:25
|
GÜNCELLEME:
13.03.2026
saat ikonu 11:25

Nvidia, açık kaynaklı büyük dil modelleri yarışında elini daha da güçlendiren yeni modelini tanıttı: Nemotron 3 Super. Özellikle ajan tabanlı yapay zekâ uygulamaları için geliştirilen model, sadece teknik özellikleriyle değil, sahadaki performansıyla da öne çıkıyor.

İşte karşınızda yapay zekâların yapay zekâsı

1 milyon token’lık dev bağlam penceresiyle gelen Nemotron 3 Super, AI ajanlarının daha uzun ve karmaşık görevleri daha tutarlı şekilde yerine getirmesini hedefliyor. Açıkçası bu, özellikle çok katmanlı iş akışlarında ciddi bir fark yaratabilecek türden bir yenilik.

HİBRİT MİMARİYLE VERİMLİLİK ÖNE ÇIKIYOR

Modelin en dikkat çeken taraflarından biri, Nvidia imzası taşıyan hibrit Mamba-MoE mimarisi. Burada amaç yalnızca daha güçlü olmak değil, aynı zamanda daha verimli çalışmak. Geleneksel MoE modellerinden farklı olarak Mamba katmanları, veriyi State Space Model üzerinden lineer biçimde işliyor. Böylece gereksiz bilgilerin bağlam penceresine dolmasının önüne geçiliyor. Bu da modelin, kullanıcının iş yüküne daha uygun bir bağlam oluşturmasını ve agentic yanıtları daha isabetli üretmesini sağlıyor.

İşte karşınızda yapay zekâların yapay zekâsı

Bir başka dikkat çekici nokta da şu: Hibrit yapıda Mamba katmanları, bellek ve hesaplama verimliliğinde 4 kat avantaj sunuyor. Transformer katmanları ise işin akıl yürütme tarafını destekliyor. Yani model sadece hızlı değil, aynı zamanda düşünme tarafında da iddialı. Nemotron 3 Super toplamda 120 milyar parametreye sahip. Ancak çıkarım sırasında bunların yalnızca 12 milyarı aktif olarak kullanılıyor. Nvidia’nın eklediği Latent MoE tekniği de burada devreye giriyor. Sistem, doğruluğu artırmak için dört uzman parametreyi tek bir parametre maliyetiyle aktive ediyor. Sonuçta bir sonraki token üretilirken hem hız hem de doğruluk tarafında önemli bir kazanım elde ediliyor. Üstelik modelin çoklu token tahmini özelliği de var. Bu özellik sayesinde sistem, birden fazla kelimeyi aynı anda tahmin edebiliyor. Nvidia’ya göre bu yaklaşım, çıkarım hızını 3 kat artırıyor.

1 MİLYON TOKEN’LIK PENCERE NE ANLAMA GELİYOR?

Nemotron 3 Super’in 1 milyon token’lık bağlam penceresi, onu açık kaynaklı modeller arasında oldukça farklı bir yere koyuyor. Karşılaştırmak gerekirse, Kimi 2.5’in bağlam penceresi bu modelin yaklaşık dörtte biri seviyesinde kalıyor. Ajan tabanlı sistemlerde bağlam penceresi büyüdükçe, modelin daha fazla bilgiyi aynı anda takip etmesi mümkün hale geliyor. Bu da yanıtların daha tutarlı, daha güçlü ve görev odaklı olmasını sağlıyor. Biraz da bu yüzden Nemotron 3 Super, açık kaynak LLM’ler içinde ayrı bir kulvara yerleşmiş durumda.

İşte karşınızda yapay zekâların yapay zekâsı

Nvidia, modeli OpenClaw platformu üzerinden PinchBench testlerinde denedi. Ortaya çıkan sonuçlar da dikkat çekici. Nemotron 3 Super, testlerin tamamında yüzde 85,6 başarı oranı elde etti. Bu skor; Opus 4.5, Kimi 2.5 ve GPT-OSS 120b gibi modellerin üzerine çıkıyor. Özellikle tek bir GPU ile geniş kapsamlı iş yükleri çalıştırmak isteyenler için modelin sunduğu tablo oldukça iddialı görünüyor.

ETİKETLER
#yapay zeka
#nvıdıa
#Büyük Dil Modeli
#Nemotron 3 Super
#Ajan Tabanlı Ai
#Teknoloji
YorumYORUM YAZ
Uyarı
Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.