Yapay zekâ artık hayatımızın neredeyse her alanına girmiş durumda. Ancak bu hızlı yayılmanın görmezden gelinmeyecek bir bedeli var: Para ve enerji. Yeni bir rapor, yapay zekânın geleceğini belirleyecek asıl sorunun teknoloji değil, finansman olduğunu söylüyor.
Bain & Company’nin raporuna göre, AI altyapısını besleyecek hesaplama gücü için 2030’a kadar her yıl 500 milyar dolardan fazla veri merkezi yatırımı yapılması gerekiyor. Bu da sektörün sürdürülebilir olması için yılda 2 trilyon dolar gelir elde etmesi demek. Fakat öngörüler, bu hedefin yaklaşık 800 milyar dolar gerisinde kalınacağını işaret ediyor.
Rapora göre asıl problem basit: Yapay zekânın talebi, mevcut donanımın kapasitesinden çok daha hızlı artıyor. Moore Yasası yavaşlamış olsa da, yapay zekâ iş yükleri hız kesmiyor. Eğitim ve çıkarım gereksinimleri her geçen gün büyüyor ve veri merkezleri tek bir çipin verimliliğine güvenmek yerine sürekli yeni kapasite eklemek zorunda kalıyor.
2030’da küresel AI hesaplama ihtiyacının 200 GW’a ulaşabileceği, bunun yarısının yalnızca ABD’de olacağı öngörülüyor. Böyle bir kapasite, devasa enerji yatırımları, yıllar sürecek ekipman tedariki ve yüksek performanslı soğutma sistemlerini zorunlu kılıyor.
Üstelik HBM ve CoWoS gibi kritik silikon bileşenlerinde hâlihazırda ciddi bir tedarik sıkıntısı var. Talep o kadar hızlı artıyor ki, fiyat dışında neredeyse her noktada kapasiteyi aşmış durumda. Bu tablo, büyük veri merkezlerinin watt ve alan başına en yüksek getiriyi sağlayan sistemlere yönelmesini kaçınılmaz kılıyor. Nvidia’nın GB200 NVL72’si veya AMD’nin MI300X platformu gibi tam raf GPU çözümleri ön planda olacak. Küçük ölçekli konfigürasyonlar ve üst düzey masaüstü seçenekleri ise geri plana düşebilir.
Eğer veri merkezleri talebi karşılamakta zorlanırsa, yükün bir kısmı uç cihazlara kayabilir. Bu da 40–60 TOPS seviyesinde NPU barındıran dizüstü ve masaüstü bilgisayar üreticileri için fırsat oluşturuyor. Uçta yapılan çıkarım, hem daha hızlı hem de daha az sermaye gerektiriyor.