OpenAI Cerebras WSE-3’e geçerek Codex-Spark’ı hızlandırdı
NVIDIA tekeli sarsılabilir, veri merkezleri yeni tercihlere yöneliyor.

OpenAI, son Codex duyurusunda Cerebras’ın AI çiplerini ana akımda ilk kez benimseyerek GPT‑5.3‑Codex‑Spark’ı Cerebras Wafer Scale Engine 3 (WSE‑3) üzerinde çalıştırdığını duyurdu. OpenAI, bu tercih sayesinde inference iş yüklerinde düşük gecikme ve bazı durumlarda 1,000 TPS gibi yüksek yanıt hızları elde ettiğini belirtiyor.
OpenAI neden Cerebras’ı compute için seçti?
OpenAI, WSE‑3’ün yüksek bellek bant genişliği ve çip içi SRAM kapasitesi sayesinde kodlama gibi memory‑bounded iş yüklerinde avantaj sağladığını söylüyor. Bununla birlikte, NVIDIA’nın Blackwell mimarisi daha çok batch processing odaklı olduğundan, latency açısından Cerebras daha uygun bulundu. Öte yandan ekonomik gerekçeler de söz konusu: Spark’ı NVIDIA altyapısında eğitmek OpenAI’ye şu an pratik gelmiyor.
Codex‑Spark ve GPT‑5.3‑Codex‑Spark nasıl farklılaşıyor?
OpenAI, Spark varyantını “work done in the moment” — anında işi halletmek için tasarlandığını ifade ediyor. Buna göre GPT‑5.3‑Codex‑Spark, boru hattı optimizasyonları ve Cerebras donanımından yararlanarak model gecikmesini düşürüyor. OpenAI, time‑to‑first‑token süresini %50 azalttığını iddia ediyor; ayrıca Codex‑Spark’ın 1,000 TPS ile “human pair programmer” kadar yanıt verici olduğu belirtiliyor.
Cerebras WSE‑3 teknik özellikleri nelerdir?
Codex‑Spark, Cerebras’ın Wafer Scale Engine 3 üzerinde çalışıyor ve teknik döküm şu şekilde verilmiş:
| Özellik | WSE-3 |
|---|---|
| Process Node (üretim düğümü) | TSMC 5nm |
| Transistors (transistör sayısı) | ~4 trillion |
| Compute Cores (hesaplama çekirdekleri) | 900,000 AI-optimized cores |
| On-Chip SRAM | 44 GB |
| Memory Bandwidth (On-Chip) (bellek bant genişliği — çip içi) | 21 PB/s |
| Wafer Size (wafer boyutu) | Full 300mm wafer-scale chip |
| Core Architecture (çekirdek mimarisi) | AI-optimized programmable processing cores |
- TSMC 5nm üretim düğümü ve ~4 trillion transistör
- 900.000 AI‑optimize hesaplama çekirdeği ve 44 GB on‑chip SRAM
- Çip içi bellek bant genişliği 21 PB/s ile yüksek throughput sağlanıyor
NVIDIA ile rekabet OpenAI için ne anlama geliyor?
OpenAI, Sachin Katti aracılığıyla Cerebras ile “tamamlayıcı yetenekler” eklediğini söylüyor; ancak AI laboratuvarının compute yarışındaki sadakati büyük ölçüde NVIDIA’ya yönelik kalmaya devam ediyor. Öte yandan NVIDIA’nın tokenomics yaklaşımı, Blackwell ile token maliyetlerini 10 kata kadar düşürebildiğini gösteriyor. Bununla birlikte Codex‑Spark, bugün darboğazın gecikme olduğunu ve donanım seviyesinde bazı senaryolarda NVIDIA’nın teknoloji yığınının bu alanı domine etmediğini ortaya koyuyor.
Cerebras, ASIC üreticileri ve AMD gibi rakip çözümlerle birlikte inference pazarında güçlü oyunculardan biri olarak öne çıkıyor. Sonuç olarak, inference pazarında NVIDIA’nın konumlanışı ve Cerebras gibi alternatiflerin rolü yakından izlenmeye değer.
Sonuç olarak, OpenAI’nin Cerebras tercihi inference gecikmesi ve memory‑bounded iş yükleri açısından önemli bir veri sağlıyor. Okuyucuların görüşlerini yorumlara bekliyoruz; sizce Cerebras, NVIDIA’ya gerçek bir alternatif oluşturabilir mi?






