Elon Musk’ın yapay zeka girişimi xAI, dünyanın ilk gigavat enerji kapasitesine sahip süper bilgisayarı Colossus 2’yi aktif hale getirerek yapay zeka eğitiminde yeni bir dönemi başlattı.

Yapay zeka yarışında donanım gücü kritik bir eşiği aştı. xAI, önceki versiyonuyla zaten rekorlar kıran Colossus süper bilgisayar kümesinin ikinci fazı olan “Colossus 2″nin fişini taktı. Teknoloji dünyasında “mühendislik harikası” olarak nitelendirilen bu sistem, gigavat ölçekli enerji tüketimi ve işlem kapasitesiyle dünyada bir ilk olma özelliği taşıyor. Yeni sistemin, xAI’ın geliştirdiği Grok modellerinin eğitim hızını katbekat artırması ve şirketin otonom sürüşten ileri seviye akıl yürütmeye kadar pek çok alanda rakipleriyle arasındaki makası açması bekleniyor. Uzmanlar, bu gelişmenin sadece bir donanım güncellemesi değil, aynı zamanda yapay genel zeka (AGI) yolunda atılmış en somut adımlardan biri olduğunu vurguluyor.
| Özellik | Colossus 1 (2024-2025) | Colossus 2 (Ocak 2026) | Değişim / Fark |
| Enerji Kapasitesi | ~50-100 Megavat (MW) | 1 Gigavat (GW) | 10-20 Kat Artış (Küçük bir şehir elektriğine eşdeğer) |
| Toplam GPU Sayısı | ~100.000 (H100) | 555.000+ | 5.5 Kat Artış |
| Baskın Çip Mimarisi | NVIDIA H100 (Hopper) | NVIDIA GB200 & GB300 (Blackwell) | Yeni nesil mimari (Daha yüksek veri bant genişliği) |
| Odaklandığı Model | Grok-2 / Grok-3 | Grok-4 & Otonom Sürüş | AGI (Yapay Genel Zeka) seviyesi hedefleniyor |
| Soğutma Sistemi | Hava + Kısmi Sıvı | Gelişmiş Tam Sıvı Soğutma | Yoğun işlem gücünü soğutmak için zorunlu |
| Yatırım Maliyeti | Milyar Dolar Seviyesi | ~18 Milyar Dolar | Tek bir kampüs için rekor yatırım |
Detaylar: Neden “Oyun Değiştirici”?
1. “Gigavat” Eşiğinin Aşılması (Sanayi Tipi AI) Teknoloji dünyasında veri merkezleri bugüne kadar genellikle “Megavat” (MW) ile ölçülürdü. Google, Meta veya Microsoft’un büyük kümeleri genellikle 100-300 MW aralığındaydı. Colossus 2 ile ilk kez bir şirket 1 Gigavat (1000 Megavat) sınırını tek bir kümede aştı. Bu, yapay zeka eğitiminin artık “laboratuvar” ölçeğinden çıkıp “ağır sanayi” ölçeğine (bir nükleer santral reaktörü kadar enerji tüketen) geçtiğini gösteriyor. Nisan 2026’ya kadar bu kapasitenin 1.5 GW’a çıkması hedefleniyor.
2. NVIDIA GB200 ve GB300 Farkı Colossus 1’de kullanılan H100 çipleri zaten çok güçlüydü, ancak Colossus 2’de ağırlıklı olarak NVIDIA’nın en yeni Blackwell (GB200) serisi kullanılıyor. Bu çipler, birbirleriyle iletişim kurma konusunda çok daha hızlı. Yani 500.000 çip, birbirinden kopuk değil, devasa “tek bir beyin” gibi (Coherent Cluster) çalışabiliyor. Bu da trilyonlarca parametreli modellerin çok daha kısa sürede eğitilmesini sağlıyor.
3. Rakiplerle Aradaki Makas Şu an Meta, Microsoft ve Google da benzer sistemler üzerinde çalışıyor ancak xAI’ın inşa hızı (122 günde kurulum gibi rekorlar) ve tek bir lokasyonda bu kadar GPU’yu toplama cesareti, onu rakiplerinden ayırıyor. Diğer firmalar genellikle riski dağıtmak için veri merkezlerini bölerken, xAI tüm gücü tek bir noktada toplayarak eğitim verimliliğini maksimize etmeyi seçti.