TWENREE logo TWENREE
Canlıda TWENREE.CO

Twenree HyperCore | 2 Milyar TL Program

Hyperscale Veri Merkezi
Planlama Merkezi

Global benchmark, kapasite modelleme, AI işlem birimi yol haritası ve fizibiliteyi tek kontrol panelinde yönetin

Twenree HyperCore, 2.000.000.000 TL ölçeğinde bir veri merkezi yatırımını aşamalı olarak planlamak için tasarlanmış yönetim alanıdır. Bu sürümde IEA, Uptime, TOP500, AWS, Azure, Google Cloud ve NVIDIA kaynaklarından derlenen güncel benchmark verileri; sistem kapasitesi, soğutma, enerji ve gelir karması analizleriyle birlikte sekmeler halinde sunulur.

2 Milyar TL Toplam Program Bütçesi
48 MW Planlanan IT Yükü
PUE 1.18 Hedef Enerji Verimliliği
99.982% Hedef Uptime Seviyesi

Capex Dağılımı

2 Milyar TL Veri Merkezi Yatırım Planı

Program; yapı kabuğu, enerji altyapısı, termal sistem, IT donanım ve güvenlik otomasyon katmanlarına dağıtılmıştır.
620 M TLYerleşke + Yapi Kabugu
410 M TLElektrik + Enerji Altyapısı
360 M TLSoğutma + Isı Geri Kazanımı
520 M TLIT Donanim + Network Fabric
90 M TLGüvenlik + Otomasyon + SOC

NOC + SOC Komuta Alanı

7/24 izleme, olay korelasyonu, tehdit tespiti ve SLA yönetimi tek vardiya modelinde toplanır.

White Space Salonları

AI training, inferans cloud ve kurumsal iş yükü için Hall-A/B/C/D zonları ayrılır.

MEP ve Enerji Merkezi

Trafo, UPS, jeneratör ve termal loop sistemleri tek enerji omurgasında kurgulanır.

Staging ve Test Laboratuvarı

Canlı ortama çıkmadan önce firmware, network, failover ve kapasite testleri doğrulanır.

Bakım Operasyon Alanları

Planlı bakım, yedek parça, saha robotları ve kritik ekipman değişim süreçleri için ayrılmıştır.

Eğitim ve Simülasyon Merkezi

Kriz tatbikatı, enerji olay simülasyonu ve operasyon ekibi teknik sertifikasyon hattıdır.

Katman 01

Compute Fabric

400G/800G spine-leaf omurga, east-west trafik için düşük gecikmeli veri yolu.

Katman 02

AI Runtime

Model eğitimi, inference serving ve scheduler katmanlarını ortak orkestrasyonla yöneten yürütme düzlemi.

Katman 03

Data Trust

Veri egemenliği, denetim izi, yaşam döngüsü ve şifreleme politikalarını otomatikleştiren güven katmanı.

Katman 04

Autonomous Ops

Olay korelasyonu, playbook otomasyonu, kapasite sinyalizasyonu ve self-healing runbook akışı.

Katman 05

Energy Intelligence

PUE optimizasyonu, termal dijital ikiz, enerji maliyet motoru ve karbon raporlama denetimi.
Rack Koridoru | Yüksek Yoğunluklu AI ve HPC Salonları
Operasyon Merkezi | NOC, SOC ve Olay Korelasyon Katmanı
Enerji-Soğutma Tesisi | Dijital İkiz ve Geri Kazanım Sistemleri

Scene 01 | Compute Spine

AI Node Orkestrasyonu ve Scheduler Katmanı

Cluster scheduler, queue dağıtımı ve model eğitimi kuyrukları aynı anda yürütüldüğünde east-west trafik miktarı artar. Sahne, spine-leaf topolojisindeki veri yoğunluğunu temsil eder.
  • 400G/800G omurga planında oversubscription dengelemesi
  • GPU-to-GPU veri hareketinde latency duyarlılığı
  • Pod bazlı queue scheduler ve kapasite sinyalizasyonu

Scene 02 | Fabric + Memory

Yüksek Bant Genişliği ve Dağıtık Bellek Akışı

Foundation model eğitimlerinde fabric verimi, yalnızca ham GPU gücünden daha kritik hale gelir. Interconnect kapasitesi yetersiz olduğunda işlem birimi kullanım oranı düşer.
  • Node arası gradient senkronizasyonu yoğunluğu
  • Storage throughput ile eğitim penceresi ilişkisi
  • Inference + training karmasında dinamik bölümlenme

Scene 03 | Thermal Control

Termal Stabilite, Soğutma Rejimi ve Dayanıklılık

Yüksek yoğunluklu pod’larda hedef sadece soğutmak değildir; sıcaklık dalgalanmasını yönetilebilir bir bantta tutmak gerekir. Bu sahne, CDU + liquid-ready mimarinin operasyon etkisini yansıtır.
  • Hot/cold aisle dengesinin sürdürülebilirliği
  • CDU ve manifold rezervi ile ölçeklenebilirlik
  • PUE odaklı soğutma stratejisi

Sahne Akışı

Tam Ekran Sinematik Geçiş Deneyimi

Scene 01

Compute Spine

Cluster scheduler, queue depth ve pod dağılımı katmanı

Scene 02

Fabric + Memory

Interconnect verimi, data hareketi ve eğitim penceresi dengesi

Scene 03

Thermal Control

Termal kararlılık, soğutma rejimi ve yoğunluk kontrolü

01

Compute Spine

Scheduler dengesi ve yoğun pod dağılımı
  • GPU-to-GPU gecikme davranışı
  • Queue scheduler dengesi
  • Pod bazlı kapasite sinyalizasyonu

02

Fabric + Memory

Interconnect veriminin eğitim süresine etkisi
  • 400G/800G spine-leaf mimarisi
  • Storage throughput etkisi
  • Inference + training karması

03

Thermal Control

Isı yönetimi, dayanıklılık ve rezerv kapasite
  • Hot/cold aisle dengelemesi
  • CDU ve manifold rezervi
  • PUE odaklı soğutma stratejisi

Aşamalı Yol Haritası

İnşaat, Entegrasyon ve Operasyon Fazları

Faz Süre Kapsam Hedef Çıktı
Faz 01 6 Ay Master plan, izinler, enerji hattı rezervasyonu Yerleşke ve altyapı onayı
Faz 02 10 Ay İnşaat, MEP, trafo ve jeneratör kurulumları Core yapı + enerji omurgası tamamlanması
Faz 03 8 Ay IT rack kurulumları, network fabric, SOC/NOC entegrasyonu Canlıya geçiş için teknik kabul
Faz 04 4 Ay Yük testleri, termal balans, failover tatbikatları Tam kapasiteye kontrollü geçiş