AI‑сервер ASRock Rack 8U8X-EGS2 SYN B200 — 8× B200 SXM 180GB
Доставка по РФ и СНГ
Доставим оборудование в любую точку РФ и СНГ
Гарантия
Предоставляем гарантию до 12 месяцев
Юридическое сопровождение
Сопровождаем во всех юридических вопросах
Оплата для юр. лиц
Принимаем оплату от юр. лиц с НДС
Дополнительная информация
ASRock Rack 8U8X-EGS2 SYN B200 — высокопроизводительный 8U AI и HPC сервер на базе 8× NVIDIA B200 SXM 180GB (1440GB HBM3e VRAM), предназначенный для обучения моделей (Training), дообучения (Fine‑tuning), инференса LLM, RAG‑систем, научных вычислений и задач визуализации. Платформа использует HGX B200 архитектуру с NVLink и NVSwitch, обеспечивая высокоскоростную межGPU коммуникацию и стабильную производительность в multi‑GPU сценариях.
Архитектура NVIDIA Blackwell поддерживает ускорение FP16 / BF16 / FP8 / FP4 / INT8, позволяя эффективно запускать современные LLM и масштабировать обучение и inference в PyTorch, TensorRT‑LLM, DeepSpeed и vLLM. Суммарные 1.44TB HBM3e VRAM обеспечивают достаточный запас для длинного контекста, KV‑cache и больших batch size при высокой параллельности запросов.
Платформа оптимизирована для интенсивных GPU‑to‑GPU и GPU‑to‑CPU операций, поддерживает GPUDirect RDMA и GPUDirect Storage через PCIe Switch Synthetic Mode, что повышает эффективность работы с большими датасетами и распределёнными вычислениями.
Производительность GPU (суммарно на 8× B200):
- FP64 Tensor Core: 296 TFLOPS
- FP32 Tensor Core: 600 TFLOPS
- BF16 / FP16 Tensor Core: 36 PFLOPS
- FP8 / FP6 Tensor Core: 72 PFLOPS
- FP4 Tensor Core (inference): 144 PFLOPS
- INT8 Tensor Core: 72 POPS
Совместимость с LLM:
- DeepSeek‑R1 685B — ~689GB VRAM — полностью совместимо
- Qwen3.5‑397B — ~807GB VRAM — полностью совместимо
- GPT‑OSS 120B — ~196GB VRAM — полностью совместимо
- GigaChat3 702B — ~720GB VRAM — полностью совместимо
- Mistral Large 675B — ~682GB VRAM — полностью совместимо
- GLM‑5 FP8 — ~756GB VRAM — полностью совместимо
1440GB HBM3e VRAM позволяет запускать крупные LLM без агрессивной квантизации, поддерживать длинный контекст и высокий throughput inference при высокой нагрузке.
Подходит для задач:
- обучение и дообучение LLM
- RAG и multi‑agent системы
- LLM inference с высоким QPS
- HPC и научные расчёты
- генерация изображений и видео
- enterprise AI инфраструктура
Особенности платформы:
- 8× NVIDIA B200 SXM 180GB
- 1440GB HBM3e видеопамяти
- NVLink + NVSwitch межGPU связность
- FP4 / FP8 / BF16 ускорение
- до 8TB DDR5 ECC RAM
- PCIe Gen5 NVMe storage
- GPUDirect RDMA и GPUDirect Storage
- оптимизация под multi‑GPU AI workloads
Технические характеристики:
- GPU: 8× NVIDIA B200 SXM 180GB HBM3e
- CPU: 2× Intel Xeon Scalable 4/5 Gen (LGA4677)
- RAM: до 8TB DDR5 ECC RDIMM
- SSD: 12× NVMe PCIe Gen5 + 2× M.2
- Форм‑фактор: 8U
- Гарантия: 1 год
Характеристики
Отзывов пока нет. Будьте первым!