AI‑сервер ASRock Rack 8U8X-GNR2 SYN B200 — 8× B200 SXM 180GB
Доставка по РФ и СНГ
Доставим оборудование в любую точку РФ и СНГ
Гарантия
Предоставляем гарантию до 12 месяцев
Юридическое сопровождение
Сопровождаем во всех юридических вопросах
Оплата для юр. лиц
Принимаем оплату от юр. лиц с НДС
Дополнительная информация
ASRock Rack 8U8X-GNR2 SYN B200 — высокопроизводительный 8U AI и HPC сервер на базе 8× NVIDIA B200 SXM 180GB (1440GB HBM3e VRAM), предназначенный для обучения моделей (Training), дообучения (Fine‑tuning), инференса LLM, RAG‑систем, научных вычислений и задач визуализации. Платформа построена на NVIDIA HGX B200 NVL8 с NVLink и NVSwitch, обеспечивая максимальную пропускную способность межGPU взаимодействия для распределённых AI‑нагрузок.
Архитектура NVIDIA Blackwell поддерживает вычисления FP16 / BF16 / FP8 / FP4 / INT8, позволяя эффективно масштабировать обучение и inference современных LLM в PyTorch, TensorRT‑LLM, DeepSpeed и vLLM. Суммарные 1.44TB HBM3e VRAM обеспечивают комфортное размещение моделей уровня 400B–700B+ параметров, длинный контекст и большой KV‑cache при высокой параллельности запросов.
HGX B200 NVL8 использует NVSwitch для высокоскоростной связности GPU, что обеспечивает стабильную производительность в multi‑GPU сценариях tensor parallel, pipeline parallel и distributed training.
Производительность GPU (суммарно на 8× B200):
- FP64 Tensor Core: 296 TFLOPS
- FP32 Tensor Core: 600 TFLOPS
- BF16 / FP16 Tensor Core: 36 PFLOPS
- FP8 / FP6 Tensor Core: 72 PFLOPS
- FP4 Tensor Core (inference): 144 PFLOPS
- INT8 Tensor Core: 72 POPS
Совместимость с LLM:
- DeepSeek‑R1 685B — ~689GB VRAM — полностью совместимо
- Qwen3.5‑397B — ~807GB VRAM — полностью совместимо
- GPT‑OSS 120B — ~196GB VRAM — полностью совместимо
- GigaChat3 702B — ~720GB VRAM — полностью совместимо
- Mistral Large 675B — ~682GB VRAM — полностью совместимо
- GLM‑5 FP8 — ~756GB VRAM — полностью совместимо
1.44TB HBM3e VRAM позволяет запускать крупные LLM с длинным контекстом без агрессивной квантизации, поддерживать высокий batch size и обеспечивать высокий throughput inference при большой нагрузке.
Подходит для задач:
- обучение и дообучение LLM
- RAG и multi‑agent системы
- LLM inference с высоким QPS
- HPC и научные расчёты
- генерация изображений и видео
- enterprise AI инфраструктура
Особенности платформы:
- 8× NVIDIA B200 SXM 180GB
- 1440GB HBM3e видеопамяти
- NVLink + NVSwitch межGPU связность
- FP4 / FP8 / BF16 ускорение для LLM
- до 8TB DDR5 ECC RAM
- PCIe Gen5 NVMe storage
- поддержка масштабирования в кластер
Технические характеристики:
- GPU: 8× NVIDIA B200 SXM 180GB HBM3e
- CPU: 2× Intel Xeon 6 серии (LGA4710)
- RAM: до 8TB DDR5 ECC RDIMM / MRDIMM
- SSD: 10× NVMe PCIe Gen5 + 1× M.2
- Форм‑фактор: 8U
- Гарантия: 1 год
Характеристики
Отзывов пока нет. Будьте первым!