AI‑сервер GIGABYTE G593-SD1-AAX3 — 8× H200 SXM 141GB
Доставка по РФ и СНГ
Доставим оборудование в любую точку РФ и СНГ
Гарантия
Предоставляем гарантию до 12 месяцев
Юридическое сопровождение
Сопровождаем во всех юридических вопросах
Оплата для юр. лиц
Принимаем оплату от юр. лиц с НДС
Дополнительная информация
GIGABYTE G593-SD1-AAX3 — высокоплотный 5U AI и HPC сервер на базе 8× NVIDIA H200 SXM 141GB (1128GB HBM3e VRAM), предназначенный для обучения моделей (Training), дообучения (Fine‑tuning), инференса LLM, RAG‑систем и научных вычислений. HGX‑платформа с NVLink и NVSwitch обеспечивает высокоскоростной обмен данными между GPU и эффективное масштабирование распределённых AI‑нагрузок.
Архитектура NVIDIA Hopper (H200) поддерживает ускоренные вычисления FP16 / BF16 / FP8 / INT8, что позволяет эффективно работать с современными AI‑фреймворками PyTorch, TensorRT‑LLM, DeepSpeed и vLLM. Суммарные 1.1TB HBM3e VRAM обеспечивают комфортное размещение моделей уровня 400B–700B+ параметров без агрессивной квантизации, а также позволяют держать длинный контекст и большой KV‑cache при высоком throughput.
Высокая пропускная способность NVLink/NVSwitch обеспечивает до ~900GB/s GPU‑to‑GPU bandwidth, что критично для tensor parallel, pipeline parallel и distributed training сценариев.
Производительность GPU (суммарно на 8× H200):
- FP64 Tensor Core: 536 TFLOPS
- FP8 Tensor Core: 31 664 TFLOPS
- BF16 / FP16 Tensor Core: 15 832 TFLOPS
- TF32 Tensor Core: 7 912 TFLOPS
- INT8 Tensor Core: 31 664 TOPS
Совместимость с LLM:
- DeepSeek‑R1 685B — ~700–900GB VRAM — полностью совместимо
- Qwen3.5‑397B — ~807GB VRAM — полностью совместимо
- GPT‑OSS 120B — ~196GB VRAM — полностью совместимо
- GigaChat3 702B — ~720GB VRAM — полностью совместимо
- Mistral Large 675B — ~680–750GB VRAM — полностью совместимо
- GLM‑5 FP8 — ~756GB VRAM — полностью совместимо
1.1TB HBM3e VRAM обеспечивает стабильный inference крупных моделей с длинным контекстом, большим KV‑cache и высокой параллельностью запросов, а также позволяет запускать несколько сервисов на одном узле.
Подходит для задач:
- обучение и дообучение LLM
- RAG и retrieval‑pipeline системы
- LLM inference с высоким QPS
- HPC и научные расчёты
- генерация изображений и видео
- enterprise AI инфраструктура
Особенности платформы:
- 8× NVIDIA H200 SXM 141GB
- 1128GB HBM3e видеопамяти
- NVLink + NVSwitch межGPU связность
- FP8 / BF16 Tensor Core ускорение
- до 8TB DDR5 ECC RAM
- PCIe Gen5 NVMe storage
- оптимизация под multi‑GPU LLM workloads
Технические характеристики:
- GPU: 8× NVIDIA H200 SXM 141GB HBM3e
- CPU: 2× Intel Xeon Scalable 4/5 Gen или Xeon Max Series
- RAM: до 8TB DDR5 ECC RDIMM
- SSD: 8× Gen5 NVMe/SATA/SAS
- Форм‑фактор: 5U
- Гарантия: 1 год
Характеристики
Отзывов пока нет. Будьте первым!