AI‑сервер GIGABYTE G593-ZD1-AAX3 — 8× H200 SXM 141GB
Доставка по РФ и СНГ
Доставим оборудование в любую точку РФ и СНГ
Гарантия
Предоставляем гарантию до 12 месяцев
Юридическое сопровождение
Сопровождаем во всех юридических вопросах
Оплата для юр. лиц
Принимаем оплату от юр. лиц с НДС
Дополнительная информация
GIGABYTE G593-ZD1-AAX3 — плотный 5U AI и HPC сервер на базе 8× NVIDIA H200 SXM 141GB (1.1TB HBM3e VRAM), предназначенный для обучения моделей (Training), дообучения (Fine‑tuning), инференса LLM, RAG‑систем и научных вычислений. Платформа ориентирована на стабильную работу крупных моделей с длинным контекстом и высоким уровнем параллельности запросов.
Архитектура NVIDIA Hopper (H200) поддерживает ускоренные режимы FP16 / BF16 / FP8 / INT8, обеспечивая высокую производительность в современных AI‑фреймворках PyTorch, TensorRT‑LLM и vLLM. Связка NVLink внутри HGX-платформы обеспечивает высокоскоростной обмен данными между GPU, что критично для distributed training и высоконагруженного inference больших LLM.
Суммарные 1128GB HBM3e VRAM позволяют запускать модели уровня 400B–700B параметров без агрессивной квантизации, поддерживать длинный контекст и большой KV‑cache, а также обеспечивать стабильный throughput при большом количестве одновременных запросов.
Производительность GPU (суммарно на 8× H200):
- FP64 Tensor Core: 536 TFLOPS
- FP8 Tensor Core: 31 664 TFLOPS
- BF16 / FP16 Tensor Core: 15 832 TFLOPS
- TF32 Tensor Core: 7 912 TFLOPS
- INT8 Tensor Core: 31 664 TOPS
Совместимость с LLM:
- DeepSeek‑R1 685B — ~700–900GB VRAM — полностью совместимо
- Qwen3.5‑397B — ~807GB VRAM — полностью совместимо
- GPT‑OSS 120B — ~196GB VRAM — полностью совместимо
- GigaChat3 702B — ~720GB VRAM — полностью совместимо
- Mistral Large 675B — ~680–750GB VRAM — полностью совместимо
- GLM‑5 FP8 — ~756GB VRAM — полностью совместимо
1.1TB HBM3e VRAM обеспечивает стабильный запуск крупных моделей с длинным контекстом, высоким batch size и большим KV‑cache без значительных ограничений по памяти.
Подходит для задач:
- обучение и дообучение крупных LLM
- RAG и multi‑agent системы
- LLM inference с высоким throughput
- HPC и научные расчёты
- генерация изображений и видео
- enterprise AI инфраструктура
Особенности платформы:
- 8× NVIDIA H200 SXM 141GB
- 1.1TB HBM3e видеопамяти
- NVLink межGPU связность
- FP8 / BF16 Tensor Core ускорение
- до 6TB DDR5 ECC RAM
- Gen5 NVMe storage
- оптимизация под multi‑GPU LLM workloads
Технические характеристики:
- GPU: 8× NVIDIA H200 SXM 141GB HBM3e
- CPU: 2× AMD EPYC 9005 / 9004 (SP5)
- RAM: до 6TB DDR5 ECC RDIMM
- SSD: 8× Gen5 NVMe/SATA/SAS + 2× M.2
- Форм‑фактор: 5U
- Гарантия: 1 год
Характеристики
Отзывов пока нет. Будьте первым!