AI‑сервер GIGABYTE G593-SD0-AAX1 — 8× H100 SXM 80GB
Доставка по РФ и СНГ
Доставим оборудование в любую точку РФ и СНГ
Гарантия
Предоставляем гарантию до 12 месяцев
Юридическое сопровождение
Сопровождаем во всех юридических вопросах
Оплата для юр. лиц
Принимаем оплату от юр. лиц с НДС
Дополнительная информация
GIGABYTE G593-SD0-AAX1 — высокоплотный 5U AI и HPC сервер на базе 8× NVIDIA H100 SXM 80GB (640GB HBM3 VRAM), предназначенный для обучения моделей (Training), дообучения (Fine‑tuning), инференса LLM, RAG‑систем и научных вычислений. HGX‑платформа с NVLink и NVSwitch обеспечивает высокую пропускную способность межGPU взаимодействия и эффективное масштабирование multi‑GPU workloads.
Архитектура NVIDIA Hopper поддерживает вычисления FP16 / BF16 / FP8 / INT8, что позволяет ускорять обучение и inference современных моделей в PyTorch, TensorRT‑LLM, DeepSpeed и vLLM. Суммарные 640GB HBM3 VRAM обеспечивают достаточный запас для размещения крупных LLM в распределённом режиме с длинным контекстом и большим KV‑cache.
NVLink/NVSwitch обеспечивает межGPU пропускную способность до ~900GB/s, что особенно важно для tensor parallel, pipeline parallel и distributed training сценариев при работе с большими моделями.
Производительность GPU (суммарно на 8× H100):
- FP64 Tensor Core: 536 TFLOPS
- FP32 Tensor Core: 7 912 TFLOPS (TF32)
- BF16 / FP16 Tensor Core: 15 832 TFLOPS
- FP8 Tensor Core: 31 664 TFLOPS
- INT8 Tensor Core: 31 664 TOPS
Совместимость с LLM:
- DeepSeek‑R1 685B (Q4) — ~404GB VRAM — полностью совместимо
- Qwen3.5‑397B FP8 — ~406GB VRAM — полностью совместимо
- GPT‑OSS 120B — ~196GB VRAM — полностью совместимо
- GigaChat3 702B Q4 — ~472GB VRAM — полностью совместимо
- Mistral Large 675B Q4 — ~407GB VRAM — полностью совместимо
- GLM‑5 Q4 — ~456GB VRAM — полностью совместимо
640GB HBM3 VRAM позволяет запускать модели уровня 120B–400B без квантизации и модели 600B–700B в 4‑бит формате с достаточным запасом под KV‑cache, batch size и высокий уровень параллельности запросов.
Подходит для задач:
- обучение и дообучение LLM
- RAG и retrieval‑pipeline системы
- LLM inference с высокой нагрузкой
- HPC и научные расчёты
- генерация изображений и видео
- enterprise AI инфраструктура
Особенности платформы:
- 8× NVIDIA H100 SXM 80GB
- 640GB HBM3 видеопамяти
- NVLink + NVSwitch межGPU связность
- FP8 / BF16 Tensor Core ускорение
- до 8TB DDR5 ECC RAM
- PCIe Gen5 NVMe storage
- оптимизация под multi‑GPU LLM workloads
Технические характеристики:
- GPU: 8× NVIDIA H100 SXM 80GB HBM3
- CPU: 2× Intel Xeon Scalable 4/5 Gen или Xeon Max Series
- RAM: до 8TB DDR5 ECC RDIMM
- SSD: 8× Gen5 NVMe/SATA/SAS
- Форм‑фактор: 5U
- Гарантия: 1 год
Характеристики
Отзывов пока нет. Будьте первым!