AI‑сервер GIGABYTE G593-SD1-AAX1 — 8× H100 SXM 80GB
Доставка по РФ и СНГ
Доставим оборудование в любую точку РФ и СНГ
Гарантия
Предоставляем гарантию до 12 месяцев
Юридическое сопровождение
Сопровождаем во всех юридических вопросах
Оплата для юр. лиц
Принимаем оплату от юр. лиц с НДС
Дополнительная информация
GIGABYTE G593-SD1-AAX1 — высокоплотный 5U AI и HPC сервер на базе 8× NVIDIA H100 SXM 80GB (640GB HBM3 VRAM), предназначенный для обучения моделей (Training), дообучения (Fine‑tuning), инференса LLM, RAG‑систем и научных вычислений. Платформа построена на HGX H100 с NVLink и NVSwitch, обеспечивая высокую пропускную способность межGPU взаимодействия и эффективное масштабирование multi‑GPU задач.
Архитектура NVIDIA Hopper поддерживает вычисления FP16 / BF16 / FP8 / INT8, ускоряя современные AI‑нагрузки в PyTorch, TensorRT‑LLM, DeepSpeed и vLLM. Суммарные 640GB HBM3 VRAM позволяют запускать крупные модели в распределённом режиме, поддерживать длинный контекст и большой KV‑cache, обеспечивая стабильный throughput при высокой параллельности запросов.
HGX‑архитектура с NVLink/NVSwitch обеспечивает межGPU пропускную способность до ~900GB/s, что особенно важно для distributed training, tensor parallel и pipeline parallel сценариев при работе с LLM уровня 100B–700B параметров.
Производительность GPU (суммарно на 8× H100):
- FP64 Tensor Core: 536 TFLOPS
- FP8 Tensor Core: 31 664 TFLOPS
- BF16 / FP16 Tensor Core: 15 832 TFLOPS
- TF32 Tensor Core: 7 912 TFLOPS
- INT8 Tensor Core: 31 664 TOPS
Совместимость с LLM:
- DeepSeek‑R1 685B (Q4) — ~404GB VRAM — полностью совместимо
- Qwen3.5‑397B FP8 — ~406GB VRAM — полностью совместимо
- GPT‑OSS 120B — ~196GB VRAM — полностью совместимо
- GigaChat3 702B Q4 — ~472GB VRAM — полностью совместимо
- Mistral Large 675B Q4 — ~407GB VRAM — полностью совместимо
- GLM‑5 Q4 — ~456GB VRAM — полностью совместимо
640GB HBM3 VRAM позволяет запускать модели уровня 120B–400B без квантизации и модели 600B–700B в 4‑бит формате, сохраняя запас памяти под KV‑cache, длинный контекст и высокий уровень параллельности inference‑запросов.
Подходит для задач:
- обучение и дообучение LLM
- RAG и retrieval‑pipeline системы
- LLM inference с высокой нагрузкой
- HPC и научные расчёты
- генерация изображений и видео
- enterprise AI инфраструктура
Особенности платформы:
- 8× NVIDIA H100 SXM 80GB
- 640GB HBM3 видеопамяти
- NVLink + NVSwitch межGPU связность
- FP8 / BF16 Tensor Core ускорение
- до 8TB DDR5 ECC RAM
- PCIe Gen5 NVMe storage
- оптимизация под multi‑GPU LLM workloads
Технические характеристики:
- GPU: 8× NVIDIA H100 SXM 80GB HBM3
- CPU: 2× Intel Xeon Scalable 4/5 Gen или Xeon Max Series
- RAM: до 8TB DDR5 ECC RDIMM
- SSD: 8× Gen5 NVMe/SATA/SAS
- Форм‑фактор: 5U
- Гарантия: 1 год
Характеристики
Отзывов пока нет. Будьте первым!