AI‑сервер ASRock Rack 6U8M-TURIN2 SYN MI300X — 8× Instinct MI300X 192GB
Доставка по РФ и СНГ
Доставим оборудование в любую точку РФ и СНГ
Гарантия
Предоставляем гарантию до 12 месяцев
Юридическое сопровождение
Сопровождаем во всех юридических вопросах
Оплата для юр. лиц
Принимаем оплату от юр. лиц с НДС
Дополнительная информация
ASRock Rack 6U8M-TURIN2 SYN MI300X — 6U GPU‑сервер для крупных AI и HPC нагрузок, ориентированный на обучение моделей (Training), дообучение (Fine‑tuning), инференс LLM, RAG‑системы и научные расчёты. Платформа построена на 8× AMD Instinct MI300X с суммарным объёмом 1.5TB HBM3 VRAM и оптимизирована для работы в экосистеме ROCm.
Архитектура AMD CDNA3 обеспечивает высокую пропускную способность памяти HBM3 и поддержку вычислений FP16, BF16, FP8 и INT8, что позволяет эффективно запускать современные LLM и масштабировать inference с высоким уровнем параллельности запросов. Связность ускорителей реализована через Infinity Fabric Links, обеспечивая высокоскоростной обмен данными между GPU.
1.5TB HBM3 VRAM позволяет размещать модели уровня 400B–700B+ без агрессивной квантизации, поддерживать длинный контекст и большой KV‑cache, а также обслуживать несколько inference‑сервисов на одном узле.
Производительность GPU (суммарно на 8× MI300X):
- FP8 Matrix: 20.88 PFLOPS (41.76 PFLOPS с sparsity)
- BF16 Matrix: 10.4 PFLOPS (20.88 PFLOPS с sparsity)
- FP16 Matrix: 10.4 PFLOPS (20.88 PFLOPS с sparsity)
- TF32 Matrix: 10.4 PFLOPS
- FP32 Matrix: 1304 TFLOPS
- FP64 Matrix: 653.6 TFLOPS
- INT8 Matrix: 20.8 POPS (41.76 POPS с sparsity)
Совместимость с LLM:
- DeepSeek‑R1 685B — ~689GB VRAM — полностью совместимо
- Qwen3.5‑397B — ~807GB VRAM — полностью совместимо
- GPT‑OSS 120B — ~196GB VRAM — полностью совместимо
- GigaChat3 702B — ~720GB VRAM — полностью совместимо
- Mistral Large 675B — ~682GB VRAM — полностью совместимо
- GLM‑5 FP8 — ~756GB VRAM — полностью совместимо
1.5TB HBM3 VRAM обеспечивает высокий throughput inference, поддержку длинного контекста и большой KV‑cache, а также возможность параллельного запуска нескольких моделей или сервисов на одном узле.
Подходит для задач:
- обучение и дообучение крупных LLM
- RAG и multi‑agent системы
- LLM inference с высоким QPS
- HPC и научные расчёты
- генерация изображений и видео
- enterprise AI инфраструктура
Особенности платформы:
- 8× AMD Instinct MI300X 192GB
- 1.5TB HBM3 видеопамяти
- Infinity Fabric межGPU связность
- FP8 / BF16 ускорение для LLM
- до 6TB DDR5 ECC RAM
- PCIe Gen5 NVMe storage
- GPUDirect RDMA и GPUDirect Storage
- удалённое управление IPMI
Технические характеристики:
- GPU: 8× AMD Instinct MI300X OAM 192GB HBM3
- CPU: 2× AMD EPYC 9005 / 9004 (SP5)
- RAM: до 6TB DDR5 ECC RDIMM
- SSD: 12× NVMe PCIe Gen5 + 2× M.2
- Форм‑фактор: 6U
- Питание: 3000W CRPS 80 PLUS Titanium
- Гарантия: 1 год
Характеристики
Отзывов пока нет. Будьте первым!