AI‑сервер Supermicro AS-4124GO-NART — 8× A100 40GB
Доставка по РФ и СНГ
Доставим оборудование в любую точку РФ и СНГ
Гарантия
Предоставляем гарантию до 12 месяцев
Юридическое сопровождение
Сопровождаем во всех юридических вопросах
Оплата для юр. лиц
Принимаем оплату от юр. лиц с НДС
Дополнительная информация
Supermicro AS-4124GO-NART — GPU‑сервер формата 4U с восемью NVIDIA A100 SXM 40GB, предназначенный для обучения моделей, инференса, RAG‑систем и задач HPC, где требуется высокая плотность ускорителей и эффективное масштабирование multi‑GPU вычислений.
Сервер построен на базе платформы NVIDIA HGX A100 с высокоскоростной связностью через NVLink v3 и NVSwitch, что обеспечивает быстрый обмен данными между GPU при распределённом обучении и inference‑нагрузках. Суммарный объём видеопамяти составляет 320 GB HBM2 (8×40 GB), что позволяет запускать модели среднего и крупного размера, поддерживать длинный контекст и обеспечивать стабильную работу при высокой параллельности запросов.
Производительность GPU (суммарно на 8× A100 SXM):
- FP64 Tensor Core: 156 TFLOPS
- TF32 Tensor Core: 2 496 TFLOPS
- BF16 / FP16 Tensor Core: 4 992 TFLOPS
- INT8 Tensor Core: 9 984 TOPS
Совместимость с LLM:
- DeepSeek-R1 Distill Llama 70B — ~141 GB VRAM — полностью совместимо
- Qwen 3.5 397B (Q4) — ~241 GB VRAM — совместимо при multi‑GPU
- GPT‑OSS 120B — ~260 GB VRAM — совместимо при распределении по 4–8 GPU
- GLM‑4.7 (Q4) — ~216 GB VRAM — полностью совместимо
Подходит для корпоративных AI‑решений, чат‑ассистентов, обработки документов, генерации кода, аналитики данных и развёртывания LLM‑сервисов с умеренными требованиями к объёму видеопамяти.
Совместимость с диффузионными моделями:
- Stable Diffusion XL 1.0 — полностью совместимо
- Flux 2 — полностью совместимо
- SD Turbo — полностью совместимо
- Kandinsky 5.0 (T2I / T2V) — полностью совместимо
Позволяет генерировать изображения и видео высокого разрешения с распределением задач между GPU для увеличения пропускной способности и уменьшения времени ожидания.
Ограничения:
- Для моделей более 100B параметров требуется multi‑GPU распределение
- Меньший объём VRAM по сравнению с A100 80GB ограничивает максимальный контекст
- Требуется настройка tensor parallel или pipeline parallel для крупных моделей
Детальная спецификация:
- GPU: 8× NVIDIA A100 SXM 40GB HBM2
- CPU: 2× AMD EPYC 7002/7003 (SP3)
- RAM: до 8 TB DDR4 ECC REG
- Накопители: до 10× NVMe U.2 + 2× M.2 NVMe
- Форм‑фактор: 4U
- Гарантия: 1 год
Характеристики
Отзывов пока нет. Будьте первым!