<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI серверы и GPU серверы для ИИ — серверы для нейросетей и обучения</title>
	<atom:link href="https://cluster-mining.com/catalog/ai-servers/feed/" rel="self" type="application/rss+xml" />
	<link>https://cluster-mining.com/catalog/ai-servers/</link>
	<description></description>
	<lastBuildDate>Wed, 22 Apr 2026 08:55:36 +0000</lastBuildDate>
	<language>ru-RU</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://cluster-mining.com/wp-content/uploads/2025/06/favicon-100x100.png</url>
	<title>AI серверы и GPU серверы для ИИ — серверы для нейросетей и обучения</title>
	<link>https://cluster-mining.com/catalog/ai-servers/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>AI-сервер Phanteks Enthoo Pro 2 Server Edition — 2× A100 40GB</title>
		<link>https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-phanteks-enthoo-pro-2-server-edition-2x-a100-40gb/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-phanteks-enthoo-pro-2-server-edition-2x-a100-40gb/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Wed, 22 Apr 2026 08:55:35 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6070</guid>

					<description><![CDATA[<p>Phanteks Enthoo Pro 2 Server Edition — AI‑сервер форм‑фактора Tower с двумя GPU NVIDIA A100 40GB, предназначенный для обучения и инференса ИИ‑моделей, дообучения (fine-tuning), развёртывания RAG‑систем, аналитики данных и HPC‑задач. Суммарный объём видеопамяти 80 GB HBM2e (по 40 GB на GPU) обеспечивает стабильную работу с современными LLM, классическими DL‑моделями и вычислительными задачами. Архитектура Ampere с [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-phanteks-enthoo-pro-2-server-edition-2x-a100-40gb/">AI-сервер Phanteks Enthoo Pro 2 Server Edition — 2× A100 40GB</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Phanteks Enthoo Pro 2 Server Edition</strong> — AI‑сервер форм‑фактора Tower с двумя GPU NVIDIA A100 40GB, предназначенный для обучения и инференса ИИ‑моделей, дообучения (fine-tuning), развёртывания RAG‑систем, аналитики данных и HPC‑задач.</p>
<p>Суммарный объём видеопамяти 80 GB HBM2e (по 40 GB на GPU) обеспечивает стабильную работу с современными LLM, классическими DL‑моделями и вычислительными задачами. Архитектура Ampere с поддержкой FP16 / BF16 / TF32 / INT8 даёт высокую производительность и эффективное масштабирование через multi‑GPU (tensor / pipeline parallel).</p>
<hr>
<h3>Производительность GPU (суммарно на 2× A100):</h3>
<ul>
<li>FP64 Tensor: 39 TFLOPS</li>
<li>FP32 Tensor: 624 TFLOPS</li>
<li>BF16 / FP16 Tensor: 1 248 TFLOPS</li>
<li>INT8 Tensor: 2 496 TOPS</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>DeepSeek-R1-Distill-Qwen-32B — ~65 GB VRAM — совместимо</li>
<li>Qwen 3.5 122B (MOE / FP4) — ~68 GB VRAM — совместимо</li>
<li>GPT-OSS 120B (FP16) — ~65 GB VRAM — совместимо</li>
</ul>
<p>Подходит для inference, аналитики, генерации кода и агентных систем. Для стабильной работы требуется использование двух GPU и настройка параметров контекста и batch.</p>
<h3>Совместимость с диффузионными моделями:</h3>
<ul>
<li>Stable Diffusion XL 1.0 — совместимо</li>
<li>Flux 1.1 Pro — совместимо</li>
<li>SD Turbo — совместимо</li>
<li>Kandinsky 5 (T2I / T2V) — совместимо</li>
</ul>
<p>Поддерживает генерацию изображений и видео с возможностью масштабирования и распределения нагрузки между GPU.</p>
<h3>Ограничения:</h3>
<ul>
<li>Не поддерживает FP8 / FP4</li>
<li>Для крупных моделей требуется multi-GPU и оптимизация KV-cache</li>
<li>Не предназначен для видеорендеринга — приоритет вычисления и ML/DL</li>
</ul>
<h3>Детальная спецификация:</h3>
<ul>
<li>CPU: AMD EPYC 9354 (32C/64T, 3.3–3.8 ГГц)</li>
<li>GPU: 2× NVIDIA A100 40GB HBM2e</li>
<li>RAM: 12× 64 GB DDR5 ECC REG (768 GB)</li>
<li>SSD: 2× Micron 7400 PRO 3.84TB M.2</li>
<li>HDD: 2× Seagate SkyHawk AI 12TB</li>
<li>Форм-фактор: Tower</li>
<li>Блок питания: 2000 Вт</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-phanteks-enthoo-pro-2-server-edition-2x-a100-40gb/">AI-сервер Phanteks Enthoo Pro 2 Server Edition — 2× A100 40GB</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-phanteks-enthoo-pro-2-server-edition-2x-a100-40gb/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер Supermicro AS-2024US-TRT</title>
		<link>https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-supermicro-as-2024us-trt/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-supermicro-as-2024us-trt/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Wed, 22 Apr 2026 08:55:28 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6028</guid>

					<description><![CDATA[<p>Supermicro AS-2024US-TRT — восстановленный 2U AI‑сервер с тремя GPU NVIDIA A100 40GB, предназначенный для обучения и инференса современных ИИ‑моделей, дообучения (fine-tuning), развёртывания RAG‑систем, аналитики данных и HPC-задач. Суммарный объём видеопамяти 120 GB HBM2e (по 40 GB на GPU) позволяет эффективно работать с крупными LLM и мультимодальными моделями в 4‑ и 8‑битной квантизации, а также обеспечивает [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-supermicro-as-2024us-trt/">AI‑сервер Supermicro AS-2024US-TRT</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Supermicro AS-2024US-TRT</strong> — восстановленный 2U AI‑сервер с тремя GPU NVIDIA A100 40GB, предназначенный для обучения и инференса современных ИИ‑моделей, дообучения (fine-tuning), развёртывания RAG‑систем, аналитики данных и HPC-задач.</p>
<p>Суммарный объём видеопамяти 120 GB HBM2e (по 40 GB на GPU) позволяет эффективно работать с крупными LLM и мультимодальными моделями в 4‑ и 8‑битной квантизации, а также обеспечивает высокую производительность при вычислениях в FP16 и BF16. Поддержка NVLink и NCCL даёт возможность эффективного межGPU‑распараллеливания.</p>
<hr>
<h3>Производительность GPU (суммарно на 3× A100):</h3>
<ul>
<li>FP64 Tensor: 58.5 TFLOPS</li>
<li>FP32 Tensor: 936 TFLOPS</li>
<li>BF16 / FP16 Tensor: 1 872 TFLOPS</li>
<li>INT8 Tensor: 3 744 TOPS</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>DeepSeek-R1-Distill-Llama-70B (Q8) — ~81 GB VRAM — полная совместимость</li>
<li>Qwen 3.5 122B (MOE / FP4) — ~68 GB VRAM — полная совместимость</li>
<li>GPT-OSS 120B (FP16) — ~65 GB VRAM — полная совместимость</li>
</ul>
<p>Подходит для inference, reasoning-задач, генерации кода, аналитики и агентных систем.</p>
<h3>Совместимость с диффузионными моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — совместимо</li>
<li>FLUX.1 (schnell / ONNX) — совместимо</li>
<li>Stable Video Diffusion 1.1 — совместимо</li>
<li>Kandinsky 5 (T2I / T2V) — совместимо</li>
</ul>
<p>Поддерживает генерацию изображений высокого разрешения и коротких видео с возможностью масштабирования на несколько GPU.</p>
<h3>Ограничения:</h3>
<ul>
<li>Не поддерживает FP8 / FP4 (доступно в более новых поколениях GPU)</li>
<li>Нет графических выходов — сервер ориентирован исключительно на вычисления</li>
<li>Для максимальной эффективности требуется настройка multi-GPU (NVLink / NCCL)</li>
</ul>
<h3>Детальная спецификация:</h3>
<ul>
<li>CPU: 2× AMD EPYC 7713 (64C/128T, 2.0–3.675 ГГц)</li>
<li>GPU: 3× NVIDIA A100 40GB HBM2e</li>
<li>RAM: 16× 64 GB DDR4-3200 ECC REG (1 TB)</li>
<li>SSD: 4× Intel D5-P5530 1.92 TB U.2</li>
<li>Форм-фактор: 2U</li>
<li>Питание: 2× 1600 Вт 80+ Platinum</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-supermicro-as-2024us-trt/">AI‑сервер Supermicro AS-2024US-TRT</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/gpu-servery/ai-server-supermicro-as-2024us-trt/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер NVIDIA DGX Spark — GB10 Superchip (128GB unified LPDDR5x + SSD 4TB)</title>
		<link>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-nvidia-dgx-spark-gb10-superchip-128gb-unified-lpddr5x-ssd-4tb/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-nvidia-dgx-spark-gb10-superchip-128gb-unified-lpddr5x-ssd-4tb/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Mon, 20 Apr 2026 18:10:38 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6328</guid>

					<description><![CDATA[<p>NVIDIA DGX Spark — персональный AI‑суперкомпьютер на базе суперчипа NVIDIA GB10 Grace Blackwell, предназначенный для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов без необходимости использования облачной инфраструктуры. В системе используется суперчип GB10, объединяющий 20‑ядерный ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell с 128GB LPDDR5x unified memory (~273 GB/s). Общая память используется одновременно [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-nvidia-dgx-spark-gb10-superchip-128gb-unified-lpddr5x-ssd-4tb/">AI‑сервер NVIDIA DGX Spark — GB10 Superchip (128GB unified LPDDR5x + SSD 4TB)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>NVIDIA DGX Spark</strong> — персональный AI‑суперкомпьютер на базе суперчипа NVIDIA GB10 Grace Blackwell, предназначенный для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов без необходимости использования облачной инфраструктуры.</p>
<p>В системе используется суперчип GB10, объединяющий 20‑ядерный ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell с 128GB LPDDR5x unified memory (~273 GB/s). Общая память используется одновременно как RAM и VRAM, что снижает задержки передачи данных и позволяет эффективно работать с длинным контекстом, KV‑cache и параллельными inference‑нагрузками.</p>
<p>Система поставляется с предустановленной NVIDIA DGX OS (Ubuntu 24.04) и полным NVIDIA AI‑стеком, обеспечивая готовую среду для vLLM, TensorRT‑LLM, Ollama, SGLang и llama.cpp.</p>
<hr>
<h3>AI‑производительность:</h3>
<ul>
<li>FP4 Tensor Core: до 1 PFLOP (с использованием sparsity)</li>
<li>FP4: 0.5 PFLOP</li>
<li>FP8: 0.25 PFLOP</li>
<li>FP16: 0.125 PFLOP</li>
<li>Unified memory: 128GB LPDDR5x (~273 GB/s)</li>
<li>архитектура: NVIDIA Grace + Blackwell</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>GPT‑OSS 120B FP4 MoE — ~63GB — полностью совместимо</li>
<li>Qwen3‑Next 80B NVFP4 — ~47.6GB — полностью совместимо</li>
<li>GLM‑4.5 Air NVFP4 — ~62GB — полностью совместимо</li>
<li>Gemma‑4 31B NVFP4 — ~32.7GB — полностью совместимо</li>
</ul>
<p>128GB unified memory позволяет комфортно запускать модели уровня 30B–80B без ограничений и до ~120B в FP4‑режиме с запасом под KV‑cache, длинный контекст и параллельные inference‑сессии.</p>
<h3>Подходит для задач:</h3>
<ul>
<li>локальный inference LLM</li>
<li>RAG системы</li>
<li>agent frameworks</li>
<li>fine‑tuning (LoRA / QLoRA)</li>
<li>AI research и prototyping</li>
<li>код‑ассистенты</li>
<li>обработка документов</li>
<li>multimodal pipelines</li>
<li>генерация изображений и видео</li>
</ul>
<h3>Совместимость с diffusion моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — генерация до 4K</li>
<li>FLUX schnell ONNX — быстрый inference</li>
<li>Stable Video Diffusion 1.1 — короткие видео</li>
<li>Kandinsky 5 Lite — стабильная генерация изображений</li>
<li>Kandinsky T2V Lite — короткие видео</li>
</ul>
<h3>Особенности платформы:</h3>
<ul>
<li>NVIDIA GB10 Grace Blackwell Superchip</li>
<li>20‑ядерный ARM CPU</li>
<li>128GB unified LPDDR5x memory</li>
<li>SSD 4TB NVMe M.2 с аппаратным шифрованием</li>
<li>NVIDIA DGX OS (Ubuntu 24.04)</li>
<li>поддержка TensorRT‑LLM</li>
<li>ConnectX‑7 200Gb/s (2× QSFP56)</li>
<li>10GbE LAN</li>
<li>Wi‑Fi 7 / Bluetooth 5.4</li>
<li>4× USB‑C</li>
<li>HDMI 2.1a</li>
<li>1× NVENC / 1× NVDEC</li>
<li>энергопотребление до 240W</li>
<li>компактный корпус 150×150×50.5 мм</li>
</ul>
<h3>Технические характеристики:</h3>
<ul>
<li>CPU: NVIDIA Grace ARM v9.2‑A (20 cores)</li>
<li>GPU: NVIDIA Blackwell (GB10)</li>
<li>RAM / VRAM: 128GB LPDDR5x unified memory</li>
<li>AI performance: до 1 PFLOP FP4</li>
<li>Storage: 4TB NVMe SSD</li>
<li>Network: 10GbE + ConnectX‑7 200Gb/s</li>
<li>OS: NVIDIA DGX OS</li>
<li>форм‑фактор: SFF</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-nvidia-dgx-spark-gb10-superchip-128gb-unified-lpddr5x-ssd-4tb/">AI‑сервер NVIDIA DGX Spark — GB10 Superchip (128GB unified LPDDR5x + SSD 4TB)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-nvidia-dgx-spark-gb10-superchip-128gb-unified-lpddr5x-ssd-4tb/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер ASUS Ascent GX10 — GB10 Superchip (128GB unified memory + SSD 1TB)</title>
		<link>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-1tb/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-1tb/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Mon, 20 Apr 2026 18:03:24 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6327</guid>

					<description><![CDATA[<p>ASUS Ascent GX10 — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов с базовым объёмом локального хранилища. В основе системы суперчип NVIDIA GB10, объединяющий ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell с 128GB LPDDR5x unified memory (~273 GB/s). [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-1tb/">AI‑сервер ASUS Ascent GX10 — GB10 Superchip (128GB unified memory + SSD 1TB)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>ASUS Ascent GX10</strong> — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов с базовым объёмом локального хранилища.</p>
<p>В основе системы суперчип NVIDIA GB10, объединяющий ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell с 128GB LPDDR5x unified memory (~273 GB/s). Общая память используется одновременно как RAM и VRAM, что снижает накладные расходы на передачу данных и упрощает работу с длинным контекстом, KV‑cache и несколькими параллельными inference‑сценариями.</p>
<p>Конфигурация с SSD 1TB NVMe PCIe 4.0 оптимальна для prototyping, локальных ассистентов и RAG‑сервисов среднего масштаба, где требуется хранить 1–2 основные модели и рабочие датасеты без значительного роста стоимости системы.</p>
<hr>
<h3>AI‑производительность:</h3>
<ul>
<li>FP4 Tensor Core: до 1 PFLOP (sparsity)</li>
<li>FP4: 0.5 PFLOP</li>
<li>FP8: 0.25 PFLOP</li>
<li>FP16: 0.125 PFLOP</li>
<li>Unified memory: 128GB LPDDR5x (~273 GB/s)</li>
<li>архитектура: NVIDIA Grace + Blackwell</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>GPT‑OSS 120B FP4 MoE — ~63GB — полностью совместимо</li>
<li>Qwen3‑Next 80B NVFP4 — ~47.6GB — полностью совместимо</li>
<li>GLM‑4.5 Air NVFP4 — ~62GB — полностью совместимо</li>
<li>Gemma‑4 31B NVFP4 — ~32.7GB — полностью совместимо</li>
</ul>
<p>128GB unified memory позволяет комфортно запускать модели уровня 30B–80B без ограничений и до ~120B в FP4‑режиме с запасом под KV‑cache и параллельные inference‑нагрузки.</p>
<h3>Подходит для задач:</h3>
<ul>
<li>локальный inference LLM</li>
<li>RAG системы</li>
<li>agent frameworks</li>
<li>fine‑tuning (LoRA / QLoRA)</li>
<li>AI research и prototyping</li>
<li>код‑ассистенты</li>
<li>обработка документов</li>
<li>multimodal pipelines</li>
</ul>
<h3>Совместимость с diffusion моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — high‑res генерация</li>
<li>FLUX schnell ONNX — быстрый inference</li>
<li>Stable Video Diffusion — короткие видео</li>
<li>Kandinsky 5 Lite — стабильная генерация</li>
<li>WAN NVFP4 — ускоренные пайплайны</li>
</ul>
<h3>Особенности платформы:</h3>
<ul>
<li>NVIDIA GB10 Grace Blackwell Superchip</li>
<li>ARM v9.2‑A CPU (20 ядер)</li>
<li>128GB unified LPDDR5x memory</li>
<li>SSD 1TB NVMe PCIe 4.0</li>
<li>NVIDIA DGX OS и AI stack</li>
<li>ConnectX‑7 200Gb/s (2× QSFP56)</li>
<li>10GbE LAN</li>
<li>Wi‑Fi 7 / Bluetooth 5.4</li>
<li>4× USB‑C</li>
<li>HDMI 2.1</li>
<li>энергопотребление до ~240W</li>
<li>компактный корпус 150×150×51 мм</li>
</ul>
<h3>Технические характеристики:</h3>
<ul>
<li>CPU: NVIDIA Grace ARM v9.2‑A</li>
<li>GPU: NVIDIA Blackwell (GB10)</li>
<li>RAM / VRAM: 128GB LPDDR5x unified memory</li>
<li>AI performance: до 1 PFLOP FP4</li>
<li>Storage: 1TB NVMe PCIe 4.0</li>
<li>Network: 10GbE + ConnectX‑7</li>
<li>форм‑фактор: SFF</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-1tb/">AI‑сервер ASUS Ascent GX10 — GB10 Superchip (128GB unified memory + SSD 1TB)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-1tb/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер ASUS Ascent GX10 — GB10 Superchip (128GB unified memory + SSD 2TB)</title>
		<link>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-2tb/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-2tb/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Mon, 20 Apr 2026 17:58:21 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6326</guid>

					<description><![CDATA[<p>ASUS Ascent GX10 — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов с оптимальным балансом между производительностью и объёмом локального хранилища. Суперчип NVIDIA GB10 объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell с 128GB LPDDR5x unified memory (~273 [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-2tb/">AI‑сервер ASUS Ascent GX10 — GB10 Superchip (128GB unified memory + SSD 2TB)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>ASUS Ascent GX10</strong> — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов с оптимальным балансом между производительностью и объёмом локального хранилища.</p>
<p>Суперчип NVIDIA GB10 объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell с 128GB LPDDR5x unified memory (~273 GB/s), используемой одновременно как RAM и VRAM. Это снижает накладные расходы на копирование данных и позволяет эффективно работать с длинным контекстом, KV‑cache и несколькими параллельными inference‑процессами.</p>
<p>Конфигурация с SSD 2TB NVMe PCIe 4.0 обеспечивает достаточно места для хранения моделей, embedding‑индексов и датасетов, оставаясь более доступной по цене по сравнению с версиями 4TB.</p>
<hr>
<h3>AI‑производительность:</h3>
<ul>
<li>FP4 Tensor Core: до 1 PFLOP (sparsity)</li>
<li>FP4: 0.5 PFLOP</li>
<li>FP8: 0.25 PFLOP</li>
<li>FP16: 0.125 PFLOP</li>
<li>Unified memory: 128GB LPDDR5x (~273 GB/s)</li>
<li>архитектура: NVIDIA Grace + Blackwell</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>GPT‑OSS 120B FP4 MoE — ~63GB — полностью совместимо</li>
<li>Qwen3‑Next 80B NVFP4 — ~47.6GB — полностью совместимо</li>
<li>GLM‑4.5 Air NVFP4 — ~62GB — полностью совместимо</li>
<li>Gemma‑4 31B NVFP4 — ~32.7GB — полностью совместимо</li>
</ul>
<p>128GB unified memory позволяет комфортно запускать модели уровня 30B–80B без ограничений и до ~120B в FP4‑режиме с запасом под KV‑cache, длинный контекст и параллельные inference‑нагрузки.</p>
<h3>Подходит для задач:</h3>
<ul>
<li>локальный inference LLM</li>
<li>RAG системы</li>
<li>agent frameworks</li>
<li>fine‑tuning (LoRA / QLoRA)</li>
<li>AI research и prototyping</li>
<li>код‑ассистенты</li>
<li>обработка документов</li>
<li>multimodal pipelines</li>
</ul>
<h3>Совместимость с diffusion моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — high‑res генерация</li>
<li>FLUX schnell ONNX — быстрый inference</li>
<li>Stable Video Diffusion — короткие видео</li>
<li>Kandinsky 5 Lite — стабильная генерация</li>
<li>WAN NVFP4 — ускоренные пайплайны</li>
</ul>
<h3>Особенности платформы:</h3>
<ul>
<li>NVIDIA GB10 Grace Blackwell Superchip</li>
<li>ARM v9.2‑A CPU</li>
<li>128GB unified LPDDR5x memory</li>
<li>SSD 2TB NVMe PCIe 4.0</li>
<li>NVIDIA DGX OS и AI stack</li>
<li>ConnectX‑7 200Gb/s (2× QSFP56)</li>
<li>10GbE LAN</li>
<li>Wi‑Fi 7 / Bluetooth 5.4</li>
<li>4× USB‑C</li>
<li>HDMI 2.1</li>
<li>энергопотребление до ~240W</li>
<li>компактный корпус 150×150×51 мм</li>
</ul>
<h3>Технические характеристики:</h3>
<ul>
<li>CPU: NVIDIA Grace ARM v9.2‑A</li>
<li>GPU: NVIDIA Blackwell (GB10)</li>
<li>RAM / VRAM: 128GB LPDDR5x unified memory</li>
<li>AI performance: до 1 PFLOP FP4</li>
<li>Storage: 2TB NVMe PCIe 4.0</li>
<li>Network: 10GbE + ConnectX‑7</li>
<li>форм‑фактор: SFF</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-2tb/">AI‑сервер ASUS Ascent GX10 — GB10 Superchip (128GB unified memory + SSD 2TB)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-superchip-128gb-unified-memory-ssd-2tb/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер ASUS Ascent GX10 — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x, SSD 4TB)</title>
		<link>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x-ssd-4tb/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x-ssd-4tb/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Mon, 20 Apr 2026 17:46:59 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6325</guid>

					<description><![CDATA[<p>ASUS Ascent GX10 — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов с увеличенным объёмом локального хранилища. Платформа объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в одном суперчипе с 128GB LPDDR5x unified memory (≈273 GB/s). Общий пул [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x-ssd-4tb/">AI‑сервер ASUS Ascent GX10 — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x, SSD 4TB)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>ASUS Ascent GX10</strong> — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов с увеличенным объёмом локального хранилища.</p>
<p>Платформа объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в одном суперчипе с 128GB LPDDR5x unified memory (≈273 GB/s). Общий пул памяти используется одновременно как RAM и VRAM, что упрощает работу с длинным контекстом, KV‑cache и несколькими параллельными inference‑сессиями без необходимости multi‑GPU конфигурации.</p>
<p>Особенностью конфигурации является быстрый SSD 4TB PCIe 5.0, который позволяет хранить локальные датасеты, embedding‑индексы, несколько LLM и LoRA‑адаптеров без необходимости постоянной выгрузки данных в облако.</p>
<hr>
<h3>AI‑производительность:</h3>
<ul>
<li>FP4 Tensor Core: до 1 PFLOP (с sparsity)</li>
<li>FP4: 0.5 PFLOP</li>
<li>FP8: 0.25 PFLOP</li>
<li>FP16: 0.125 PFLOP</li>
<li>Unified memory: 128GB LPDDR5x (~273 GB/s)</li>
<li>архитектура: NVIDIA Grace + Blackwell</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>GPT‑OSS 120B FP4 MoE — ~63GB — полностью совместимо</li>
<li>Qwen3‑Next 80B NVFP4 — ~47.6GB — полностью совместимо</li>
<li>GLM‑4.5 Air NVFP4 — ~62GB — полностью совместимо</li>
<li>Gemma‑4 31B NVFP4 — ~32.7GB — полностью совместимо</li>
</ul>
<p>128GB unified memory позволяет комфортно запускать модели уровня 30B–80B без ограничений и до ~120B в FP4‑режиме с запасом под KV‑cache и параллельные inference‑нагрузки.</p>
<h3>Подходит для задач:</h3>
<ul>
<li>локальный inference LLM</li>
<li>RAG системы</li>
<li>agent frameworks</li>
<li>fine‑tuning (LoRA / QLoRA)</li>
<li>AI research и prototyping</li>
<li>код‑ассистенты</li>
<li>обработка документов</li>
<li>multimodal pipelines</li>
</ul>
<h3>Совместимость с diffusion моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — high‑res генерация</li>
<li>FLUX schnell ONNX — быстрый inference</li>
<li>Stable Video Diffusion — короткие видео</li>
<li>Kandinsky 5 Lite — стабильная генерация</li>
<li>WAN NVFP4 — ускоренные пайплайны</li>
</ul>
<h3>Особенности платформы:</h3>
<ul>
<li>NVIDIA GB10 Grace Blackwell Superchip</li>
<li>ARM v9.2‑A CPU</li>
<li>128GB unified LPDDR5x memory</li>
<li>SSD 4TB NVMe PCIe 5.0</li>
<li>NVIDIA DGX OS и AI stack</li>
<li>ConnectX‑7 200Gb/s (2× QSFP56)</li>
<li>10GbE LAN</li>
<li>Wi‑Fi 7 / Bluetooth 5.4</li>
<li>4× USB‑C</li>
<li>HDMI 2.1</li>
<li>энергопотребление до ~240W</li>
<li>компактный корпус 150×150×51 мм</li>
</ul>
<h3>Технические характеристики:</h3>
<ul>
<li>CPU: NVIDIA Grace ARM v9.2‑A</li>
<li>GPU: NVIDIA Blackwell (GB10)</li>
<li>RAM / VRAM: 128GB LPDDR5x unified memory</li>
<li>AI performance: до 1 PFLOP FP4</li>
<li>Storage: 4TB NVMe PCIe 5.0</li>
<li>Network: 10GbE + ConnectX‑7</li>
<li>форм‑фактор: SFF</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x-ssd-4tb/">AI‑сервер ASUS Ascent GX10 — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x, SSD 4TB)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-asus-ascent-gx10-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x-ssd-4tb/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер GIGABYTE AI TOP ATOM — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</title>
		<link>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-gigabyte-ai-top-atom-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-gigabyte-ai-top-atom-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Mon, 20 Apr 2026 17:41:43 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6324</guid>

					<description><![CDATA[<p>GIGABYTE AI TOP ATOM — ультракомпактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов без необходимости использования облака. Платформа объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в одном суперчипе с 128GB LPDDR5x unified memory, которая используется одновременно как [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-gigabyte-ai-top-atom-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/">AI‑сервер GIGABYTE AI TOP ATOM — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>GIGABYTE AI TOP ATOM</strong> — ультракомпактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов без необходимости использования облака.</p>
<p>Платформа объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в одном суперчипе с 128GB LPDDR5x unified memory, которая используется одновременно как RAM и VRAM. Это позволяет эффективно работать с длинным контекстом, KV‑cache и несколькими параллельными inference‑сессиями.</p>
<p>Компактный корпус объёмом около 1 литра делает AI TOP ATOM удобным решением для локальной разработки, prototyping и edge‑развёртывания AI‑сервисов с возможностью объединения нескольких узлов через ConnectX‑7 для увеличения вычислительных ресурсов.</p>
<hr>
<h3>AI‑производительность:</h3>
<ul>
<li>FP4 Tensor Core: до 1 PFLOP (sparsity)</li>
<li>FP4: 0.5 PFLOP</li>
<li>FP8: 0.25 PFLOP</li>
<li>FP16: 0.125 PFLOP</li>
<li>Unified memory: 128GB LPDDR5x (256‑bit, ~273 GB/s)</li>
<li>архитектура: NVIDIA Grace + Blackwell</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>GPT‑OSS 120B FP4 MoE — ~63GB — полностью совместимо</li>
<li>Qwen3‑Next 80B NVFP4 — ~47.6GB — полностью совместимо</li>
<li>GLM‑4.5 Air NVFP4 — ~62GB — полностью совместимо</li>
<li>Gemma‑4 31B NVFP4 — ~32.7GB — полностью совместимо</li>
</ul>
<p>128GB unified memory позволяет комфортно запускать модели уровня 30B–80B без ограничений и до ~120B в FP4‑режиме с запасом под KV‑cache, RAG‑индексы и параллельные inference‑нагрузки.</p>
<h3>Подходит для задач:</h3>
<ul>
<li>локальный inference LLM</li>
<li>RAG системы</li>
<li>agent frameworks</li>
<li>fine‑tuning до ~70B</li>
<li>AI research и prototyping</li>
<li>код‑ассистенты</li>
<li>обработка документов</li>
<li>multimodal pipelines</li>
</ul>
<h3>Совместимость с diffusion моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — high‑res генерация</li>
<li>FLUX schnell ONNX — быстрый inference</li>
<li>Stable Video Diffusion — короткие видео</li>
<li>Kandinsky 5 Lite — стабильная генерация</li>
<li>WAN NVFP4 — ускоренные пайплайны</li>
</ul>
<h3>Особенности платформы:</h3>
<ul>
<li>NVIDIA GB10 Grace Blackwell Superchip</li>
<li>ARM v9.2‑A CPU (20 ядер)</li>
<li>128GB unified LPDDR5x memory</li>
<li>NVIDIA DGX OS и AI stack</li>
<li>ConnectX‑7 SmartNIC (2× QSFP56)</li>
<li>10GbE LAN</li>
<li>Wi‑Fi 7 / Bluetooth 5.3</li>
<li>NVMe SSD 4TB PCIe 5.0</li>
<li>NVLink‑C2C связь CPU <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2194.png" alt="↔" class="wp-smiley" style="height: 1em; max-height: 1em;" /> GPU</li>
<li>ультракомпактный корпус ~1L</li>
<li>энергопотребление ~240W</li>
</ul>
<h3>Технические характеристики:</h3>
<ul>
<li>CPU: NVIDIA Grace ARM v9.2‑A</li>
<li>GPU: NVIDIA Blackwell (GB10)</li>
<li>RAM / VRAM: 128GB LPDDR5x unified memory</li>
<li>AI performance: до 1 PFLOP FP4</li>
<li>Storage: 4TB NVMe PCIe 5.0</li>
<li>Network: 10GbE + ConnectX‑7</li>
<li>форм‑фактор: SFF / ultra‑compact</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-gigabyte-ai-top-atom-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/">AI‑сервер GIGABYTE AI TOP ATOM — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-gigabyte-ai-top-atom-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер MSI EdgeXpert-11SUS — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</title>
		<link>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-msi-edgexpert-11sus-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-msi-edgexpert-11sus-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Mon, 20 Apr 2026 17:36:48 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6323</guid>

					<description><![CDATA[<p>MSI EdgeXpert‑11SUS — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов с возможностью объединения нескольких узлов в кластер. Платформа объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в одном суперчипе с 128GB LPDDR5x unified memory, используемой одновременно как [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-msi-edgexpert-11sus-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/">AI‑сервер MSI EdgeXpert-11SUS — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>MSI EdgeXpert‑11SUS</strong> — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей и разработки AI‑сервисов с возможностью объединения нескольких узлов в кластер.</p>
<p>Платформа объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в одном суперчипе с 128GB LPDDR5x unified memory, используемой одновременно как оперативная память и VRAM. Это обеспечивает эффективную работу с длинным контекстом, KV‑cache и несколькими параллельными inference‑процессами без необходимости multi‑GPU сервера.</p>
<p>EdgeXpert‑11SUS поставляется с NVIDIA DGX OS и полным NVIDIA AI‑стеком, что позволяет быстро развернуть локальные сервисы на vLLM, TensorRT‑LLM, Ollama, SGLang или llama.cpp и при необходимости перенести их в дата‑центр.</p>
<hr>
<h3>AI‑производительность:</h3>
<ul>
<li>FP4 Tensor Core: до 1 PFLOP (sparsity)</li>
<li>FP4: 0.5 PFLOP</li>
<li>FP8: 0.25 PFLOP</li>
<li>FP16: 0.125 PFLOP</li>
<li>Unified memory: 128GB LPDDR5x (~273 GB/s)</li>
<li>до ~1000 AI TOPS</li>
<li>архитектура: NVIDIA Grace + Blackwell</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>GPT‑OSS 120B FP4 MoE — ~63GB — полностью совместимо</li>
<li>Qwen3‑Next 80B NVFP4 — ~47.6GB — полностью совместимо</li>
<li>GLM‑4.5 Air NVFP4 — ~62GB — полностью совместимо</li>
<li>Gemma‑4 31B NVFP4 — ~32.7GB — полностью совместимо</li>
</ul>
<p>128GB unified memory позволяет комфортно работать с моделями уровня 30B–80B без ограничений и до ~120B в FP4‑режиме с запасом под KV‑cache, RAG‑индексы и параллельные запросы.</p>
<h3>Подходит для задач:</h3>
<ul>
<li>локальный inference LLM</li>
<li>RAG системы</li>
<li>agent frameworks</li>
<li>fine‑tuning до ~70B</li>
<li>AI research и prototyping</li>
<li>код‑ассистенты</li>
<li>обработка документов</li>
<li>multimodal pipelines</li>
</ul>
<h3>Совместимость с diffusion моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — high‑res генерация</li>
<li>FLUX schnell ONNX — быстрый inference</li>
<li>Stable Video Diffusion — короткие видео</li>
<li>Kandinsky 5 Lite — стабильная генерация</li>
<li>WAN NVFP4 — ускоренные пайплайны</li>
</ul>
<h3>Особенности платформы:</h3>
<ul>
<li>NVIDIA GB10 Grace Blackwell Superchip</li>
<li>ARM v9.2‑A CPU</li>
<li>128GB unified LPDDR5x memory</li>
<li>NVIDIA DGX OS и AI stack</li>
<li>ConnectX‑7 SmartNIC (QSFP56)</li>
<li>10GbE LAN</li>
<li>Wi‑Fi 7 / Bluetooth 5.3</li>
<li>NVMe SSD 4TB (self‑encrypting)</li>
<li>возможность объединения нескольких узлов</li>
<li>компактный SFF форм‑фактор</li>
</ul>
<h3>Технические характеристики:</h3>
<ul>
<li>CPU: NVIDIA Grace ARM v9.2‑A</li>
<li>GPU: NVIDIA Blackwell (GB10)</li>
<li>RAM / VRAM: 128GB LPDDR5x unified memory</li>
<li>AI performance: до 1 PFLOP FP4</li>
<li>Storage: 4TB NVMe SSD</li>
<li>Network: 10GbE + ConnectX‑7</li>
<li>форм‑фактор: SFF</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-msi-edgexpert-11sus-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/">AI‑сервер MSI EdgeXpert-11SUS — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-msi-edgexpert-11sus-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер Lenovo ThinkStation PGX — GB10 Grace Blackwell Superchip (128GB unified memory)</title>
		<link>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-lenovo-thinkstation-pgx-gb10-grace-blackwell-superchip-128gb-unified-memory/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-lenovo-thinkstation-pgx-gb10-grace-blackwell-superchip-128gb-unified-memory/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Mon, 20 Apr 2026 16:04:38 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6322</guid>

					<description><![CDATA[<p>Lenovo ThinkStation PGX — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса, RAG‑систем, дообучения моделей и разработки AI‑сервисов с возможностью масштабирования в кластер. Система объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в одном суперчипе с 128GB LPDDR5x unified memory. Общий пул памяти используется одновременно [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-lenovo-thinkstation-pgx-gb10-grace-blackwell-superchip-128gb-unified-memory/">AI‑сервер Lenovo ThinkStation PGX — GB10 Grace Blackwell Superchip (128GB unified memory)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Lenovo ThinkStation PGX</strong> — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса, RAG‑систем, дообучения моделей и разработки AI‑сервисов с возможностью масштабирования в кластер.</p>
<p>Система объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в одном суперчипе с 128GB LPDDR5x unified memory. Общий пул памяти используется одновременно как RAM и VRAM, что позволяет эффективно работать с длинным контекстом, KV‑cache и несколькими параллельными задачами без необходимости multi‑GPU конфигурации.</p>
<p>ThinkStation PGX ориентирован на локальную разработку и эксплуатацию AI‑решений с последующим переносом в дата‑центр или облако без серьёзной адаптации благодаря полной совместимости с NVIDIA AI‑экосистемой.</p>
<hr>
<h3>AI‑производительность:</h3>
<ul>
<li>FP4 Tensor Core: до 1 PFLOP (с sparsity)</li>
<li>FP4: 0.5 PFLOP</li>
<li>FP8: 0.25 PFLOP</li>
<li>FP16: 0.125 PFLOP</li>
<li>Unified memory: 128GB LPDDR5x (≈273 GB/s)</li>
<li>архитектура: NVIDIA Grace + Blackwell</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>GPT‑OSS 120B FP4 MoE — ~63GB — полностью совместимо</li>
<li>Qwen3‑Next 80B NVFP4 — ~47.6GB — полностью совместимо</li>
<li>GLM‑4.5 Air NVFP4 — ~62GB — полностью совместимо</li>
<li>Gemma‑4 31B NVFP4 — ~32.7GB — полностью совместимо</li>
</ul>
<p>128GB unified memory позволяет комфортно работать с моделями уровня 30B–80B без ограничений и до ~120B в FP4‑режиме с запасом под контекст и параллельные inference‑нагрузки.</p>
<h3>Подходит для задач:</h3>
<ul>
<li>локальный inference LLM</li>
<li>RAG системы</li>
<li>agent frameworks</li>
<li>fine‑tuning до ~70B</li>
<li>AI research и prototyping</li>
<li>код‑ассистенты</li>
<li>аналитика и обработка данных</li>
<li>multimodal pipelines</li>
</ul>
<h3>Совместимость с diffusion моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — high‑res генерация</li>
<li>FLUX schnell ONNX — быстрый inference</li>
<li>Stable Video Diffusion — короткие видео</li>
<li>Kandinsky 5 Lite — стабильная генерация</li>
<li>WAN NVFP4 — ускоренные пайплайны</li>
</ul>
<h3>Особенности платформы:</h3>
<ul>
<li>NVIDIA GB10 Grace Blackwell Superchip</li>
<li>ARM v9.2‑A CPU</li>
<li>128GB unified LPDDR5x memory</li>
<li>NVIDIA DGX OS и AI stack</li>
<li>ConnectX‑7 200Gb/s (2× QSFP56)</li>
<li>10GbE LAN</li>
<li>Wi‑Fi 7 / Bluetooth 5.3</li>
<li>NVMe SSD 4TB (self‑encrypting)</li>
<li>поддержка объединения узлов (до ~405B моделей)</li>
<li>компактный SFF форм‑фактор</li>
</ul>
<h3>Технические характеристики:</h3>
<ul>
<li>CPU: NVIDIA Grace ARM v9.2‑A</li>
<li>GPU: NVIDIA Blackwell (GB10)</li>
<li>RAM / VRAM: 128GB LPDDR5x unified memory</li>
<li>AI performance: до 1 PFLOP FP4</li>
<li>Storage: 4TB NVMe SSD</li>
<li>Network: 10GbE + ConnectX‑7 200Gb/s</li>
<li>форм‑фактор: SFF</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-lenovo-thinkstation-pgx-gb10-grace-blackwell-superchip-128gb-unified-memory/">AI‑сервер Lenovo ThinkStation PGX — GB10 Grace Blackwell Superchip (128GB unified memory)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-lenovo-thinkstation-pgx-gb10-grace-blackwell-superchip-128gb-unified-memory/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AI‑сервер HP ZGX Nano G1n — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</title>
		<link>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-hp-zgx-nano-g1n-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/</link>
					<comments>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-hp-zgx-nano-g1n-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/#respond</comments>
		
		<dc:creator><![CDATA[nikitos.19022003@gmail.com]]></dc:creator>
		<pubDate>Mon, 20 Apr 2026 15:49:36 +0000</pubDate>
				<guid isPermaLink="false">https://cluster-mining.com/?post_type=product&#038;p=6321</guid>

					<description><![CDATA[<p>HP ZGX Nano G1n — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей, анализа данных и мультимодальных AI‑пайплайнов с акцентом на автономную работу и приватность данных. Система объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в едином суперчипе с 128GB LPDDR5x [&#8230;]</p>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-hp-zgx-nano-g1n-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/">AI‑сервер HP ZGX Nano G1n — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>HP ZGX Nano G1n</strong> — компактная AI‑рабочая станция класса desktop supercomputer на базе NVIDIA GB10 Grace Blackwell Superchip, предназначенная для локального инференса LLM, RAG‑систем, дообучения моделей, анализа данных и мультимодальных AI‑пайплайнов с акцентом на автономную работу и приватность данных.</p>
<p>Система объединяет ARM CPU архитектуры v9.2‑A (Grace) и GPU Blackwell в едином суперчипе с 128GB LPDDR5x unified memory, используемой одновременно как RAM и VRAM. Это позволяет эффективно работать с длинным контекстом, KV‑cache и несколькими параллельными inference‑сессиями без необходимости multi‑GPU конфигурации.</p>
<p>Компактный корпус (150×150×51 мм) и энергопотребление около 240W делают ZGX Nano G1n удобным решением для локальной разработки AI‑сервисов, прототипирования и последующего переноса моделей в дата‑центр или облако без серьёзной адаптации.</p>
<hr>
<h3>AI‑производительность:</h3>
<ul>
<li>FP4 Tensor Core: до 1 PFLOP (с sparsity)</li>
<li>FP4: 0.5 PFLOP</li>
<li>FP8: 0.25 PFLOP</li>
<li>FP16: 0.125 PFLOP</li>
<li>Unified memory: 128GB LPDDR5x</li>
<li>~1000 AI TOPS</li>
<li>архитектура: NVIDIA Grace + Blackwell</li>
</ul>
<h3>Совместимость с LLM:</h3>
<ul>
<li>GPT‑OSS 120B FP4 MoE — ~63GB — полностью совместимо</li>
<li>Qwen3‑Next 80B NVFP4 — ~47.6GB — полностью совместимо</li>
<li>GLM‑4.5 Air NVFP4 — ~62GB — полностью совместимо</li>
<li>Gemma‑4 31B NVFP4 — ~32.7GB — полностью совместимо</li>
</ul>
<p>128GB unified memory позволяет комфортно запускать модели уровня 30B–80B без ограничений и до ~120B в FP4‑режиме с запасом под KV‑cache и параллельные inference‑сценарии.</p>
<h3>Подходит для задач:</h3>
<ul>
<li>локальный inference LLM</li>
<li>RAG системы</li>
<li>agent frameworks</li>
<li>fine‑tuning до ~70B</li>
<li>AI research и prototyping</li>
<li>multimodal pipelines</li>
<li>обработка документов</li>
<li>код‑ассистенты</li>
</ul>
<h3>Совместимость с diffusion моделями:</h3>
<ul>
<li>Stable Diffusion 3 Medium — высокие разрешения</li>
<li>FLUX schnell ONNX — ускоренная генерация</li>
<li>Stable Video Diffusion — короткие видео</li>
<li>Kandinsky 5 Lite — стабильная работа</li>
<li>WAN NVFP4 — ускоренная генерация</li>
</ul>
<h3>Особенности платформы:</h3>
<ul>
<li>NVIDIA GB10 Grace Blackwell Superchip</li>
<li>ARM v9.2‑A CPU</li>
<li>128GB unified LPDDR5x memory</li>
<li>ConnectX‑7 200Gb/s (2× QSFP56)</li>
<li>10GbE LAN</li>
<li>Wi‑Fi 7 / Bluetooth 5.x</li>
<li>NVMe SSD 4TB</li>
<li>NVIDIA DGX OS и AI stack</li>
<li>компактный корпус 150×150×51 мм</li>
</ul>
<h3>Технические характеристики:</h3>
<ul>
<li>CPU: NVIDIA Grace ARM v9.2‑A</li>
<li>GPU: NVIDIA Blackwell (GB10)</li>
<li>RAM / VRAM: 128GB LPDDR5x unified memory</li>
<li>AI performance: до 1 PFLOP FP4</li>
<li>Storage: 4TB NVMe SSD</li>
<li>Network: 10GbE + ConnectX‑7 200Gb/s</li>
<li>форм‑фактор: SFF / ultra‑compact</li>
<li>Гарантия: 1 год</li>
</ul>
<p>Сообщение <a href="https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-hp-zgx-nano-g1n-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/">AI‑сервер HP ZGX Nano G1n — GB10 Grace Blackwell Superchip (128GB unified LPDDR5x)</a> появились сначала на <a href="https://cluster-mining.com">Майнинг Кластер</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://cluster-mining.com/catalog/ai-servers/ai-superkompyutery/ai-server-hp-zgx-nano-g1n-gb10-grace-blackwell-superchip-128gb-unified-lpddr5x/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
