近几年,人工智能开发多靠大型云端集群推动前进。但随着中小型语言模型不断增强,开发者开始发问:既然“小模型”也能干大事,为什么研发还要受制于远程且昂贵的基础设施?
本地计算的跟进一直偏慢,即便是高端工作站,加载先进模型时也常被内存卡住。面对 30 亿或 70 亿参数的模型,不少团队不得不选量化/压缩、模型分片,或依赖外部 GPU 服务器。对受监管行业而言,数据处理并不轻松;而初创公司和研究人员使用云实例,成本高、迭代也被拖慢。
为了解决这些痛点,像戴尔这样的硬件厂商在持续加码。戴尔最新推出的 Pro Max 与 GB10 组合,意在把更强的本地 AI 算力带到开发者身边,帮助突破设备限制。戴尔表示,训练超过 70 亿参数的模型,所需资源已超出多数高端工作站的能力范围。
通过把 NVIDIA Grace Blackwell 架构带到桌面形态,戴尔希望让硬件更好贴合这一代“小而算力密集”的 AI 负载。Pro Max 与 GB10 的配置包含 128GB 统一 LPDDR5X 内存,运行 Ubuntu Linux 及 NVIDIA DGX OS,并预装 CUDA、Docker、JupyterLab 与 NVIDIA AI Enterprise 软件栈。
戴尔称该系统可提供最高每秒 1000 万亿次的 FP4 AI 性能,让开发者能够在本地微调与原型迭代最高 200 亿参数的模型。将如此算力装进约 1.2 千克、150mm × 150mm × 50.5mm 的小巧机身,足见其工程实力。
借助统一内存,开发者可以在单一地址空间处理大模型,避免 CPU/GPU 两个内存池之间的数据搬运瓶颈。学术实验室无需依靠共享集群也能运行 Meta 开源的 Llama;初创团队在早期探索阶段可先在本地反复实验,不必一开始就投入云端成本。
戴尔还提到,如果需要更大的算力,两台 GB10 可组合为单一节点,支持最高 400 亿参数的模型。配合预配置的 DGX OS,团队能迅速启动训练任务,并使用附加的 SDK 与编排工具开展工作。
划重点:
🌟 Pro Max 搭配 GB10,把强劲本地算力带给 AI 开发者,硬件限制不再是瓶颈。
💻 新设备配备 128GB 统一内存,支持本地微调最高 200 亿参数的模型,贴合当下 AI 需求。
🚀 两台 GB10 可组成单节点,处理最高 400 亿参数,为团队提供更大算力选择。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?