近几年,AI 开发大多靠云端大型集群推进。可随着小中型语言模型实力提升,开发者开始反思:既然小模型越来越能打,为什么研发还要绑定在遥远又昂贵的云资源上?
本地算力的跟进相对缓慢,哪怕高端工作站装载这些前沿模型也会卡在内存上。处理 30 亿、70 亿参数的模型时,团队往往要靠压缩、切分或借助外接 GPU 服务器来凑。对于受监管的行业,这些涉及数据流转的做法并不轻松。更别提初创和研究者,动辄的云费用和拉长的迭代周期都是负担。
为了破局,像戴尔这样的硬件厂商加快布局。戴尔最新发布的 Pro Max 搭配 GB10,定位为开发者提供更强的本地 AI 算力,助力冲破硬件天花板。戴尔也强调,要训练超过 70 亿参数的模型,所需资源已超出大部分高端工作站的能力范围。
把 NVIDIA 的 Grace Blackwell 架构做成桌面形态,戴尔希望硬件与新一代“小而重”的 AI 负载无缝匹配。Pro Max 与 GB10 配备 128GB 统一 LPDDR5X 内存,运行 Ubuntu Linux 与 NVIDIA DGX OS,开箱即含 CUDA、Docker、JupyterLab 以及 NVIDIA AI Enterprise 组件。
官方表示,该系统在 FP4 精度下可提供最高每秒 1000 万亿次的 AI 运算,让开发者在本地就能微调与打样高达 200 亿参数的模型。把这般算力塞进仅 1.2 千克、150mm x 150mm x 50.5mm 的小巧机身,工程实现可见一斑。
借助统一内存,开发者能在一个地址空间里操作大模型,减少 CPU 与 GPU 间内存来回的堵点。高校与研究室无需排队共享集群就能跑 Meta 开源的 Llama,初创团队也可在早期直接做本地试验,不必一上来就砸钱上云。
戴尔补充,如果团队需要更强算力,可把两台 GB10 组合成单节点,支撑最高 400 亿参数的模型。得益于预装的 DGX OS,训练作业可快速起步,并可搭配更多 SDK 与编排工具进行管理。
划重点:
🌟 Pro Max 搭配 GB10,将强劲本地算力带给开发者,帮助突破硬件瓶颈。
💻 配备 128GB 统一内存,可在本地微调最多 200 亿参数模型,贴合当下 AI 场景。
🚀 两台 GB10 组合为单节点,可支持最高 400 亿参数,提供更灵活的算力扩展。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?