戴尔 GB10:把桌面超算带到你身边,开启本地 AI 新阶段

近几年,人工智能开发多靠大型云端集群推动前进。但随着中小型语言模型不断增强,开发者开始发问:既然“小模型”也能干大事,为什么研发还要受制于远程且昂贵的基础设施?

本地计算的跟进一直偏慢,即便是高端工作站,加载先进模型时也常被内存卡住。面对 30 亿或 70 亿参数的模型,不少团队不得不选量化/压缩、模型分片,或依赖外部 GPU 服务器。对受监管行业而言,数据处理并不轻松;而初创公司和研究人员使用云实例,成本高、迭代也被拖慢。

为了解决这些痛点,像戴尔这样的硬件厂商在持续加码。戴尔最新推出的 Pro Max 与 GB10 组合,意在把更强的本地 AI 算力带到开发者身边,帮助突破设备限制。戴尔表示,训练超过 70 亿参数的模型,所需资源已超出多数高端工作站的能力范围。

通过把 NVIDIA Grace Blackwell 架构带到桌面形态,戴尔希望让硬件更好贴合这一代“小而算力密集”的 AI 负载。Pro Max 与 GB10 的配置包含 128GB 统一 LPDDR5X 内存,运行 Ubuntu Linux 及 NVIDIA DGX OS,并预装 CUDA、Docker、JupyterLab 与 NVIDIA AI Enterprise 软件栈。

戴尔称该系统可提供最高每秒 1000 万亿次的 FP4 AI 性能,让开发者能够在本地微调与原型迭代最高 200 亿参数的模型。将如此算力装进约 1.2 千克、150mm × 150mm × 50.5mm 的小巧机身,足见其工程实力。

借助统一内存,开发者可以在单一地址空间处理大模型,避免 CPU/GPU 两个内存池之间的数据搬运瓶颈。学术实验室无需依靠共享集群也能运行 Meta 开源的 Llama;初创团队在早期探索阶段可先在本地反复实验,不必一开始就投入云端成本。

戴尔还提到,如果需要更大的算力,两台 GB10 可组合为单一节点,支持最高 400 亿参数的模型。配合预配置的 DGX OS,团队能迅速启动训练任务,并使用附加的 SDK 与编排工具开展工作。

划重点:  

🌟 Pro Max 搭配 GB10,把强劲本地算力带给 AI 开发者,硬件限制不再是瓶颈。  

💻 新设备配备 128GB 统一内存,支持本地微调最高 200 亿参数的模型,贴合当下 AI 需求。  

🚀 两台 GB10 可组成单节点,处理最高 400 亿参数,为团队提供更大算力选择。  

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享