雷蛇在CES 2026发布Forge AI工作站与外接AI加速器,开源AIKit助力本地大模型开发

在CES 2026上,全球知名的游戏与高性能硬件品牌雷蛇(Razer)正式进军面向AI开发者的硬件领域。全新产品线聚焦本地大模型(LLM),为开发者、研究人员与中小企业提供高性能、强扩展的本地AI基础设施方案。

 Forge AI 工作站:塔式与机架双形态,瞄准专业AI负载

全新的Razer Forge AI开发者工作站提供塔式(Tower)与机架式(Rack)两种形态,针对AI训练与推理进行优化,核心配置包括:

– 8个DDR5 RDIMM内存插槽,支持高带宽与大容量扩展;

– 多GPU兼容设计,可用NVIDIA RTX Ada、专业级RTX及第三方AI加速卡;

– 双10GbE有线网口,满足多节点通信与高速数据传输;

– 面向AI/ML、3D渲染、科学计算等专业负载优化散热与供电系统。

雷蛇表示,Forge AI不仅服务企业研发团队,同样适合高校实验室与独立开发者,补足消费级高性能AI工作站的市场空缺。

 外接AI加速器:雷电5接口可串联四台,笔记本即刻变AI终端

为满足移动办公与轻量部署场景,雷蛇与AI芯片公司Tenstorrent联合推出外接式AI加速器:

– 内置Tenstorrent Wormhole AI芯片,针对Transformer架构优化;

– 采用雷电5/雷电4接口,即插即用;

– 支持最多四台设备级联,显著提升算力密度;

– 让高性能笔记本快速升级为本地AI/ML开发平台,无需更换整机。

该设备尤其适合在本地运行Llama、Qwen、Phi等开源模型的开发者,兼顾便携与算力扩展。

 Razer AIKit开源工具:一键优化本地LLM推理

为降低AI开发门槛,雷蛇同步推出Razer AIKit——一套开源软件工具包,具备以下能力:

– 自动识别并配置GPU/加速器,无需手动调参;

– 智能优化LLM推理参数(如量化、批处理、显存调度);

– 与Razer Forge AI及外接加速器深度集成,提供“开箱即用”的体验;

– 兼容主流开源框架(如vLLM、Ollama、LM Studio)。

AIKit已在GitHub开源,雷蛇鼓励社区贡献插件与优化方案,共建本地AI开发生态。

AIbase观察:雷蛇从“游戏硬件”迈向“AI生产力”

此次CES发布,显示雷蛇正由电竞外设品牌转向AI时代的生产力工具提供商。依托其在高性能设计、散热与电源管理方面的长期积累,以及对开发者体验的深刻理解,雷蛇有望在本地AI硬件赛道开辟新增量。

在全球大模型走向“本地化、私有化、低成本化”的趋势下,雷蛇的“硬件+开源工具”组合,为不依赖云服务、重视数据隐私的开发者提供了极具吸引力的选择。而这场由游戏巨头推动的AI生产力变革,或许才刚刚开启。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享