雷蛇亮相CES 2026:发布Forge AI工作站与外接加速器,并开源AIKit助力本地大模型

在2026年CES展会上,游戏与高性能硬件品牌雷蛇(Razer)正式切入AI开发者硬件赛道。新品聚焦本地大模型(LLM)场景,为开发者、研究机构与中小企业提供高性能且灵活的本地AI基础设施。

 Forge AI 工作站:塔式/机架双形态,面向重载AI任务

全新的Razer Forge AI开发者工作站提供塔式(Tower)与机架式(Rack)两种形态,针对AI训练与推理做专项优化,核心规格包括:

– 8个DDR5 RDIMM内存槽位,支持高带宽与大容量扩展;

– 多GPU兼容布局,可适配NVIDIA RTX Ada、专业级RTX以及第三方AI加速卡;

– 双10GbE有线网络端口,满足多节点通信与高速数据吞吐;

– 面向AI/ML、3D渲染与科学计算优化的散热与电源系统。

雷蛇表示,Forge AI不仅服务企业研发,也面向高校实验室与独立开发者,填补高性能AI工作站在消费级市场的空白。

 外接AI加速器:雷电5接口可级联四台,笔电快速化身AI终端

为满足移动开发与轻量部署需求,雷蛇携手AI芯片厂商Tenstorrent推出外接式AI加速器:

– 采用Tenstorrent Wormhole AI芯片,针对Transformer架构深度优化;

– 支持雷电5/雷电4接口,即插即用;

– 最多可级联四台设备,显著提升本地算力密度;

– 让高性能笔记本迅速升级为本地AI/ML开发平台,无需更换整机。

这款设备尤其适合在本地运行Llama、Qwen、Phi等开源模型的开发者,兼顾便携与扩展性。

 Razer AIKit开源工具:一键优化本地LLM推理

为降低上手门槛,雷蛇同步推出Razer AIKit——一套开源工具包,主要能力包括:

– 自动检测与配置GPU/加速器,无需手动调参;

– 智能优化LLM推理参数(如量化、批量、显存调度);

– 与Razer Forge AI及外接加速器深度集成,实现“开箱即用”;

– 兼容主流开源框架(如vLLM、Ollama、LM Studio)。

AIKit现已登陆GitHub,雷蛇欢迎社区贡献插件与优化方案,共建本地AI开发生态。

行业观察:雷蛇从“游戏硬件”迈向“AI生产力”

此次CES发布,意味着雷蛇正由电竞外设品牌转向AI时代的生产力工具提供商。凭借在高性能设计、散热与供电方面的多年积累,以及对开发者体验的把握,雷蛇有望在本地AI硬件赛道拓展新空间。

在大模型加速“本地化、私有化、降成本”的趋势下,雷蛇以“硬件+开源工具”的组合,为不依赖云、重视数据隐私的用户提供了更具吸引力的选择。这场由游戏巨头推动的AI生产力变革,或许才刚刚开始。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享