在2026年CES展会上,游戏与高性能硬件品牌雷蛇(Razer)正式切入AI开发者硬件赛道。新品聚焦本地大模型(LLM)场景,为开发者、研究机构与中小企业提供高性能且灵活的本地AI基础设施。
Forge AI 工作站:塔式/机架双形态,面向重载AI任务
全新的Razer Forge AI开发者工作站提供塔式(Tower)与机架式(Rack)两种形态,针对AI训练与推理做专项优化,核心规格包括:
– 8个DDR5 RDIMM内存槽位,支持高带宽与大容量扩展;
– 多GPU兼容布局,可适配NVIDIA RTX Ada、专业级RTX以及第三方AI加速卡;
– 双10GbE有线网络端口,满足多节点通信与高速数据吞吐;
– 面向AI/ML、3D渲染与科学计算优化的散热与电源系统。
雷蛇表示,Forge AI不仅服务企业研发,也面向高校实验室与独立开发者,填补高性能AI工作站在消费级市场的空白。
外接AI加速器:雷电5接口可级联四台,笔电快速化身AI终端
为满足移动开发与轻量部署需求,雷蛇携手AI芯片厂商Tenstorrent推出外接式AI加速器:
– 采用Tenstorrent Wormhole AI芯片,针对Transformer架构深度优化;
– 支持雷电5/雷电4接口,即插即用;
– 最多可级联四台设备,显著提升本地算力密度;
– 让高性能笔记本迅速升级为本地AI/ML开发平台,无需更换整机。
这款设备尤其适合在本地运行Llama、Qwen、Phi等开源模型的开发者,兼顾便携与扩展性。
Razer AIKit开源工具:一键优化本地LLM推理
为降低上手门槛,雷蛇同步推出Razer AIKit——一套开源工具包,主要能力包括:
– 自动检测与配置GPU/加速器,无需手动调参;
– 智能优化LLM推理参数(如量化、批量、显存调度);
– 与Razer Forge AI及外接加速器深度集成,实现“开箱即用”;
– 兼容主流开源框架(如vLLM、Ollama、LM Studio)。
AIKit现已登陆GitHub,雷蛇欢迎社区贡献插件与优化方案,共建本地AI开发生态。
行业观察:雷蛇从“游戏硬件”迈向“AI生产力”
此次CES发布,意味着雷蛇正由电竞外设品牌转向AI时代的生产力工具提供商。凭借在高性能设计、散热与供电方面的多年积累,以及对开发者体验的把握,雷蛇有望在本地AI硬件赛道拓展新空间。
在大模型加速“本地化、私有化、降成本”的趋势下,雷蛇以“硬件+开源工具”的组合,为不依赖云、重视数据隐私的用户提供了更具吸引力的选择。这场由游戏巨头推动的AI生产力变革,或许才刚刚开始。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?