英伟达(NVIDIA)近日展示其在通用人工智能(AGI)方向的最新进展,发布了一款名为

为让 NitroGen 掌握复杂的操控规律,研究团队挖掘了一个过去少被系统利用的“资料库”:YouTube 和 Twitch 上带有控制器叠加层的游戏实况视频。通过解析 1000 余款游戏、累计超过 4 万小时的玩家影像,NitroGen 学会了如何依据视觉反馈直接生成操作指令。据 AIbase 介绍,研究人员结合模板匹配与经微调的 SegFormer 模型,从海量视频中精准还原玩家的实时按键输入数据。
在技术架构层面,NitroGen 深度融合了英伟达先前发布的
目前,这一由英伟达、斯坦福与加州理工学院等顶尖学术机构联合推进的项目,已正式开源
划重点:
-
🎮 海量数据驱动: 模型以 YouTube 与 Twitch 超过 4 万小时的游戏视频为训练基础,通过识别画面中的虚拟手柄按键,学习人类玩家的操作逻辑。
-
🚀 卓越的通用性: NitroGen 展示出机器人基础模型可充当通用智能体;在全新、未见过的游戏任务上,相比传统模型成功率提升了 52%。
-
🔓 全面开源共享: 英伟达携多所高校已公开 NitroGen 的模型权重、代码与数据集,为通用 AI 智能体的发展奠定重要基础。
如果你对 NitroGen 的技术细节感兴趣,要不要我详细讲讲它如何从视频中提取并还原操作逻辑?

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?