谷歌Vids接入 Veo3.1 模型,文字指令即可操控 AI 虚拟形象互动

4月2日,谷歌宣布其企业级视频创作应用 Vids 迎来重要升级:通过集成 Veo3.1 视频生成模型并结合自然语言交互,让产品从静态生成迈向可“指令操控”的动态创作。此次更新的重点,是给 AI 虚拟形象带来更强的互动能力。用户只需输入简单的文字提示,就能让角色在场景中与产品、道具或设备进行指定动作互动,同时在生成的动态画面中保持角色外观的一致性。

同时,Vids 的多模态能力进一步加强。在近期接入Lyria3系列音频模型的基础上,本次引入的 Veo3.1 支持生成8秒视频片段,并向普通用户与企业高级版账户分别提供每月10次至1000次的生成额度。

QQ20260403-091357.jpg

为打通从制作到发布的流程闭环,Google Vids新增了可直接导出到 YouTube 的能力,并配合全新的 Chrome 录屏扩展,形成从素材采集到成片分发的完整链路。

与此同时,AI 领域的竞争持续升温。微软同日推出 MAI 系列三款基础模型,覆盖25种语言的语音转写、音频生成与视频生成能力,意在以更低成本门槛挑战谷歌与 OpenAI 的市场优势。

自2024年推出 Vids 以来,谷歌快速迭代了3D 卡通形象与多语言支持。这种基于提示词的精细化操控,意味着 AI 视频工具正从简单的内容生成,迈向更专业的“自动化导演”阶段,并将进一步重塑企业内容生产的成本结构与创意边界。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享