OpenAI 正在把更多资源投入到音频类人工智能模型研发,为即将到来的语音优先智能硬件提前夯实技术基础。过去两个月里,OpenAI 整合了多支工程、产品与研究团队,集中攻克音频交互,让语音 AI 在对话效果与响应能力上更出色。
据内部消息,目前语音对话模型在准确性和响应速度上仍不及纯文本模型。为此,OpenAI 正加速进行架构升级,预计新一代音频模型将在2026年第一季度发布。该模型将带来更自然、更富情感的语音表达,并能更好地应对对话中的实时打断与互动。
这次音频技术升级不仅是为了优化现有语音体验,也与 OpenAI 计划推出的语音优先个人设备紧密相关。消息称,这款设备大约一年后进入市场,可能不是单一产品,而是一个系列,比如无屏智能眼镜或配极简屏的语音助手等。核心理念是降低对屏幕的依赖,通过自然语音交流来提升用户体验。
此外,新音频模型预计将支持“边听边说”的能力,也就是在用户还没说完时系统就能开始回应,使实时交互更流畅。这在当前不少语音 AI 中并不常见。总体来看,OpenAI 正在加速走向以“语音为核心接口”的未来,这既是其产品策略的调整,也体现了科技行业对交互模式可能变化的顺应。
划重点:
🗣️ OpenAI 正加紧音频 AI 研发,为语音优先的智能硬件提前布局。
🔄 新一代音频模型预计将于2026年推出,语音更自然、更有情感。
🕶️ 即将发布的设备系列将弱化屏幕依赖,通过自然语音提升体验。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?