OpenAI 正在加快音频人工智能的研发步伐,为即将到来的“语音优先”智能硬件做技术储备。过去两个月里,OpenAI 将工程、产品与研究团队协同整合,集中精力突破音频交互能力,力求让语音 AI 的对话表现和响应更出色。
据内部人士透露,目前的语音对话模型在准确率与响应速度方面仍不如文本模型。为此,OpenAI 正推进架构升级,预计新一代音频模型将在2026年第一季度发布。新模型将带来更自然、更具情感的语音输出,并能更好地应对实时打断与互动场景。
这次音频技术的迭代不仅是为了优化现有的语音体验,也与 OpenAI 计划推出的语音优先个人设备密切相关。消息称,这款设备大约一年后面市,可能不是单一产品,而是一个系列,包含不同形态的设备,比如无屏智能眼镜或配有极简屏幕的语音助手等。其设计思路是尽量减少对屏幕的依赖,通过自然的语音交流提升整体体验。
此外,新音频模型预计会支持“边听边说”能力,也就是在用户尚未说完时就能开始回应,从而带来更顺畅的实时互动。这在目前许多语音 AI 中并不常见。总体来看,OpenAI 正加速迈向“以语音为核心接口”的未来,这不仅是产品策略的调整,也反映了科技行业对屏幕交互方式可能变化的适应。
划重点:
🗣️ OpenAI 加强音频 AI 研发,为语音优先智能硬件提前布局。
🔄 新一代音频模型预计将于2026年推出,带来更自然、富有情感的语音表现。
🕶️ 即将发布的设备系列将弱化屏幕依赖,通过自然语音交流带来更佳体验。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?