OpenAI 最近加快推进音频人工智能的研发,为即将登场的语音优先智能设备做好准备。根据《The Information》的消息,过去两个月里,OpenAI 将工程、产品与研究等多个团队整合,集中攻克音频交互技术。团队的目标是提升语音AI的对话表现与响应速度,让用户交流更顺畅。
有知情人士称,当前的语音对话模型在准确度和速度上仍不如文本模型。为此,OpenAI 正在加速升级模型架构,计划在2026年第一季度推出新一代音频模型。新模型将带来更自然、更有情感的语音输出,并能更好处理对话中的实时打断与互动场景。

此次技术升级不仅为改善现有语音体验,也与 OpenAI 计划发布的语音优先个人设备紧密相关。据报道,这些设备预计在约一年后面市,可能不是单一产品,而是一个系列,包括无屏智能眼镜、屏幕极简的语音助手等多种形态。它们的设计理念是降低用户对屏幕的依赖,以自然语音交流提升整体使用感受。
值得关注的是,新音频模型将支持“边听边说”功能,也就是用户尚未说完时,设备即可开始回应,让实时交互更顺滑。这在目前多数语音AI产品中仍不常见。
总体来看,OpenAI 正在加速迈向“以语音为核心接口”的未来。这不仅是其产品战略的调整,也是科技行业对交互模式变化的积极回应。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?