谷歌证实Gemini将助力新版Siri:苹果情境感知功能预计2026年上线

在不久前举行的 Google Cloud Next 26 大会上,谷歌方面正式表示,苹果已将其确定为首选云服务伙伴,双方正基于 Gemini 模型联合打造新一代 Apple Foundation 基座。这也意味着,主打个性化与情境感知的新款 Siri 将在 2026 年与用户见面。本次合作的关键,是把 Gemini 强大的多模态处理能力与苹果的私有云架构打通,着力补齐 Siri 在复杂指令执行和跨应用意图识别上的长期短板。

自 2024 年 WWDC 提出“屏幕感知”愿景以来,苹果在 AI 落地上一直受技术门槛牵制。如今凭借每年约 10 亿美元的投入,苹果将 Gemini 的大模型能力收敛为端侧可控版本,在确保用户隐私的前提下,显著提升了 iPhone、iPad 等设备的智能交互上限。这一动作意味着,苹果从单一自研迈向“自研+顶级外援”的双轨并进策略。

业内普遍认为,此次 Siri 的升级不仅是交互形态的变化,更标志着 AI 智能体(Agent)走向严肃生产力。随着 2026 年这一关键时间点落定,全球智能终端市场或将从“指令式交互”转向“意图级理解”,这既进一步巩固了谷歌在底层模型架构竞争中的领先,也让苹果拿到追赶大模型第一梯队的入场券。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享