谷歌在重构搜索体验后,正遭遇前所未有的信任与质量挑战。尽管“AI 概述”(AI Overviews)已被置于搜索核心位置,但频繁的“幻觉”问题——比如捏造事实、逻辑自相矛盾,以及在医疗等关键领域给出错误建议——迫使这家科技公司不得不迅速推出补救措施。

依据最新的招聘信息,谷歌正在招募“AI 答案质量工程师”,专门优化 AI 模块以及搜索结果页(SRP)中的生成式回答。岗位说明显示,这些工程师将聚焦复杂查询场景下的表现,在基础设施不断扩容的同时,确保信息更准确。外界普遍认为,这被视为谷歌首次间接承认 AI 概述在可靠性方面存在明显短板。
实测结果也印证了问题的严峻性:针对同一家初创公司估值的两次提问,AI 概述给出了从 400 万到 7000 万美元不等的数字,且引用来源完全不实。更令人担忧的是,《卫报》近期披露,谷歌 AI 在涉及胰腺癌等重症的健康建议上,曾出现与医疗规范相悖、甚至可能造成严重后果的指导。
与此同时,谷歌在 Discover 信息流中试验的 AI 新闻标题重写功能,也因生成误导性、近似“标题党”的内容而遭到出版商强烈批评。随着用户对谷歌搜索的天然信任受到冲击,如何抑制 AI 幻觉已成为其守住搜索霸主地位的关键一战。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?