谷歌在重塑搜索体验后,正遭遇前所未有的质量与信任挑战。尽管“AI 概述”(AI Overviews)已被放在搜索核心位置,但“幻觉”频发——如捏造事实、自相矛盾,以及在医疗等关键领域给出错误建议——迫使这家科技巨头不得不迅速“止血”并采取补救。

根据最新招聘启事,谷歌面向外界招募“AI 答案质量工程师”,主要负责打磨 AI 模式与搜索结果页(SRP)上的生成式答案。岗位说明显示,这些工程师将聚焦复杂查询场景的表现,确保在基础设施扩展的同时仍能维持信息准确。外界普遍解读为,这也是谷歌首次以这种方式间接承认 AI 概述在可靠性上存在明显短板。
实际测评暴露了问题的严重程度:围绕同一家初创公司的估值,前后两次提问,AI 概述分别给出从400万到7000万美元不等且完全不准确的引用答案。更令人担忧的是,《卫报》近日披露,谷歌 AI 在胰腺癌等重疾相关的健康建议上,出现与医疗准则相违背、甚至可能带来致命风险的指导。
同时,谷歌近期在 Discover 信息流测试的 AI 改写新闻标题功能,也因制造具有误导性的“标题党”而遭到出版商强烈批评。随着用户对谷歌搜索结果的天然信任被动摇,如何压制 AI 幻觉,已成为谷歌守住搜索主导地位的关键一战。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END



















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?