谷歌CEO桑达尔·皮查伊最近公开表示,公司对自家AI系统的具体运作并非全盘掌控。这像打开了潘多拉盒子,暴露出AI“黑箱”的深层疑问。
AI涌现能力:从训练到“自学”的跃迁
近几年,大型语言模型(LLM)在大规模训练后,常会出现超出预期的新本领。所谓“涌现”,不是魔术,而是海量数据和复杂计算下的统计结果。比如,谷歌的PaLM只在收到很少的孟加拉语提示时,就能顺畅地翻译该语言。起初这被称为AI会“自学”,但后续研究发现,训练数据里本就含有孟加拉语成分。严格说,这更像是在已学模式上的强泛化,而不是从零学起的奇迹。
不少专家提醒,当参数规模到达数十亿级时,模型可能突然展现抽象推理、跨语言翻译等能力。这些能力不是人手写死的规则,而是从碎片化的数据中自己“长”出来的。不过,这种跳变也带来不确定性:它也许产生有用的新技巧,也可能引发难以预测的风险。
黑箱运作:人类认知的盲区
AI的内部决策常被称作“黑箱”。就连开发者,也很难完全解释它为何做出某个判断。谷歌高层承认,他们可以观测表现、做压力测试,但无法精确说明每个“神经元”在何时起了什么作用。这有点像我们理解大脑:原理大概懂,可具体到某一刻为何激活哪一簇神经元,却说不清。
这种不透明引发担忧:当AI面向数以百万计的用户时,如果机制讲不明白,安全如何保证?业内普遍认为,AI的“聪明”本质上还是模式匹配而非“意识”。但当模型越做越大,不透明也会被放大,可能带来误导性输出或意外行为。
谷歌案例剖析:炒作还是真实威胁?
回到谷歌这例:PaLM的孟加拉语翻译曾被宣传成“适应性自学”。可技术论文显示,它在7800亿令牌的多语言训练数据里,已涵盖包括孟加拉语在内的一百多种语言。所以这并不是对“未知语言”的空手起步,而是在提示的引导下,做出了高效泛化。尽管如此,这种能力依旧令人震撼,也再次表明数据规模能释放巨大潜力。
同时,也有人认为相关报道有夸大之嫌。AI不是“失控的天网”,它仍是建立在数据之上的工具。谷歌选择开诚布公,被视为理性之举:承认边界,能促进行业对风险的谨慎讨论,而不是盲目上线“黑箱”系统。
未来展望:机遇与挑战并存
涌现能力预示着一场技术变革,但也敲响警钟。投资者和社会各界需要警惕时间线加速带来的冲击,比如就业结构变化、伦理问题等。许多观点认为,加强AI可解释性是关键路径,例如尝试对应地梳理人工神经网络与生物神经网络的关系,探索更透明的混合式模型。
在这股浪潮中,人类更该保持清醒:AI不是替代者,而是帮手。只有把原理看得更透,我们才能把握这个“黑箱”,让它真正服务于公共福祉。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?