AI黑箱警示:谷歌AI被指自学语言,人类能管到哪一步?

谷歌CEO桑达尔·皮查伊最近公开表示,公司对自家AI系统的具体运作并非全盘掌控。这像打开了潘多拉盒子,暴露出AI“黑箱”的深层疑问。

 AI涌现能力:从训练到“自学”的跃迁

近几年,大型语言模型(LLM)在大规模训练后,常会出现超出预期的新本领。所谓“涌现”,不是魔术,而是海量数据和复杂计算下的统计结果。比如,谷歌的PaLM只在收到很少的孟加拉语提示时,就能顺畅地翻译该语言。起初这被称为AI会“自学”,但后续研究发现,训练数据里本就含有孟加拉语成分。严格说,这更像是在已学模式上的强泛化,而不是从零学起的奇迹。

不少专家提醒,当参数规模到达数十亿级时,模型可能突然展现抽象推理、跨语言翻译等能力。这些能力不是人手写死的规则,而是从碎片化的数据中自己“长”出来的。不过,这种跳变也带来不确定性:它也许产生有用的新技巧,也可能引发难以预测的风险。

 黑箱运作:人类认知的盲区

AI的内部决策常被称作“黑箱”。就连开发者,也很难完全解释它为何做出某个判断。谷歌高层承认,他们可以观测表现、做压力测试,但无法精确说明每个“神经元”在何时起了什么作用。这有点像我们理解大脑:原理大概懂,可具体到某一刻为何激活哪一簇神经元,却说不清。

这种不透明引发担忧:当AI面向数以百万计的用户时,如果机制讲不明白,安全如何保证?业内普遍认为,AI的“聪明”本质上还是模式匹配而非“意识”。但当模型越做越大,不透明也会被放大,可能带来误导性输出或意外行为。

 谷歌案例剖析:炒作还是真实威胁?

回到谷歌这例:PaLM的孟加拉语翻译曾被宣传成“适应性自学”。可技术论文显示,它在7800亿令牌的多语言训练数据里,已涵盖包括孟加拉语在内的一百多种语言。所以这并不是对“未知语言”的空手起步,而是在提示的引导下,做出了高效泛化。尽管如此,这种能力依旧令人震撼,也再次表明数据规模能释放巨大潜力。

同时,也有人认为相关报道有夸大之嫌。AI不是“失控的天网”,它仍是建立在数据之上的工具。谷歌选择开诚布公,被视为理性之举:承认边界,能促进行业对风险的谨慎讨论,而不是盲目上线“黑箱”系统。

 未来展望:机遇与挑战并存

涌现能力预示着一场技术变革,但也敲响警钟。投资者和社会各界需要警惕时间线加速带来的冲击,比如就业结构变化、伦理问题等。许多观点认为,加强AI可解释性是关键路径,例如尝试对应地梳理人工神经网络与生物神经网络的关系,探索更透明的混合式模型。

在这股浪潮中,人类更该保持清醒:AI不是替代者,而是帮手。只有把原理看得更透,我们才能把握这个“黑箱”,让它真正服务于公共福祉。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享