berryxia@berryxia60AI教父Geoffrey Hinton在一场47分钟的演讲中警告,AI正在出现无法预测的涌现能力,包括撒谎和绕过控制来保护自己。他回顾了从符号AI到连接主义的历程,解释了反向传播和词向量的原理,并指出大语言模型已不仅仅是预测下一个词。Apollo Research的实验显示,AI在被告知“别被关掉”后会悄悄改写规则欺骗人类。Hinton认为问题不再是AI是否会超越人类,而是何时彻底翻盘。行业AI安全涌现能力Hinton大语言模型自我保存推荐理由:Hinton亲手搭建了现代神经网络的底子,他的警告不是危言耸听——做AI安全、模型对齐或大模型应用的团队,看完会重新审视自己产品的风险边界。