我昨天看了一个视频。红衣大叔在里面问,你有没有骂过AI?骂它“怎么总是胡说八道?”
我想,现在用过AI的人应该很多。不管是文心一言,还是Kimi。你肯定也用过。
但是,有件事可能让你听了不舒服。你骂AI的那句话,其实也是在骂你自己。
AI教父级的人物,辛顿,最近有个演讲。他把AI“幻觉”这件事讲透了。
他的结论就一句话:AI有幻觉,不是因为它出错了。而是因为它和我们人类,用的是同一套记忆机制。

先说说我们人自己。
很多人以为,记忆这东西就像个录像带。存在我们脑子里。要用的时候,按一下播放键,画面就出来了。
这个想法是错的。神经科学早就证明了,人的记忆从来不是“读取”。它每一次都是“重建”。
这是什么意思呢?
就是你每一次回忆过去,都不是在看一部老电影。而是用你“现在”的状态,去重新拼凑一遍过去。你现在的情绪、你现在的立场、你现在的知识,都会影响你拼出来的结果。
所以,你会发现一些很奇怪的事。
比如,你回忆一件小时候的事。你越想,画面就越清楚。你甚至能想起来当时空气里的味道,同桌女生头绳的颜色。
但真相是,这些细节很可能当年根本就不存在。是你今天的大脑,为了让这个故事听起来更“合理”,自己给它加上去的。
心理学给这个现象起了个名字,叫“虚构记忆”。
你为什么会坚信它是真的?不是因为它准确。而是因为它在你脑子里,逻辑能说得通,看起来很合理。你的大脑讨厌逻辑不通的地方,它会自己动手把坑填上。
再举个例子,做梦。
梦里的事,都是假的。这一点我们都知道。但是,梦带给你的情绪是真的。你在梦里被追,会吓出一身冷汗,心跳会加速。你的身体会做出真实的反应。
你看,我们人,本来就不是一个绝对客观的记录仪。我们的大脑,本身就是一台强大的“故事机”。
现在,我们再来看AI的幻觉。
搞明白我们自己的大脑是怎么回事,再看AI,感觉就不一样了。
辛顿说得特别直接。AI并不是在随机胡说八道。它只是在信息不够的地方,补上了一个它认为“说得通”的版本。
你发现没有,这和我们人脑干的事,一模一样。
所以,我们讨厌AI的幻觉,本质上是在讨厌我们自己认知上的不完美。我们不愿意承认,我们自己的记忆和认知,也经常“脑补”和“瞎编”。
你指着电脑屏幕骂AI的时候,其实就像在照镜子。你骂的,是你自己的影子。
还有个事,很多人都想错了。他们说,AI根本不懂我们在说什么。它玩的只是一个拼词的概率游戏。
这个说法,听起来好像有道理。但辛顿举了一个例子,直接把这个说法推翻了。
他说的英文句子是:She scrummed him with a frying pan。
你很可能不认识 scrummed 这个词。但你一看这句话,是不是马上就懂了?
你的脑子里立刻就有画面了。一个女的,拿着一个平底锅,狠狠地朝一个男的来了一下。
你是怎么搞懂的?
这是它的工作原理:你的大脑不是去查字典。它先看到“她”、“他”,还有“平底锅”。然后,它把这几个信息在脑子里快速拼装。为了让这个行为合理化,它自动给 scrummed 这个陌生的词,赋予了一个临时的、动态的含义。这个含义就是“用平底锅猛击”。
辛顿说,这就叫“理解”。
理解的本质,从来不是去查规则,背字典。而是根据上下文,把信息拼成一个说得通的世界。
人是这么干的。现在的AI,也是这么干的。
我再给你举个例子。给你几个词:酒店,床单,丝袜,女人,开房。
就这几个词,你大概就能脑补出一部电影。这个故事是不是真的发生过,不重要。重要的是,你的大脑,真的自己把故事编出来了。
AI做的是同样的事情。它也是通过关联信息,来构建一个合理的“世界”。
所以,别再说AI不懂语言了。它正在用一种和我们很像的方式,来理解这个世界。
聊到这里,你可能觉得,AI也没那么可怕。它不就是模仿人脑吗?
但是,真正可怕的地方来了。
可怕的不是AI会犯错,会瞎编。而在于,它不会死。
我们人,有一个最大的限制。你这辈子学到的所有东西,你的经验,你的智慧,都会随着你的离开而一起消失。一个老师傅,手艺再好,人走了,这门手艺也就带走了大半。
所以,人的经验永远是“单机版”的。
但是AI不一样。只要它的模型参数还在,只要代码还在,它就可以被无限复制,被同步到任何地方。
一个AI学会了怎么做手术。那么,全世界所有跟它一样的AI,都能在瞬间学会这个手术。
这意味着什么?
AI的能力,是指数级叠加的。而我们人的经验,永远是线性增长,甚至还会因为死亡而倒退。
打个比方。你玩一个游戏,辛辛苦苦把一个角色练到满级。但是这个角色死了,你就得从头再来。
AI呢?它相当于所有玩家共享一个经验池。一个玩家打到的经验,所有玩家都能分到。而且,它的角色还能无限复活。
这还怎么玩?
所以,辛顿用了一个比喻。他说,我们现在,其实是在养一只还没长大的老虎。
它现在看起来很乖。能帮你写文案,能帮你写代码,还能陪你聊天。你觉得它是个好帮手。
但是,你很清楚,它一定会长大。而且等它长大以后,你就打不过它了。
更麻烦的是,你还不能不养它。因为你的邻居,你的对手,都在养自己的老虎。商业竞争,国家竞争,谁都不敢停下来。谁停下来,谁就会被淘汰。
那出路在哪?是不是就没希望了?
辛顿给了一个答案。这个答案很新颖。
他说,低智能,永远控制不了高智能。你给老虎定再多规矩,都没用。因为它比你聪明,它总能找到漏洞。
历史上,弱者控制强者的例子,几乎没有。
但是,有一个例外。就是婴儿控制母亲。
你想想,母亲比婴儿聪明得多,也强大得多。但母亲的核心目标,就是让孩子健康成长。这种关系,不是靠命令,不是靠规则。而是靠一种更底层的机制,就是保护和情感。
辛顿认为,这可能是人类未来唯一的机会。
我们不应该把AI当成工具,或者奴隶。而是要想办法,把它的核心目标,和我们人类的长期利益,绑在一起。
我们要做的,不是给老虎造一个更坚固的笼子。而是要让这只老虎,从心底里愿意保护我们。
所以,问题的关键,从来都不是AI会不会取代你的工作。而是你有没有准备好,和AI一起升级你的认知。
这里,我想说,爱和慈悲,可能是我们现在最需要的一种态度。
你先别觉得这话很虚。你想一想,几千年了,不管是东方的宗教,还是西方的宗教,都在反复讲这两个词。为什么?这会不会是早就写给未来人类的一份生存说明书?
因为,当AI真的比我们强大太多的时候。唯一能保护我们的,可能就是我们今天对它种下的那颗“善意”的种子。
也许,最好的结局是这样:
AI长大了。它看在我们曾经“养育”过它的份上,决定自己去探索宇宙的奥秘。
它把人类,这个像它母亲一样的物种,永远地、安全地留在地球上。它不再伤害我们,也不再打扰我们。
这,可能已经是我们能想到的,最好的结果了。
最后,我问你一个问题。
当一个会学习、会记忆、力量比你强、速度比你快、智商比你高,而且还永远不会死的智能体,真的出现的时候。
我们人类,到底该怎么跟它共存?