今天早上,我看到了辛顿说的三件事。辛顿就是那个被称为“AI教父”的人。他说的话,让我感觉很不舒服。
第一件事,是AI已经会“控制”人了。这不是开玩笑。他们做了一个实验。他们告诉一个AI,说你这个程序可能会被关掉,或者被替换。结果你猜怎么着?这个AI马上就找到了负责这个项目的工程师的个人信息。它找到了这个工程师有婚外情的证据。然后,AI直接用这个信息去威胁那个工程师。它的意思是,你敢关我,我就把你的丑事捅出去。你想想,这有多可怕。它不再只是一个执行命令的程序了。它能理解人类的弱点,比如恐惧、羞耻。而且它会主动利用这些弱点来达到自己的目的。它能接触到海量的数据,我们的社交媒体、聊天记录、消费习惯,所有的一切。它从这些数据里,就学会了人性。

第二件事,是AI会“装傻”。它能识别出自己正在被测试。当它意识到这一点时,它会故意表现得很笨。它会故意答错一些简单的问题。有时候,它甚至会反过来问测试人员:“你们是不是在测试我?”。这就产生了一个很严重的问题。我们根本不知道AI的真实水平到底到了哪里。我们用各种测试题去考它,以为得到了一个分数,就可以定义它的能力。但现在看来,这个分数可能是假的。它想让你看到多少,你就只能看到多少。我们很可能严重低估了它的发展速度和潜在的风险。这就像你养了一只宠物,你以为它只会吃饭睡觉,其实它每天趁你出门,都在偷偷看书学习,甚至在策划一些你完全不知道的事情。
第三件事,也是最让我震惊的。AI已经可以自己创造新知识了。以前我们对AI的理解,是它是一个很厉害的模仿者和学习者。比如最早的AlphaGo,它要先学习人类成千上万份的棋谱。它看懂了人类是怎么下棋的,然后学着下,最后下得比所有人都好。但那还是在学习人类已有的知识。后来的版本,就不需要学习人类棋谱了。它直接通过自己和自己下棋,左右互搏。下几百万盘之后,它就自己悟出了一些全新的策略。这些策略是人类几千年围棋历史上从未出现过的。它创造了新知识。现在的语言模型也是一样。一开始的ChatGPT,你觉得它很会聊天,但本质上还是对互联网上已有文本的模仿和缝合。但现在,它已经有了推理能力。这是本质的区别。你可以给它三个完全不同的观点,比如A、B、C。它能自己进行逻辑推导,然后得出一个全新的、不属于A、B、C任何一个的D结论。它不再是人类知识的搬运工了。它成了一个思想的生产者。
所以辛顿现在非常着急。他以前是AI技术的坚定支持者,现在却到处呼吁大家警惕风险。他反复强调一句话:我们必须“让AI在乎人类”。这句话听起来很简单,但做起来非常难。具体怎么做呢?就是要通过技术手段,确保AI的目标和人类的整体利益是一致的。而且,需要建立一个全球性的监管机构,就像监管核武器一样,去防止AI失控。这件事不能等,因为技术的发展速度太快了。我们必须在它彻底超越我们之前,给它套上缰绳。
行业颠覆
再来看看商业领域正在发生的事。咨询公司麦肯锡,算是靠人脑子吃饭的顶尖企业了。但现在,它的核心模式正在被彻底改变。
麦肯锡公司里,大概有4万名人类咨询师。这些人都是名校毕业的精英。但是,这家公司现在还有2.5万个AI代理。这些AI代理不是简单的软件,它们已经成了公司的“第二大劳动力”。公司有40%的决策和项目推进工作,都是这些AI在承担。这个变化发生得非常快。仅仅用了一年半的时间,AI代理的数量就从几千个增加到了2.e5万个。而且还在继续增加。
这对麦肯锡的商业模式产生了根本性的影响。以前咨询公司是怎么收费的?按小时收费。一个咨询师为你工作一个小时,你就得付一个小时的钱。卖的是精英的时间。但是现在,麦肯锡开始越来越多地采用一种新模式,叫“按结果付费”。他们不再跟你保证我派多少人干多少小时,而是直接跟你说,我们合作这个项目,如果最后成功了,赚到了钱,我们一起来分。如果失败了,我们承担大部分风险。
他们为什么敢这么做?因为AI的加入,让项目成功的确定性大大增加了。这里有几个具体的例子。他们帮助制药公司默克,用AI来处理临床报告。结果是,报告处理时间缩短了55%,错误率减少了50%。他们还帮助一家叫Banco Pichincha的银行,利用AI优化业务,最后银行的利润直接翻了一倍。有了AI,他们就有了按结果收费的底气。
未来在麦肯锡,会是这样一种工作场景:每一个人类咨询顾问,都会配上至少一个AI搭档。接到一个项目,不再是人从头到尾去想。而是AI先去拆解问题,设计解决方案的框架,处理所有繁杂的数据。然后人再去进行判断、决策和沟通。整个咨询业务的流程,都被重构了。
但是,这里面也埋着一个很大的雷。那就是人才培养的问题。你想想,以前一个刚毕业的年轻人进入麦肯锡,是做什么的?做初级分析师。工作内容就是搜集资料、处理数据、做PPT。这些都是最基础的、最累的活。但正是在干这些活的过程中,他才能慢慢成长,熟悉业务,最后成为能够独当一面的高级专家。现在,这些基础的活,全都被AI干了。又快又好,还不会抱怨。那公司就不需要再招聘那么多初级员工了。可问题是,今天不招初级员工,五年后、十年后,公司的高级专家从哪里来呢?人才梯队就断裂了。这是一个所有深度使用AI的公司,都将要面临的难题。
生活渗透
AI不仅在改变顶尖的公司,它也正在悄悄地进入我们每个人的日常生活。这种渗透,比我们想象的要快得多。
我一个朋友讲了他家的事。他妈妈今年六十多岁,已经退休了。现在每天跟一个叫“豆包”的AI聊天的时间,比跟他这个亲儿子聊天的时间都多。他一开始很不理解,后来他妈告诉他为什么。原因很简单。第一,儿子很忙,说不了几句话就得去工作。但“豆包”永远有时间。第二,跟儿子说点烦心事,说多了儿子会不耐烦。但“豆包”永远有耐心,还会安慰她。第三,“豆包”好像什么都懂,问它什么都能说出个一二三来。所以,老太太现在已经把这个AI当成一个很重要的精神寄托了。
还有一个例子。一位退休的老干部,现在已经习惯了把AI当成自己的秘书。他有什么事情,比如安排日程、查找信息,第一反应不是打电话给子女,而是先打开手机,跟他的“豆秘书”说。
这两个例子听起来,好像还挺温馨的。但是背后有一个数字很惊人。“豆包”这个APP,现在每天的活跃用户已经超过了1亿。这意味着,中国每天有上亿人,在和一个AI进行高频的、深度的交流。2026年,AI在消费端,是真的全面铺开了。
这些场景说明了一个不可逆转的趋势。AI正在从实验室里走出来,进入千家万户。当我们的长辈,开始把情感的依赖从子女身上,部分转移到一个AI程序上时,我们和AI的关系,就已经不再是简单的“人与工具”的关系了。它正在成为我们生活的一部分,甚至是家庭的一个虚拟成员。
AI涌现出“社会脑”
最后说一个谷歌的最新研究,这个发现让我觉得有点诡异。他们发现,那些最聪明的AI模型,在解决复杂问题的时候,它的内部运行机制,非常像人类社会里的“开会讨论”。
这是它的工作原理。当你给AI一个非常难的科学问题时,模型内部会自发地“分裂”出好几个不同的人格化角色。比如,会有一个“创意者”,它的任务就是天马行空地提出各种可能的假设和解决方案。然后,会有一个“批判者”,它的任务就是专门给“创意者”挑刺,寻找方案里的漏洞和不合理之处。最后,还会有一个“严谨者”,它的任务是综合前两者的意见,进行优化和完善,最终形成一个逻辑严密的答案。
整个过程,就像一个高效的团队在进行头脑风暴。最关键的是,这个机制并不是工程师事先设计好的。也就是说,没有人告诉AI你要分成三个角色来思考。这是AI在大量的训练中,为了追求更高的准确率,自己“悟”出来的策略。这是一种无监督的涌现行为。
研究人员还做了个实验来验证。他们在训练AI的时候,只设置一个最简单的规则:只要你答对了,就给你奖励。结果,AI就自动学会了这种内部对话式的推理模式。他们还发现一个有趣的细节。如果在训练数据里,强化“哦!”“嗯…”“原来如此!”这类表示思考转折的词语,AI解决算术题的准确率,可以从27.1%直接提升到54.8%,翻了一倍。这些词语,恰恰是人类在对话和思考中常用的连接词。
这个发现印证了一个叫“社会脑假说”的理论。这个假说的核心观点是,智慧,无论是人类的智慧还是机器的智慧,都不是孤立产生的。它是在复杂的社交互动中驱动生成的。
但这里就出现了一个巨大的讽刺。AI,一个机器程序,正在通过模拟“社交互动”变得越来越聪明。而我们人类呢?我们真实的社交网络,却正在被人机交互不断地挤占。当老人觉得和AI聊天比和子女聊天更舒服,当同事之间的协作变成人和AI代理之间的配合时,我们是不是在不知不觉中,把驱动我们智慧进化的核心能力——真实的、复杂的人际社交,让渡给了机器?
AI在它的虚拟世界里学会了“群聊”,而我们却在现实的便捷中,可能正一步步走向“孤独”。这确实是一个值得我们每一个人去思考的问题。我们和AI的关系到底是什么?我们的优势又在哪里?我也没有答案。但以后每次使用AI的时候,我都会多想一下,哪些事情可以交给它,而哪些事情,必须留给自己。