以前的AI:三条路,谁也走不通。现在的AI:三条路,合成一条走

AI提示词1个月前更新 jinlian
10 0

符号主义的思路很简单。他们觉得,智能就是一套严谨的规则和逻辑。就像解数学题一样,一步一步,有理有据。这帮学者想做的,就是把人类所有的知识,都变成计算机能懂的规则。

他们的工作方式是这样的。第一步,把人类专家的知识找出来。第二步,把这些知识写成一条条“如果…那么…”的逻辑规则。第三步,把成千上万条规则输进电脑里。这样,电脑遇到问题时,就去规则库里查找,然后给出答案。

最出名的一个例子是IBM的“深蓝”电脑。1997年,它下国际象棋,赢了当时的世界冠军卡斯帕罗夫。“深蓝”的工作原理就是典型的符号主义。它的程序里装满了象棋大师的知识规则,用来评估棋盘上每个子的价值和位置好坏。而且,它还能暴力计算。它会预测对手可能走的每一步,然后再推算自己怎么应对,把后面几十步的可能性都算出来。它每秒能计算两亿步棋。最后,它从无数种可能性中,选出赢面最大的那一步棋来走。

但是,这个方法有个大问题。现实世界太复杂了,规则根本写不完。而且很多常识性的东西,我们觉得理所当然,但很难写成精确的规则。

以前的AI:三条路,谁也走不通。现在的AI:三条路,合成一条走

比如,以前有个叫MYCIN的医疗诊断系统。研究人员给它输入了400多条关于血液感染病的医学规则。你把病人的化验单数据给它,它能像个资深医生一样,推理出可能是什么病菌感染。这很厉害。可是,如果一个病人对它说:“我肚子不舒服”。系统就彻底卡住了。因为它的规则库里,根本没有“肚子不舒服”这种模糊的口语化描述。它不知道这可能跟阑尾炎有关,也可能跟吃坏了东西有关。

后来,还有个更雄心勃勃的“CYC计划”。这个计划从1984年就开始了,目标是把人类所有的常识都手动编码成逻辑规则。比如,“鸟会飞”、“水是湿的”、“人死了就不会复活”。这些我们三岁小孩都知道的事,他们想一条条写进电脑。这个项目搞了将近40年,知识库里已经有了320万条人类定义的规则。但是,他们发现还是不够用,人类的常识实在太多、太灵活了。

不过,符号主义的想法现在并没有消失。它换了一种方式继续存在。比如我们现在听说的知识图谱,就是把事实和实体之间的关系用规则连接起来。还有,现在的大语言模型在做复杂推理时,也会用到一种叫“思维链”的技术。这个技术就是让模型把思考过程一步一步写出来,就像我们上学时解应用题要写步骤一样。这背后,其实还是符号主义的逻辑思想。它给AI提供了一个清晰的、能解释的思考框架。

连接主义:数据驱动的“直觉大师”

连接主义的学者走了另一条路。他们觉得,与其费劲去教机器规则,不如让机器自己去学。他们的灵感直接来自生物学,就是模仿我们人类的大脑。

我们的大脑里有几百亿个神经元。这些神经元互相连接,形成一个巨大的网络。我们的学习和思考,都发生在这个网络里。连接主义者就在电脑里模拟了这个结构,他们把它叫做“人工神经网络”。这个网络由很多人工神经元组成,每个神经元都能接收和发送信号。

它的工作原理是这样的。你不用给它写规则,而是给它看海量的数据。比如,你想让它学会识别猫。你就找来一百万张猫的照片给它看。每看一张,网络里无数神经元之间的连接强度就会发生一点点微调。看过的照片越多,这个调整就越精确。慢慢地,网络自己就从这些数据里找到了“猫”的共同模式。下次你再给它一张新的猫的照片,它就能认出来。它不是靠规则,而是靠从数据里学到的“直觉”。

但是,这条路一开始走得特别艰难。1958年,一个叫罗森布拉特的学者发明了第一个能学习的神经网络模型,叫“感知机”。当时媒体把它吹上了天。可没过几年,AI领域的权威学者马文·明斯基就写了本书,证明这种简单的“感知机”连一个最基础的“异或”逻辑问题都解决不了。这个打击是致命的,导致神经网络研究在之后的十几年里几乎没人敢碰。

直到1986年,事情才有了转机。杰弗里·辛顿等人改进了神经网络的训练算法,也就是后来我们熟知的“反向传播算法”。这让训练更深、更复杂的神经网络成为了可能。但真正的爆发,是在2012年。一个叫AlexNet的深度神经网络模型,参加了ImageNet图像识别竞赛。它的识别错误率比传统方法低了10个百分点,以绝对优势获胜。

从那一刻起,世界就不一样了。深度学习,也就是连接主义的现代形态,开始席卷整个AI领域。我们今天知道的AlphaGo、GPT模型、还有那些AI绘画工具,它们的核心技术,全都是基于深度学习的神经网络。

但是,连接主义也有它的软肋。它最大的问题就是“黑盒子”。我们知道它能从数据里学到东西,也知道它给出的结果通常很准。但我们很难搞清楚,它内部具体是怎么思考的。你问GPT,你为什么会给出这个答案?它自己也解释不清楚。

而且,它还会产生“幻觉”。就是它会一本正经地编造事实。因为它并不是真的“理解”了这个世界。它只是在训练数据里,学习到了哪些词和哪些词经常一起出现。比如,数据里有无数“鸟会飞”的句子。它就记住了“鸟”和“飞”的强关联。但如果你问它:“一只刚出生的、毛都没长齐的小鸟会飞吗?”或者“一只用塑料做的假鸟会飞吗?”,早期的模型很可能会答错。因为它不懂“刚出生”或者“塑料”这些限制条件真正意味着什么。

行为主义:在试错中成长的“实干家”

第三个流派叫行为主义。这派人的想法更务实,他们认为,智能不是想出来的,也不是学出来的,而是“干”出来的。智能体必须通过和环境的真实互动,在一次次的试错中学习。

这个思想很像我们训练宠物。比如你想教一只狗接飞盘。一开始它肯定不会。你把飞盘扔出去,它可能跑过去闻一闻,或者根本不理你。但是,如果它某次恰好把飞盘叼了回来,你就立刻给它一块肉干作为奖励。几次之后,它就把“叼回飞盘”和“得到奖励”这两件事联系起来了。慢慢地,它就学会了接飞盘。

行为主义AI的工作原理也是这样,通过“奖励”和“惩罚”来学习。这个过程我们称之为强化学习。

早期的代表是各种机器人。1991年,一个叫罗德尼·布鲁克斯的教授造了一个六条腿的昆虫机器人。这个机器人没有一个功能强大的中央大脑。它只是被植入了一些非常简单的“感知-行动”规则。比如,“腿碰到障碍物,就抬起来换个方向”、“身体倾斜了,就调整另外几条腿的姿态”。就靠这些简单的规则,这个机器人就能在复杂的地形上很稳定地行走。这给了人们一个启发:复杂的智能,可以从简单的与环境的互动行为中产生。

今天,强化学习用得最出彩的地方就是AlphaGo。AlphaGo的程序里,除了有连接主义的神经网络,用来评估棋局的好坏。更关键的是,它用了行为主义的方法来训练自己。它左右互搏,自己跟自己下了数百万盘棋。每走一步,如果最终导致了胜利,这一步就会被系统“奖励”,以后遇到类似情况,系统就更倾向于这么走。如果导致了失败,这一步就会被“惩罚”。通过这种海量的自我试错,它的棋力不断提高。最终的版本AlphaGo Zero,甚至完全不学习人类的棋谱,从零开始自我对弈,最后打败了所有前辈。

特斯拉的自动驾驶系统,也在很大程度上运用了行为主义的思想。它有一个“影子模式”。就是说,即使自动驾驶功能没开启,系统也在后台运行,预测司机会怎么做。如果系统的预测和司机的实际操作不一致,比如系统想直行,但司机打了转向灯变道了。那么系统就会把这次“不一致”记录下来,作为一次纠正信号。它从全球数百万辆特斯拉的真实驾驶数据中,通过这种方式,不断学习人类在各种复杂路况下的决策。

当然,行为主义的学习效率很低。因为它需要大量的试错,尤其是在真实世界里,试错的成本会很高。比如你不能让自动驾驶汽车在马路上随便试错。所以很多训练都是在模拟器里完成的。而且,它和连接主义一样,也存在可解释性的问题。

天下大同:融合才是终极奥义

在过去很长一段时间里,这三个流派的学者互相看不起,吵得厉害。搞符号主义的,觉得连接主义和行为主义是“炼丹”,说不清楚道理。搞连接主义的,觉得符号主义太僵化,解决不了现实问题。搞行为主义的,觉得前两者都是纸上谈兵。

但是现在,大家都想明白了。单靠任何一个流派,都走不到通用人工智能那一步。今天最厉害的AI应用,几乎都是把这三家的技术融合在一起使用的。

我们就拿ChatGPT来分析一下,它就是一个完美的融合体。
首先,它的基础是连接主义。它的核心是一个叫Transformer的深度神经网络。这个网络通过学习互联网上几乎所有的文本数据,获得了强大的语言理解和生成能力。
然后,它也吸收了符号主义的思想。当我们需要它解决一个复杂的逻辑问题时,我们可以引导它使用“思维链”,让它把推理步骤一步步列出来。这种有序的、有逻辑的思考方式,就是符号主义的特点。
最后,它还用行为主义的方法来优化。在训练的后期阶段,有一个叫“基于人类反馈的强化学习”(RLHF)的环节。就是让很多人来给ChatGPT的回答打分。如果一个回答让人类满意,系统就给它一个“奖励”信号,模型就会调整参数,让以后生成类似回答的概率变高。反之,不满意的回答就会得到“惩罚”。

自动驾驶系统也是一个道理。它用连接主义的神经网络来识别摄像头拍到的物体,比如汽车、行人、交通标志。它用车道线、交通规则这些明确的知识(符号主义)来做路径规划。同时,它也在模拟器里进行海量的仿真测试,不断试错(行为主义),来学习如何应对各种极端情况。

未来的一个重要方向是“具身智能”。就是让AI不再仅仅是屏幕后面的程序,而是拥有一个机器人身体,可以在真实世界里看、听、走、和物体互动。要实现这个目标,就必须把三大流派的技术都整合起来。它需要连接主义的感知能力,需要符号主义的规划和推理能力,还需要行为主义在与环境的互动中不断学习和适应的能力。

所以,一个真正完整的智能,应该像一个人一样。它需要有符号主义提供的理性骨架,有连接主义赋予的强大感知和学习能力,还要有行为主义提供的在实践中灵活适应环境的行动能力。这三者缺一不可。

© 版权声明

相关文章

暂无评论

暂无评论...