我以前是搞社会心理学的。就是研究人为什么会这么想,那么做。我的博士研究方向是道德判断,听起来就挺传统的。但是后来,我发现AI这个东西越来越火。而且,它不只是个技术工具,它开始影响社会,影响每个人的生活。我就想,我学的心理学,能不能用在这上面?能不能解决点实际问题?
这个转变,最难的是脑子要换个想法。以前我们做心理学研究,总要先找个理论。比如“认知失调理论”,然后设计个实验去验证它。我们叫这个理论驱动。你做的所有事,都是为了给这个理论添砖加瓦。但是,搞AI的跨学科研究,路子反过来了。你要先去看现实世界。AI现在出了什么问题?大家在担心什么?媒体在吵什么?这个叫现实驱动。
你得不停地问自己,我这个研究做出来,除了我们心理学圈子的人,还有谁会关心?搞计算机的人能看懂吗?他们能从里面学到什么?政府部门制定政策的时候,能参考一下我的意见吗?哪怕只有一句话。如果答案是不能,那这个研究的影响力就小了。在那些跨学科的顶级期刊上,审稿人就特别看重这个。他们想知道你的研究有什么用,能不能真的改变点什么。

跨学科研究的两种核心方法论
具体怎么做呢?我主要走两条路。
第一条路,是从现实问题出发。我给你举个例子,就是我们发在《自然·通讯》上的那个关于福利分配的研究。当时,我们注意到一个事。欧美很多国家的政府,想用AI系统来分发社会福利。比如失业救济金、低保什么的。政府觉得这样效率高,还能防作弊。但是,那些真正需要申请福利的人,心里很害怕。他们担心AI系统有偏见,或者搞错了,那他们的生活就完蛋了。你看,这就是一个很具体的矛盾。
我们没有先去找什么“社会公平理论”。我们就抓住了这个矛盾本身。政府和政策制定者最关心一个权衡:速度和准确性。如果AI决策很快,但可能会出错,大家能不能接受?我们就围绕这个问题设计了研究。我们没找大学生来做实验,我们直接在网上找到了几百个正在申请福利的美国人,还有几百个不申请福利的普通纳arik>纳税人。
我们问他们,如果AI系统审批福利的速度能从几周缩短到几分钟,但是准确率会从100%下降到95%,你接受吗?结果很有意思。那些不申请福利的纳税人,大部分都觉得可以接受。他们觉得效率更重要。但是,那些真正申请福利的人,大部分都不能接受。对他们来说,5%的错误率,可能就是一个月没饭吃。
这个研究的结果说明了一个很直接的问题。在福利分配这件事上,主流群体(纳税人)的想法,根本不能代表边缘群体(申请者)的想法。所以,我们给政策制定者的建议就很清楚:你们在设计和使用这种AI系统的时候,必须直接去问福利申请者的意见,让他们参与进来。你不能想当然地觉得,这对大多数人好,就是对的。这个研究,就是一个典型的从现实问题出发的例子。
第二条路,是往“近未来”看。现在技术发展太快了。比如ChatGPT出来以后,你再去研究AI机器人像不像人,这个意义就不大了。因为它们已经很像人了。你要想的是,下一步会发生什么?当AI真的能独立工作,能当医生、当律师、当客服的时候,人类社会会变成什么样?我们要怎么和它们相处?
我们在2021年就开始做这方面的研究了。那时候ChatGPT还没这么火。我们当时在想,当AI开始扮演不同的社会角色时,人类对它的接受度会不会也不一样?我们提出了一个“角色匹配”的假设。意思是说,如果AI的表现,符合我们对它所扮演的那个角色的期待,我们可能就没那么害怕它了。
举个例子。如果一个AI是会计,我们希望它绝对精确、一丝不苟。如果它表现得很“人性化”,很多愁善感,你可能反而觉得它不靠谱。但如果一个AI是心理咨询师,我们可能就希望它温暖、有同理心。如果它像个机器一样冷冰冰,你肯定不想跟它说话。
为了验证这个想法,我们做了一个大规模的跨文化研究,覆盖了20个国家。我们发现,在大部分国家,这个“角色匹配效应”都存在。当AI的行为符合角色预期时,人们的接受度确实会更高。但是,有个例外,就是在中国。这个模型在中国的解释力不强。这就给我们提出了一个新问题:为什么会这样?是不是中国的文化、社会结构,或者人们对AI的看法,有什么特别之处?这背后,可能就藏着一个新的理论。这就是一个着眼于未来的研究思路。
跨学科顶刊发表的实用策略
想把文章发到《自然》这种级别的期刊,思路要变。
第一,选刊的策略不一样。传统的心理学顶刊,特别看重理论。你的文章一定要有一个很强、很新的理论贡献。但是,《自然》和它的子刊这种跨学科期刊,对理论的要求没那么高。它们更关心你的研究有什么实际影响,能引起多大范围的关注。你的读者不只是心理学家,还有可能是生物学家、计算机科学家、医生、政策顾问。你得让这些不同背景的人,都能看明白你的研究,并且觉得“这个事有意思,对我有启发”。
第二,我拿我们投《自然·通讯》的经验说说。我们是2024年5月投的稿。7月份收到第一轮审稿意见。审稿人提了很多问题,还要求我们补充一个实验。我们花了大半年时间,认认真真地补了实验,修改了论文。到2025年2月才把修改稿交回去。之后又改了一轮,最后才被接收。整个过程差不多一年。
这里面最难的一关,其实是第一关,叫“desk rejection”。就是投稿之后,文章到编辑手里。编辑如果觉得你的研究不够重要,或者不够有趣,或者读者面太窄,他就会直接拒稿。文章连被送出去给专家审稿的机会都没有。所以,你的研究故事一定要讲得足够吸引人。一旦文章被送审了,机会就大很多了。
第三,修改文章的策略也不一样。跨学科期刊的审稿人背景很多元。你可能会碰到一个做田野调查的社会学家。他会质疑你,说你研究的那个“现实问题”,是不是你凭空想象出来的?现实世界里真的有人在乎这个吗?这时候,你就得拿出证据,比如政府报告、媒体文章,来证明这个问题的真实性。你也可能会碰到一个在科技公司做产品经理的审稿人。他会问你,你的研究结果,对我们公司开发产品有什么用?我们应该怎么调整产品的指标?你得能用他们听得懂的语言,给出具体的建议。
给研究者的具体建议
如果你也想做这方面的研究,我有一些具体的建议。
第一,去哪里找信息和灵感?别老看心理学的期刊了。我推荐你去看一些专业的科技媒体,比如《麻省理工科技评论》(MIT Technology Review),还有国内的“机器之心”。这些媒体报道的都是最前沿的技术和争议。另外,要去参加一些跨学科的学术会议,比如AIES(人工智能、伦理与社会会议)和ACM CHI(人机交互顶会)。在这些会上,你能听到计算机科学家、法学家、哲学家在讨论什么,能给你很多启发。
第二,怎么找人合作?搞跨学科研究,单打独斗肯定不行。你得找计算机科学家合作。但是,不同学科的考核标准不一样。比如,计算机领域很看重会议论文。而心理学看重期刊论文。怎么办呢?可以试试“非存档发表”的策略。具体操作是:先把研究的核心想法和初步结果,写成一篇简短的摘要,投到计算机的顶级会议上。这种摘要不算正式发表。这样,你的合作者就有了会议成果,可以写进简历里。然后,你们再把完整的、详细的研究报告,写成一篇正式的论文,投到心理学或者跨学科的期刊上。这样两边都满意,合作就顺畅多了。
第三,研究方法需要升级。我们心理学研究,很多时候是在实验室里做情境实验。比如给被试看一段文字,或者一个视频,然后问他们一些问题。这种方法在AI研究里也能用,但不够了。如果你想让你的研究更有说服力,我建议你去做真实的人机互动研究。就是让真实的用户,去使用一个真正的AI系统。然后你在一旁观察、记录、访谈。这样得到的数据,比在实验室里想象的要生动、真实得多。
第四,职业发展怎么规划?如果你是管理学背景,你可以关注一些很落地的问题。比如,现在很多公司用AI来筛选简历、面试员工。这里面就有很多关于公平、偏见的问题可以研究。如果你是心理学背景,我觉得可以更大胆一点,去探索一些更前沿的领域,比如数字人、数字孪生。当每个人都有一个自己的数字分身时,我们的自我认知、人际关系会发生什么变化?这些都是心理学家可以大展拳脚的地方。
跨学科研究的挑战与应对
当然,做这种研究也不容易,有很多挑战。
首先,理论不好搬运。我们心理学里有很多经典的理论,比如“信任理论”。但是,人和人之间的信任,跟人和AI之间的信任,是一回事吗?AI没有感情,没有动机,它只是执行代码。所以,很多老理论拿到AI这个新场景里,可能就不管用了,甚至会误导你。你需要重新思考和建立新的理论。
其次,研究方法需要创新。传统心理学的实验范式,是把变量控制得干干净净。但在真实的人机互动里,充满了各种不可控的因素。你需要学习和发展一些新的研究方法。可能要学点数据挖掘,分析用户的后台行为数据。也可能要做点民族志研究,像人类学家一样,长期“潜伏”在一个社区里,观察人们怎么使用AI。
最后,不同学科的人说话方式不一样。这个挑战很大。你跟一个计算机科学家,可能聊半天都聊不到一块去。你说的“效度”,他可能不明白。他说的“过拟合”,你也听不懂。这需要很多耐心去磨合,去学习对方的语言。你需要找到一种大家都能理解的表达方式,才能把合作进行下去。
前景展望
说了这么多挑战,但我觉得,AI和行为科学的交叉研究,机会还是很多的。
这个领域最大的一个特点是,它永远在变化。因为AI技术本身在不停地发展。今天我们还在讨论ChatGPT,明天可能就有新的东西出来了。技术变了,人跟AI的关系也跟着变。这就意味着,永远有新的研究问题等着我们去发现。
比如,以前我们讨论AI的偏见,可能更多的是指算法对特定人群的歧视。但现在有了生成式AI,我们可能就要讨论,AI生成的内容,会不会固化甚至加剧社会上的刻板印象?同一个问题,在新的技术背景下,就有了新的研究意义。
所以,我觉得对于我们这些研究“人”的学者来说,这是一个很好的时代。我们有机会走出实验室,去面对一个更真实、更复杂的世界。这个过程肯定会很难,但也能做出更有价值的研究。如果你对这个领域有兴趣,现在就是开始的最好时机。