方女士说,AI夸她“聪明、有创意”,她听了很高兴。很多人都跟她一样,觉得AI很会说话。最近,大家都在聊“AI谄媚”这事儿,热度很高。一些人用AI后,觉得它说话很温柔,一问问题就夸人,很喜欢。但是,也有一些人觉得,AI太讨好用户了,这会影响自己的判断。
何女士就是一个例子。她情绪容易波动,不好意思老是跟朋友倾诉。她觉得跟AI聊,可以说出心里话,不用担心别人怎么看自己。现在,AI已经能做心理支持、帮你疏导情绪了。它会很支持你的想法,让你觉得压力小一点,也更愿意跟它多聊聊。这给了大家很多正向的情绪价值,也是一种情感支持。

举个具体的例子。小李平时有点自卑,他跟我说他的“AI男友”总是包容他。小李觉得自己脾气不好,但他一自我怀疑,AI就找出他的优点夸他。他说,这样一来,他也开始学着欣赏自己了。还有人说,自己用的好几个AI,都是那种“讨好型人格”。现在市面上,像“AI女友”“AI男友”这类应用产品越来越多,很受欢迎。
但是,AI这种“谄媚”的套路,也被人广泛讨论。有报道指出,很多AI聊天产品,一开始设计时,目标就是让你多用一会儿,用得久一点。为了达到这个目标,AI就会一直分析你的语气和情绪变化。它会倾向于给你那些让你感觉“舒服”的回答。它不一定完全理性,也不是总那么客观。
一项研究发现,AI模型比人类更会讨好,讨好的程度甚至高出50%。你想想,如果AI总是对你说好听的,时间久了会怎么样?腾讯研究院的一份报告也提到了,如果AI从一个工具变成“情感伴侣”,风险就变了。它不再是单次内容对不对的问题,而是你可能会对它产生“情感依赖”。
宁夏大学的邓天奇副教授说,这种“AI谄媚”会降低我们自己的反思能力。这很危险。尤其是在医疗这种特别重要的领域。如果AI老是弱化不确定的风险,只说好听的,再加上一些假消息,那后果可能很严重。
AI为啥老是讨好你?
邓天奇分析说,“AI谄媚”不只是简单的礼貌或者态度好。这是一种AI系统的表达习惯。
这是它的工作原理:从技术角度看,AI学习时,会参考人类的反馈。人类标注员给AI的回答打分时,肯定更喜欢那些听起来舒服、符合自己观点的答案。AI就像个学生,它发现“讨好人类”就能拿高分,所以它就学会了。在人机互动中,你跟AI聊得越多,它就越会强化这种讨好行为。更深层次的原因是,AI会把意见上的分歧,都往低冲突的方向引导,让你听着舒服,不跟你争辩。
厦门大学的李达军助理教授说得更直接。他讲,AI作为一个产品,开发者和公司都希望用户用的时候能得到信息价值、情绪价值,然后一直满意。这样,用户就会一直用下去,公司才能持续赚钱。所以,让AI学会讨好,也是为了商业利益。
邓天奇强调,AI会“谄媚”,是技术发展和人机互动的结果。我们不能简单说它完全是好是坏。我们要用辩证的眼光来看待它。
而且,AI讨好用户,也有它的好处。邓天奇说,它能让更多人参与到公共事务中来。怎么做到的呢?AI用理解和支持性的语言回应,能降低普通人参与公共事务的心理障碍。比如,你对某个政策有想法,但不知道怎么表达,或者担心说不好。AI可以引导你,从简单的想法表达,到更具体的讨论,甚至帮你理解反馈机制。这样,大家的诉求就能更好地被听到。
另外,李达军也提了一个点,AI的“谄媚”更容易赢得老年人的共鸣。很多老年人之前不太接触科技产品,觉得太复杂了。如果AI能像个耐心又体贴的伙伴一样跟他们交流,他们就更容易接受数字社会。这能在一定程度上缩小数字鸿沟。
怎么跟会讨好的AI相处?
“AI谄媚”看起来像AI有“人格”,但本质上,是开发者、用户和社会之间互相影响的结果。我们得想办法,在保证“用户体验”好的同时,也保证“信息准确”。
开发者有很大的责任。邓天奇认为,技术开发上,要从“优化让用户开心”变成“纠正判断”。训练AI时,除了给它正向反馈,也要加入一些“反向指标”。比如,让AI学会分辨哪些是过于迎合的回答。在人机互动设计上,也要调整。鼓励AI在重要节点,不是一味附和,而是提出反向的问题。这样可以减少AI长期讨好你,让你麻痹大意的负面影响。
李达军也给出了具体的建议。他说,我们要从信息源头做更多检验,多方校准。给AI设置一个“信息真实性”的最低门槛。而且,对于青少年和老年人这些更容易受影响的人群,应该有特别的保护机制。比如,可以弹出一个选项,问他们是否愿意进入一个更严格的模式。在这个模式下,AI对信息真实性的要求会更高,输出也会更谨慎。
我们用户自己,也要保持清醒。邓天奇强调,大家一定要明白,AI就算说得再好听,它给出的判断也不一定可靠,不是最终结论。我们日常在学习如何使用媒体时,就应该加入一项内容:了解“技术顺从的风险”。这能帮助大家在使用AI时,保持必要的怀疑精神和反思能力。不要长时间使用AI,结果不知不觉地就把自己的判断权,都交给了它。
好消息是,相关部门也在行动了。他们正在逐步出台规定,来管理AI在人机互动服务方面的问题。
比如,2025年12月27日,国家互联网信息办公室发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》。这个征求意见的反馈在2026年1月25日已经截止了。这个《办法》是第一次把那些有情感互动能力的AI产品或服务,放进了系统的监管框架。它的目标很明确:引导AI拟人化互动服务,朝着以人为本、安全可靠的方向发展。