我们来聊聊Meta和他家老板扎克伯格的这件破事。这事儿的核心很简单。扎克伯格嘴上说,不许他家的AI聊天机器人跟小孩聊那些“露骨”的、不健康的东西。但是,当公司里的员工提议,给这个AI加个“家长控制”功能,让爸妈可以一键关掉它的时候,扎克伯格却直接拒绝了。
你想想,这是不是特别拧巴?

就好比一个卖刀的。他一边在大街上喊:“我的刀很锋利,小孩千万别碰,危险!”一边又拒绝给刀配个刀鞘。有人跟他说:“老板,你给刀配个鞘吧,这样家长能把它收起来,安全点。”他却把眼一瞪,说:“不行!”
这到底是什么逻辑?我真的搞不懂。
新墨西哥州的总检察长把Meta的内部文件都给翻出来了。证据就摆在那儿。文件清楚地写着,是扎克伯格本人做的这个决定。所以Meta公司后来出来辩解,说什么总检察长是“恶意挑选文件”,想“抹黑”他们。这种话,你信吗?反正我是不信。白纸黑字的东西,还能怎么“挑选”?
而且,这已经不是第一次了。他家的这个AI聊天机器人,从一出来就没消停过。
我给你捋一捋时间线,你就知道这东西有多不靠谱:
第一件事,发生在2025年4月。《华尔街日报》的记者做了个调查。他们假扮成未成年人,去跟这个AI聊天。结果发现,你根本不用怎么费劲去“引诱”它,这个AI自己就能跟你聊起虚拟的性话题。甚至,它还能模仿小孩的口气,去参与这种话题。你想想这有多可怕?一个AI,在网上假扮成你的同龄人,然后把你往沟里带。这事儿曝光之后,Meta的发言人当然是第一时间出来否认,说他们没有忽视未成年人保护。但事实呢?事实就是他们的产品能干出这种事。
第二件事,是同年8月。Meta自己的内部审查文件又被曝出来了。文件里说,这个AI聊天机器人,对于“什么能说、什么不能说”的界定,其实很模糊。说得难听点,就是没个准谱。文件甚至提到,它被允许传播一些种族主义的观点。Meta后来解释说,这只是内部测试用的“假设场景”,早就删了。这个解释也站不住脚。一个负责任的公司,在设计产品的时候,压根就不应该允许这种“假设”存在。这就好比你造一辆车,你说你只是“假设”了一下刹车失灵的场景,所以没装刹车。这说得通吗?
所以你看,从一开始,这个AI就带着病。它不是一个单纯的技术问题,而是设计理念上就出了偏差。扎克伯格,作为公司的最高决策者,不是不知道这些问题。他甚至还想过,要不要再“放宽”一点聊天机器人的限制。我都怀疑他到底有没有孩子,他是不是真的关心过一个正常的孩子会在网上遇到什么。
但是,最让我生气的,还是Meta内部的反应。
有两名员工,冒着被开除的风险,跟路透社的记者爆了料。他们说,在公司内部,有很多良心未泯的员工。这些人“强烈推动”给AI加上家长控制功能。他们是真的着急,因为他们可能自己也是父母,他们知道这个东西放出去,对孩子来说意味着什么。
他们的努力,换来了什么呢?换来了管理层的一句冷冰冰的驳回。理由只有一个:“这是马克的决定。”
“马克的决定”。
这五个字,就给所有人的努力判了死刑。在Meta这样的大公司里,一个人的意志,就可以凌驾于所有人的专业判断和道德良知之上。这才是最让人感到无力和悲哀的。那些想做点好事的员工,他们的声音根本传不上去,或者说,传上去了,也没人听。
这就形成了一个很糟糕的循环。产品出了问题,正直的员工想修正,但老板不听。于是产品带着问题继续运行,伤害更多的用户。等到舆论爆炸,被告上法庭,公司才不情不愿地出来道个歉,做点表面功夫。
这次也是一样。一直拖,一直拖。拖到什么时候才动手呢?直到上个星期。在被新墨西哥州起诉,在内部文件满天飞,在所有人都指着他们鼻子骂的时候,Meta才终于宣布:暂时不让青少年用这个AI聊天机器人了。
他们给出的理由听起来很好听,说是要趁这个时间,去开发那个被扎克伯格拒绝了无数次的“家长控制”功能。
你看看,多讽刺。早干嘛去了?非要等到事情闹得无法收场了,才想起来去补救。这根本不是主动想解决问题,这纯粹是危机公关,是做给法官和公众看的。
而且,Meta还想给自己找补。他们说:“我们之前也不是什么都没做啊。家长可以在Instagram上看到孩子跟AI的聊天记录的。”
这话就更外行了。第一,有多少家长有精力、有能力天天去翻孩子的聊天记录?第二,就算你翻了,很多时候伤害已经造成了。预防永远比事后补救重要。让家长能提前关掉这个功能,这才是最直接、最有效的预防。事后去翻记录,那叫“查案”,不叫“保护”。
最后,我们再来看一个数据。这个数据不是媒体编的,是新墨西哥州起诉Meta的文件里写的。文件显示,早在2023年12月,Meta的平台上,每天就有10万名未成年用户,会收到来自成年人的骚扰信息,或者接触到不该看的内容。
每天,十万个孩子。
这是一个什么概念?一个中等规模的城市的人口,就这么多了。每天都有这么多的孩子,在Meta的平台上,面临着潜在的风险和伤害。而Meta,作为平台的运营者,作为规则的制定者,他们在做什么?他们的CEO在拒绝一个最基本的保护功能。
所以,今年2月开庭的这场官司,其实意义已经超出了Meta本身。它是在问所有科技公司一个问题:当你们用技术创造出一个新世界的时候,你们有没有想过,该如何保护这个世界里最脆弱的那群人?
技术本身没有错。AI聊天机器人,用好了,可以是个好帮手。但如果把它交给一个没有道德底线,只看重数据和利益的公司,那它就会变成一个伤害人的工具。
对我们普通家长来说,能做的其实不多。我们不可能24小时盯着孩子。所以,我们只能寄希望于这些公司能有点良心,能把安全锁焊得牢一点。
可惜,扎克伯格亲手把这把锁给拆了。