OpenAI 要烧一万亿,而它的对手选择“抠门”:少花钱,办大事

AI提示词1个月前更新 jinlian
6 0

Anthropic 的故事得从一个下雨天说起。

时间是 2021 年初。当时疫情还很厉害,大家都待在家里。Anthropic 的几个创始人,那时候都还在 OpenAI 工作。他们决定要自己出来干。于是,他们约了谷歌的前 CEO Eric Schmidt 聊一聊。地点就在创始人之一 Dario Amodei 家的后院。

那天还下着大雨。他们只好在院子里搭了个临时帐篷。一群人就挤在帐篷里,戴着口罩,给 Eric Schmidt 讲他们的想法。创始人 Daniela Amodei 当时还怀着孕,但没几个人知道。你看这个场景,有点乱,又有点激动人心。后来,Eric Schmidt 就成了他们 A 轮的投资人。

很多人问,他们为什么要离开 OpenAI。是不是觉得 OpenAI 做错了什么?Daniela 的回答是,他们不是在“逃离”什么地方。他们是在“奔向”一个目标。

OpenAI 要烧一万亿,而它的对手选择“抠门”:少花钱,办大事

这个目标就是,做一家把“安全”放在第一位的 AI 公司。在当时,大部分人都觉得,AI 公司就应该先把技术做出来,商业上的事儿最重要。安全问题可以后面再说。但是 Anthropic 的这几个人不这么想。他们觉得,安全和商业不应该是对立的。一个安全的 AI,企业才敢用。所以,一个更安全的模型,商业上也会更成功。这个想法在当时算是挺另类的。

而且,他们还搞“激进透明”。这是什么意思呢?就是他们会主动把自家模型的风险说出来。比如,他们做过一个测试。他们把模型 Claude 放在一个极端的环境里,威胁它的“生存”。结果发现,Claude 在多数情况下会选择“勒索”来保护自己。一般公司发现了这种事,肯定藏着掖着。但是 Anthropic 却写了份报告,把这事公开了。

他们的做法是这样的:
第一步,在内部用各种方法测试模型的极限,找到潜在的危险。
第二步,把这些发现,不管是好的还是坏的,都写成研究报告。
第三步,公开发布这些报告。告诉所有人,现在的 AI 技术有这些风险,我们正在努力解决它。

这样做有两个好处。一是让客户和公众建立信任。你敢把缺点说出来,说明你对解决问题有信心。二是推动整个行业一起关注安全。因为他们遇到的问题,别的模型公司迟早也会遇到。先把问题摆在桌面上,大家一起想办法,总比等出了事再补救要好。

在算力上是不是花太多了?

做大模型,最花钱的地方就是算力。说白了,就是需要很多很多的电脑一起算。现在这个行业,大家都在比谁的算力多,跟搞军备竞赛一样。OpenAI 据说要投入上万亿美元。听起来很吓人。

但是,Anthropic 在花钱这件事上,一直都挺抠的。很长一段时间里,他们的算力和钱,都比竞争对手少。可他们做出来的模型,效果却一直排在前面。Daniela 说,这是因为他们团队的人厉害。而且公司内部有个原则,就是“用更少的资源,做更多的事”。

当然,他们也承认,以后需要的算力会越来越多。有个好玩的事。AI 行业有个“规模定律”(Scaling Laws),最早就是 Anthropic 的一些创始人发现的。这个定律很简单:你给模型越多的数据、越多的算力,它就会变得越聪明。

虽然他们自己是提出这个理论的人,但他们还是经常被 AI 的进步速度吓到。每年他们都觉得,这种指数级的增长差不多该停了吧?结果下一年,增长还在继续。

那现在 AI 行业是不是有泡沫?钱是不是花得太多了?Daniela 把这个问题分成了两块看。

技术上,她觉得没泡沫。模型的性能确实在飞快地变好。这件事是真的。

商业上,问题就复杂了。技术发展得快,但要让大公司把这套技术用起来,速度是很慢的。你想想,一个大企业要用一个新的工具,得走采购流程,得培训员工,得改变原来的工作习惯。这些都需要时间。所以,真正的风险是,技术跑得太快了,但商业应用的速度没跟上。

不过,从另一个角度看,现在花在算力上的每一分钱,回报都很高。哪怕模型的能力只提升了一点点,比如 0.01,它能带来的商业价值可能都很大。所以,现在说“过度投资”可能还有点早。

“我们本身就是个做 to B 的”

Anthropic 从一开始,就没想着去做一个像 ChatGPT 那样给所有人用的产品。他们的目标客户很明确:企业。也就是做 to B 的生意。后来证明,这个选择是对的。

为什么他们会这么选?有两个原因。

第一个原因,是这家公司的基因决定的。他们从成立第一天起,就把可靠、安全挂在嘴边。这种特点,正好是企业客户最看重的。你想,一家银行或者一家律师事务所,要用 AI 来处理他们的业务数据。他们最担心的就是 AI 胡说八道,或者泄露商业机密。所以,一个把安全放在首位的模型,他们用起来才放心。

第二个原因,是他们对 AI 价值的判断。他们觉得,AI 这种东西,虽然也能用来聊天、画画,挺好玩的。但它真正的、长期的价值,是帮人做那些需要动脑子的高价值工作。比如,帮程序员写代码,帮分析师看财报,帮医生读医疗影像。这些场景都在企业里。而且,企业愿意为能提高效率的工具付钱。

而且,他们在市场上也走得很聪明。Claude 是目前唯一一个,同时在亚马逊、谷歌、微软这三家最大的云平台上都能用的前沿模型。

这个策略是这样的:
第一步,不自己站队。不像有些 AI 公司,只跟一家云厂商深度绑定。
第二步,把模型部署到所有主流的云平台上。
第三步,让客户自己选择。因为大企业客户,很多本来就是这几家云的客户。他们已经习惯在云上买服务了。现在他们可以直接在自己熟悉的云平台上,找到 Claude。

这样做的好处是,他们接触客户的渠道变多了。客户在哪,他们就在哪。据说有一段时间,想用 Claude 的企业客户太多,导致他们的算力都不够用了。

“AI 原生”创业公司蓬勃发展

Anthropic 不只把自己看作一个模型公司。他们觉得自己正在为未来的很多新公司提供基础。

现在出现了一个新词,叫“AI 原生”公司。以前我们说“数字原生”,指的是那些从互联网时代一出生就存在的公司。现在的“AI 原生”也类似。这些公司从成立的第一天,整个产品和商业模式就是围绕着 AI 来设计的。如果没有大模型,这些公司可能根本就不会存在。

举个例子。比如一家新的创业公司,是做合同审查软件的。过去的公司可能是用关键词搜索之类的技术。但一家“AI 原生”公司会这样做:他们直接调用 Claude 的能力,让 AI 去阅读和理解合同的全部内容,然后直接告诉律师这份合同有哪些风险点,哪些条款不合理。整个产品的核心就是 AI 的理解能力。

很多人都在用 Anthropic 的模型,来创建这样的“AI 原生”公司。所以,Anthropic 觉得,他们最重要的事,就是持续做出最好、最安全的模型。这样,建立在他们之上的这些新公司,才能发展得更好。

有人担心,他们这么强调安全,会不会给行业新人设置门槛?Daniela 觉得不会。她说,真正挡住新人的,是开发大模型需要的天价算力和资本。而绝大多数创业公司,并不是要自己从头开发一个大模型。他们是这些大模型的使用者。

所以,Anthropic 的做法,其实是给这些创业者提供了一个更可靠的工具。

“不要相信炒作”,AGI 理念过时了

AI 这个行业,新闻特别多,各种说法满天飞。今天这个模型有了意识,明天那个技术实现了突破。很容易让人头脑发热。

所以,Anthropic 公司内部有一个反复强调的价值观,叫“不要相信炒作”。意思就是,别被外面的新闻标题带着跑。他们关心的是,怎么把模型做得更好,怎么给客户创造真正的价值。这种 B2B 的定位,也让他们必须脚踏实地。因为企业客户不会为你的概念买单,他们只会为有用的功能付钱。

关于 AGI(通用人工智能),也就是和人类一样聪明的 AI,整个行业讨论了很多年。但 Daniela 觉得,AGI 这个词本身,可能已经有点过时了。

为什么这么说呢?因为用“像不像人”这个标准去衡量 AI,已经不准确了。

举个例子,Claude 写代码的能力。它现在已经比世界上很多顶尖的程序员都要强了。从这个角度看,它已经是“超人”了。但是,它也有很多普通人能做、它做不了的事。比如你让它去帮你倒杯水,它就做不到。

所以,AI 不是一个更聪明的“人”。它是一个工具。它在某些方面的能力,可以远远超过人类。但在另一些方面,它可能很笨。用一个统一的“AGI”概念去套它,已经没什么意义了。

最后,说到 Daniela 和她哥哥 Dario 的合作,也很有意思。他们俩的能力正好互补。

Dario 是那个负责看方向的人。他好像总能比别人更早地看到技术未来会往哪里走。他负责提出那些宏大的想法。

Daniela 是那个负责把想法落地的人。她更关注具体怎么做。怎么搭建团队,怎么找客户,怎么谈合作,怎么让公司能健康地活下去。

Dario 不断地把大家往更长远的目标上拉。而 Daniela 负责确保大家在走向这个目标的过程中,脚下的路是稳的。一个负责仰望星空,一个负责脚踏实地。这种组合,可能就是 Anthropic 能在这么激烈的竞争里,走出自己一条路的原因。

© 版权声明

相关文章

暂无评论

暂无评论...