DeepSeek V4 “跳票”,AI 圈到底在等什么?

AI提示词2小时前更新 jinlian
0 0

上个周末,有个消息传得沸沸扬扬。

是英国《金融时报》先说的。它们报道,DeepSeek V4要在周一发布。而且,报道里还提到,V4会专门针对国产芯片做优化。这要是真的,它就是第一个完全基于国产算力的大模型了。

这个消息一下子就在国内传开了。所有媒体都在转载。大家的胃口都被吊起来了,都等着周一看好戏。

结果呢?

什么都没发生。周一过去了,安安静静,一点动静都没有。那种感觉,就好像你约好了朋友吃饭,地方都到了,结果朋友和饭馆都没影儿了。

DeepSeek V4 “跳票”,AI 圈到底在等什么?

大家盼着DeepSeek V4,已经一个多月了。

最开始,很多人猜它会在春节期间发布。但后来又有消息说,春节还太早。不过你看春节那段时间,它的对手们可没闲着。豆包、千问、GLM,一个接一个地发新版本。

我觉得,它们这就是在搞“预防性竞争”。

它们心里都清楚,只要V4一发布,光芒就会盖过所有人。所以必须抢在它前面,先把自己的新东西拿出来,占个位置。

春节前,DeepSeek自己其实也更新了一次。它扩大了上下文窗口。当时很多人都以为,这就是“V4开始灰度测试了”。我记得那几天,我的朋友圈里全是问这个的:“你拿到V4的邀请码了吗?”“怎么才能被灰度到?”

后来才搞清楚,那次更新根本不是V4。大家叫它“V4 Lite”,但它不是正式版。它的跑分确实不错,在国内大模型里能排进第一梯队。但是,它还没到能让人眼前一亮的水平。

希望仍在,信心何来?

虽然被“放了鸽子”,但我身边AI圈的朋友们,还是对DeepSeek V4抱有很大希望。

为什么?原因有两个。

第一,你去看梁文锋他们团队发的一系列论文。看完你就会感觉,这个团队是真的在搞研发,他们有自己的想法,想做点创新的东西。他们的目标,比国内大多数追风口的大模型团队要高。他们不是在拼凑一个模型,他们是想创造一个模型。

第二,就是梁文锋这个人。今年1月底,他曾经很自信地预告过新版本。熟悉他的人都知道,他这个人,没有把握的事情是不会提前拿出来说的。他既然敢说,就说明他手里肯定有货。创始人的这种自信,比什么宣传稿都管用。

所以,虽然大家等得有点着急,但心里的那点期待还没灭。

V4的“剑”与“盾”:编程和多模态

那大家到底在期待一个什么样的V4?

从DeepSeek团队发的论文看,他们最近的研发重点,好像是两个方向:一个是编程,另一个是多模态

先说编程。这可以说是AI最容易出成果,也是技术最成熟的一个应用方向了。你看今年,又是Claude Code with Opus 4.6,又是ChatGPT-5.3-Codex,一个比一个强,不断刷新AI编程的能力上限。这条路已经被证明是能走通的。

DeepSeek之前的小版本,在编程能力上进步就很大。所以大家觉得,V4在这方面再取得巨大进展,是完全可以理解的,也是应该的。

但是,光有进攻的“剑”还不行,你还得有防守的“盾”。这个“盾”,就是多模态

说实话,没有多模态功能,是DeepSeek目前最大的短板。这不光影响它吸引普通用户,更关键的是,它限制了公司赚钱的能力。

怎么理解呢?我给你举个例子。

B端客户用大模型,是按Token消耗来付钱的。

  • 纯文本生成:你让AI写一篇文章,可能消耗几百个Token。
  • 多模态:你让AI画一张图,或者生成一段视频,可能一次就要消耗几万甚至几十万个Token。

哪个更赚钱,一目了然。

功能类型Token消耗潜力商业模式影响
纯文本生成较低利润薄,需要靠海量用户
多模态(文生图/视频)高几个数量级单次交互价值高,能吸引付费能力强的B端客户

前段时间很火的那个Seedance 2.0就是个好例子。它证明了好的多模态大模型,用户基础和商业潜力有多大。所以,DeepSeek肯定不甘心只做一个“文科生”。从他们的论文看,他们在多模态上下了不少功夫。就看V4能不能把这块短板补上了。

成功者的“魔咒”:V4必须再次震惊世界

现在的情况是,所有人都等着DeepSeek V4这道菜上桌。

但什么时候上,怎么上,是个大学问。这里面有一个很重要的因素:成功的压力。

你想想,当初V3/R1为什么能震惊世界?因为它在那个时候,就是全世界最强的开源大模型。尤其是在推理成本控制方面,它做得太好了。

这就带来一个问题。这就像一个学生,第一次考试考了全校第一。那么第二次考试,就算他只考了第二名,大家可能都会觉得他退步了。虽然第二名也很厉害。

DeepSeek现在就是这个情况。V4必须也要做到全世界最出色的水平(至少是之一),才能算成功,才能再次震惊世界。这个成功的标准,是它自己之前立下的,现在也必须由它自己来超越。

还有一个让他们纠结的地方。当初让DeepSeek真正出圈的,是R1,那个深度推理大模型。没有这个功能,DeepSeek对很多用户来说就没那么特别。

那么现在,他们怎么出牌?

是先出一个“普通版”的V4,让市场解解渴?然后再过一段时间,再推出带“深度推理”的R2?还是说,干脆憋一个大招,把V4和R2打包一起发布?

第一种方式,市场反应可能达不到预期。第二种方式,需要的资源又太多。对于一个创业公司来说,每一步都得算计着来。我相信,DeepSeek团队内部,肯定为这个上线的节奏,反复讨论过很多次了。

看不见的战场:工程与算力的“黑箱”

我们这些在外面看热闹的人,能看到的都是公开信息,比如学术论文。但是,大模型开发,不光是研发的事,更是工程执行的事。

背后的工程问题有多复杂,遇到了什么瓶颈,这些我们都不知道。

举个例子,谷歌的基础研发一直很强吧?但是在Bard和Gemini早期,工程上就出了很多错,产品体验不好,花了大半年时间才慢慢赶上来。所以,如果DeepSeek过去这段时间,是在埋头解决一些工程上的细节问题,我一点都不奇怪。

而且,如果真像《金融时报》报道的那样,V4要全面拥抱国产算力体系,那工程上的挑战就更大了。

这是什么概念呢?

打个比方,这就像你一直开手动挡的法拉利,技术很熟练。现在突然让你去开一架全新的飞机。虽然都是交通工具,但里面的操作逻辑、仪表盘、系统完全是两码事。你必须从头学,从头适应。这个过程肯定快不了。

从英伟达的Hopper架构换到Blackwell架构,都需要花时间调试。更何况是从一个完全不同的框架,迁移到另一个框架?这种工程问题,能解决就很不错了,根本没法强求速度。

当然,还是要强调一下。目前所有关于V4训练细节的报道,都只是猜测。没有得到任何官方的承认。真正的细节,只有在新版本发布那一刻,我们才会知道。

时不我待,市场不等人

不管怎么说,时间不等人。

有一个数据很有意思。DeepSeek APP已经有很长时间没有大的版本更新了。但在这种情况下,它的月活跃用户数(MAU)还能超过1亿。这个数据在国内AI应用里能排到第四或者第五。

就连春节期间花大钱做推广的元宝,都没能超过它。这说明DeepSeek的产品底子是真的好,用户是认这个产品的。

所以,如果V4现在发布,凭着这股劲头,它很有希望一下子冲到全国AI应用的前三名。

但是,如果再晚一些,就不好说了。

今年的AI市场,竞争密度比去年高太多了。互联网大厂们都在拼命投钱,国内是这样,国外也是这样。你今天不发,明天你的对手就发了。用户的注意力是有限的。你晚一步,可能就真的没你什么事了。

不过,既然市场上频繁传出“V4即将发布”的消息,至少说明,这一天应该不远了。

我个人很期待V4。到现在,DeepSeek仍然是我用得最多的四个大模型之一,另外三个是GPT、Gemini和Grok。它也是我用得最多的国产大模型。

等它发布那天,我会马上就去试用。希望我们这次都不会失望。

© 版权声明

相关文章

暂无评论

暂无评论...