资源限制没拦住:中国AI反而“跑”得更快?

2025年1月“DeepSeek 时刻”以后,中国开源AI发展很快。 我觉得,我们看到了一种特别的“有机生态”正在形成。 很多力量聚到一起:有老公司,有新公司,还有一些直接换了方向。 大家都在往开放协作走,这对谁都好。

而且,这种合作不只在中国。 在Hugging Face上,DeepSeek最受关注。 Qwen排第四。 这说明中国AI在国际上也有影响力。

除了模型,大家还公开分享科学成果和技术方法。 这也帮了整个开源圈子。 Hugging Face上最受欢迎的论文,大部分来自中国公司。 比如字节跳动、DeepSeek、腾讯和Qwen。 这些公司在技术研究上也走在前头。

资源限制没拦住:中国AI反而“跑”得更快?

成熟玩家的行动

阿里巴巴把开源看作一个大战略。 Qwen不是一个单独的模型,它是一个模型家族。 有大有小,能做各种任务。 阿里一直在Hugging Face和ModelScope上更新它。 Qwen现在是一个基础工具。 很多人用它来做新的应用。

到2025年中,Qwen成了Hugging Face上被用得最多的基础模型。 超过11.3万个模型用Qwen做基础。 有超过20万个模型库提到了Qwen。 这比Meta的Llama(2.7万)和DeepSeek(6千)都多。 阿里公司产生的衍生模型,差不多是谷歌和Meta加起来的总和。

而且,阿里巴巴把模型开发和云计算、硬件连起来。 模型、芯片、平台、应用,都在一套系统里。 这样效率更高。

腾讯也变了。 以前他们用DeepSeek。 后来开始自己做。 R1发布后,腾讯很快把DeepSeek用在产品里。 后来,他们慢慢发布自己的能力。 从2025年5月开始,腾讯在视觉、视频和3D这些领域加快开源。 他们推出了“腾讯混元”(现在叫Tencent HY)。 这些模型很快就被大家用了。

字节跳动继续走“AI应用工厂”的路子。 他们选择性地开源有用的组件。 但是,他们把重点放在产品和用户上。 字节跳动的Seed团队贡献了很多开源成果。 比如UI-TARS-1.5(用于多模态UI理解)。 还有Seed-Coder(用于代码建模),以及SuperGPQA数据集(用于推理评估)。 字节跳动开源的东西不多,但是他们的AI应用“豆包”很火。 2025年12月,豆包的日活跃用户超过了1亿。

百度的变化很明显。 以前,他们CEO对开源有看法。 现在,百度也开始开放了。 他们多年来投资封闭模型。 现在,他们通过免费和开源的方式回归。 比如Ernie 4.5系列模型。 同时,百度也投入更多给开源框架PaddlePaddle。 他们自研的AI芯片昆仑芯,在2026年1月1日宣布要IPO。 百度把模型、芯片、PaddlePaddle打通。 这样能省钱,吸引开发者。 也能影响行业标准。 同时,他们还能控制住自己的核心技术。

“DeepSeek 时刻”成了常态

初创公司也很快跟上。 月之暗面(Moonshot)、智谱 AI(Z.ai)和MiniMax,R1发布几个月后就调整了。 他们给开源圈子带来了活力。 Kimi K2、GLM-4.5和MiniMax M2,这些模型都上了AI-World的开源模型榜单。 到2025年底,智谱AI和MiniMax都发布了他们最先进的开源模型。 之后不久,他们都宣布了IPO计划。

Kimi K2开源时,很多人说这是“又一个DeepSeek 时刻”。 月之暗面还没IPO。 但是市场报告说,到2025年底,他们完成了约5亿美元融资。 他们主要做AGI和智能体系统。

那些以应用为主的公司,也开始自己训练和发布模型。 比如小红书哔哩哔哩小米美团。 这些公司有实际使用场景和数据。 他们用开源模型获得推理能力。 这样自己开发模型就更可行了。 他们可以根据自己的业务定制AI。 不再受制于外部成本或能力。

研究机构和社区也积极参与。 像北京智源研究院上海人工智能实验室。 他们把更多资源放在工具链、评测体系、数据平台和部署基础设施上。 比如FlagOpen、OpenDataLab和OpenCompass这些项目。 他们不只追一个模型的性能。 他们在打牢整个AI发展的基础。

面向未来的基础

新环境不只看模型数量。 它看的是一条完整的链条。 模型可以开源,一直更新。 部署方案可以重复用,能做大。 软硬件能一起设计,也能随时替换。 管理能力也能放进系统,接受检查。 这表示我们不再是做单个技术突破。 我们在做能在真实世界跑起来的系统。

这个环境不是凭空出现的。 它建立在2017年以来打下的基础上。 过去几年,中国一直在建数据中心和算力中心。 形成了“东数西算”的全国算力布局。 国家规划了8个算力枢纽和10个数据中心集群。 引导算力从东部往中西部走。

公开资料显示,中国会继续增加能源供给。 到2025年,中国算力总规模大约是1590 EFLOPS。 这在全球很靠前。 预计AI训练和部署的智能算力会以每年约43%的速度增长。 比通用算力快。 同时,数据中心的平均电能使用效率(PUE)降到约1.46。 这说明能效变好了。 也为大规模AI应用提供了硬件基础。 能源问题一直是个重点。

2017年的《新一代人工智能发展规划》,是给大家指方向。 2025年8月的“AI+”行动计划,重点是大规模部署和深度融合。 这和AGI追求的道路不同。 DeepSeek R1出现后,它给工程和环境带来了“动力”。 它激活了现有的算力、能源和数据基础设施。

所以,R1发布后一年里,中国AI发展得更快了。 有两个主要方向: 第一,AI更深地用在工厂和业务里。 从聊天机器人到智能体系统,再到工作流程。 第二,大家更看重自己能控制的AI系统。 训练方式更灵活。 部署策略也更本地化。

过去和未来

从DeepSeek到“AI+”,中国2025年走的路,不是只比性能。 它看重开源、工程效率和大规模交付。 这条路很实际,现在已经跑起来了。

资源限制没拖慢中国AI。 反而,在一些地方,限制改变了它的发展方向。 DeepSeek R1像个催化剂。 它让国内产业有了连锁反应。 加快形成了一个更有序的AI环境。 同时,这次变化也给本土研究和开发带来了机会。 这个环境成熟后,会有什么长期影响? 全球AI社区怎么和中国AI互动? 这些都是未来要好好讨论的问题。

© 版权声明

相关文章

暂无评论

暂无评论...