|
这张来自 Epoch AI 的图表,给了中美 AI 一个非常冷静的定位。 自 2023 年以来,所有处在全球能力前沿的 AI 模型,全部来自美国;而中国模型在整体能力上,平均落后约 7 个月。这个差距不是某一次模型发布造成的,而是过去两年多时间里反复出现的长期结果:最小约 4 个月,最大可达 14 个月,长期平均,稳定在 7 个月左右,最终收敛在一个稳定区间。 Epoch AI 用的是 Epoch Capabilities Index(ECI),这是一个综合指标,涵盖语言理解与生成、推理与问题分解、多任务泛化表现,并结合公开评测与专家校准。换句话说,这不是“感觉差距”,而是被量化成时间维度的能力差距——平均而言,中国模型需要再过 7 个月,才能达到美国模型已经实现的能力水平。 添加“大海”微信(dashengchuhai6),获取完整版报告,并加入AI讨论社群
01
两条曲线,代表两种完全不同的进化方式
如果只看美国那条蓝线,会发现它的特征非常明显:连续、密集、几乎没有停顿。而且能力提升并不完全依赖参数规模的简单扩张。以 o1 为例,它的关键突破并不在“更大模型”,而在推理路径设计、中间状态建模,以及训练目标的重构,本质上是把“思考过程”本身纳入工程对象。 如果只看美国 AI 的能力曲线,会发现几个明显特征: 这意味着,美国前沿 AI 的推进方式,已经明显转向 系统级与范式级创新。 再看中国那条红线:跳跃式追赶,但节奏更慢中国模型的曲线,呈现出另一种典型形态: 从模型名称也能看出来: 72B、236B、MAX、MoE 更多依赖 参数规模、架构工程 来缩小差距
这是一条非常有效的追赶曲线,但它的特点是: “追得很稳,但对方也没停。”
总结一下,中国模型每一次模型发布,能力提升幅度都不小,但两次跃迁之间的间隔相对更长。从模型名称和技术路线也能看出来,中国 AI 更多依赖扩大参数规模和 MoE 架构来拉平差距。这条路线是有效的,也确实在持续逼近前沿。
02
7 个月的差距,本质上是「开源 vs 闭源」中美 AI 的能力差距,几乎完全贴合「闭源模型 vs 开源模型」的差距。
这并不意外。 中国最领先的大模型,几乎全部是 开源权重
而美国真正的前沿模型,几乎清一色是 闭源
GPT-4 → o1 → GPT-5 Gemini 系列
也正是在这些闭源模型之上,美国持续把前沿能力往前推。这并不意味着开源“不行”,而是说明在当前阶段,开源更擅长扩散和追赶,闭源更擅长冲击极限。从这个角度看,这 7 个月并不是“中美差距”,而是研发组织方式、商业策略与技术路线选择的结果。闭源模型可以更激进地整合工程、算力和数据,持续在前沿能力上小步快跑;而开源模型更强调可复现、可扩散与生态建设,其优势在于普及与追赶,但在冲击“绝对前沿”时,确实会受到一定约束。换句话说,这 7 个月并不是“追不上”,而是“追的方式不同”。
03
差距在缩小,但没有消失如果拉长时间轴来看,变化其实很清楚:- 2023 年,中美 AI 的能力差距一度接近 10–12 个月;
- 2024 年,差距明显收敛到 6–8 个月;
- 到 2025 年,稳定在约 7 个月左右。
这说明中国 AI 的追赶速度非常稳定,但同时也说明,美国前沿 AI 的推进速度并没有放缓。两条曲线在靠近,却始终保持着一个时间上的错位。
04
真正的分水岭,还没到来Epoch AI 在 FrontierMath 上的测试,进一步验证了这一判断。在这套由 60 多位顶尖数学家设计、覆盖科研级难题的基准中,几乎所有开源中文大模型在高难度问题上都未能取得有效成绩,而即便是 GPT、Gemini 这样的闭源前沿模型,表现也谈不上理想。这说明,在真正复杂、需要深度推理与长期规划的问题上,当前所有 AI 都还处在早期阶段。无论是 GPT-5,还是 Qwen3 Max,都不是终点。真正决定下一阶段格局的,很可能不是参数规模,而是是否能完成一次范式级跃迁:真正的分水岭,正在转向几个更深层的问题: 就在最近,谷歌研究团队已经释放出信号——持续学习,可能成为 2026 年 AI 的关键能力。谁能率先实现无需反复重训、即可在参数中自我学习和进化,谁就可能重新定义什么才是真正的“前沿”。所以,这 7 个月不是压力,而是坐标。
上面图片和结论,来自 Epoch AI 的最新数据洞察
如果你对这些结论背后的完整数据、方法说明和更长期的趋势判断感兴趣,Epoch AI 实际上已经在其研究中给出了更系统的分析,并整理成了完整的 PDF 报告《AI in 2023》,报告预测了在算力持续增长的前提下,到 2030 年 AI 能力将大幅提升,并深刻改变科研、经济和社会生产力格局。”
需要完整版 PDF ,添加大海(dashengchuhai6)回复‘报告’获取.
|