上周末AI圈的热闹程度,堪比一出连续剧。
周五深夜,Cursor发布”自研”模型Composer 2,宣称性能超越Claude Opus 4.6;不到24小时,网友扒出模型ID里藏着”Kimi”的字样;马斯克下场补刀,Kimi官方借势高调回应;三天后,Cursor创始人出来”认亲”……与此同时,MiniMax悄悄发布了一个声称能自己训练自己的模型M2.7,在这片混战中意外成了沉默的赢家。
这篇文章就来把这几天发生的事情梳理清楚,并聊聊背后真正值得关注的信号。
一、Cursor”套壳”风波:24小时反转全记录
事件起点:一个藏不住的模型ID
3月20日凌晨,Cursor(母公司Anysphere)高调发布新编程模型Composer 2。发布博文写得激动人心:
“这是我们团队经过持续预训练和大规模强化学习的自研成果,在CursorBench得分61.3,超越Claude Opus 4.6(58.2),与GPT-5.4 Thinking(63.9)接近,定价仅$0.50/百万Token。”
从数据来看,确实令人心动——顶级性能,1/10的价格。开发者们兴奋地开始测试。
然而,发布不到24小时,网友Fynn在检查Cursor的API调用配置时,发现了一个藏不住的细节:模型ID为 accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast。
这串ID里,kimi-k2p5写得明明白白。
Kimi K2.5,是月之暗面(Moonshot AI)开源的编程大模型,在代码生成领域表现出色。
这个发现迅速在X(原Twitter)上炸锅。
马斯克下场,Kimi”听说我了”
事情最戏剧性的一幕出现了——马斯克看到相关讨论后,简单回复了一句:
“Yeah, it’s Kimi 2.5.”
寥寥几个字,却把事情的定性一锤敲定。
月之暗面的预训练负责人Yulun Du也在X上发文,通过Tokenizer测试证实了Composer 2与Kimi模型的高度相似性,并公开提出质疑:Cursor为何没有在发布时说明基座模型来源和授权情况?
Kimi官方则在X上用了一个颇为俏皮的回应风格,态度从容:我们通过授权合规合作,欢迎大家来用我们的基座。言下之意,这是一次意外的品牌背书。
Cursor的三步”滑跪”
面对压力,Cursor方面陆续给出回应:
第一步,AI教育负责人Lee Robinson承认:未提及Kimi基座是”疏忽”,但强调使用经过推理平台Fireworks合规授权。
第二步,创始人Aman Sanger出来给出技术说明:
- 团队评估后认为Kimi K2.5是性能最强的开源基座
- 在其上进行了持续预训练 + 4倍规模的大规模强化学习(RL)
- 最终Composer 2只有约25%的计算量直接来自Kimi K2.5
第三步,承诺以后发布时会注明基座模型信息。
这件事真正争议的是什么?
整件事的焦点,其实并不是技术侵权——Kimi K2.5是开源模型,Cursor通过Fireworks获得了合规授权。
真正有意思的争议点是信息透明度:
一家估值可能达到500亿美元的公司,在一次重要发布中,没有主动告知用户模型的底层基座。在强调”开放”和”可信”的AI行业,这是一个微妙的信任问题。
从更宏观的视角看,这件事暴露了一个正在发生的现实:
中国开源模型,已经成为全球AI技术栈不可忽视的底座。
Hugging Face CEO Thomas Wolf说得直白:”中国开源模型是目前塑造全球AI技术栈最大的力量之一。” Kimi K2.5从被追赶的对象,变成了连Cursor都在用的基础设施。
二、MiniMax M2.7:AI开始训练自己了
就在Cursor风波正热的时候,MiniMax在3月18日悄悄发布了一款在技术意义上更值得关注的模型——MiniMax M2.7。
“自我进化”是什么意思?
以往的大模型迭代,都是由人类团队驱动的:工程师收集数据、设计训练方案、调整超参数、评估效果、再优化……M2.7打破了这个范式。
M2.7能够深度参与自身的训练迭代过程。
具体来说,它通过一个叫做 Agent Harness 的体系,让模型自行:
- 构建和优化测试框架
- 驱动强化学习流程
- 根据测试结果调整学习策略
- 更新自身记忆库
用一个不那么准确但容易理解的比喻:这就像一个学生不仅能写作业,还能给自己出题、改卷、发现弱项、调整学习计划。
MiniMax将这个过程称为”从工具型AI到自主进化型AI的分水岭”。
性能数据:够吓人
光谈概念不够,看数据:
SWE-Pro(软件工程)56.22%接近Claude Opus 4.6最佳水平VIBE-Pro(端到端项目交付)55.6%与Opus 4.6几乎持平Terminal Bench 257.0%复杂工程系统理解力MLE Bench Lite(机器学习)66.6%(3次平均得牌率)与Gemini-3.1持平复杂技能遵循率97%(40个测试案例)长程任务稳定性极高
在软件工程和专业办公领域,M2.7已经达到全球顶尖模型同等水平,而它是一个开源可调用的模型。
怎么用?
- 直接对话:agent.minimaxi.com
- API接入:platform.minimaxi.com,文档完备,支持OpenAI格式兼容
- 开源示例:MiniMax开源了互动系统原型 OpenRoom
对开发者来说,最实际的一点是:M2.7的API成本远低于Opus/GPT-5.4,而在代码和Agent任务上性能接近,适合用来搭建各类自动化工作流。
三、其他值得关注的动态
中国AI调用量连续两周超美国
OpenRouter平台数据显示,截至3月15日,中国AI大模型周调用量达到4.69万亿Token,连续第二周超越美国,全球前三均为中国模型。
这背后有一个很简单的商业逻辑:DeepSeek、Qwen、Kimi等国产模型的API成本普遍只有GPT-5.4的1/10,全球开发者”用脚投票”。
Google AlphaProof登《自然》
Google DeepMind的AlphaProof通过强化学习独立解答了4道国际数学奥林匹克(IMO)题目(6道答对4道),相关论文正式发表于《自然》杂志。
这是一个信号:AI在基础科学推理领域的能力,已经超出了我们多数人的预期上限。
Cloudflare CEO:2027年AI Bot流量将超过人类
当前AI代理流量占Cloudflare处理流量的35%,且每季度增长40%。这意味着互联网正在变成机器之间互相交流的网络,内容创作、SEO和安全体系都将面临深刻改变。
四、写在最后:这一周说明了什么
把这几件事放在一起看,会发现一条清晰的脉络:
中国AI从”跟随者”变成了”基础设施提供者”。
Cursor用Kimi做基座,全球开发者抛弃贵价API选择国产模型,MiniMax在Agent能力上追平顶尖闭源模型——这些不是孤立的事件,而是同一个趋势的不同侧面。
与此同时,AI本身也在发生质变。MiniMax M2.7″自我进化”的尝试,让人想起了Geoffrey Hinton一直在警告的那件事——AI开始递归改进自己。这次还在工程师的掌控之内,但方向已经清晰了。
对普通开发者和从业者来说,这个时代有一个很实际的启示:
选择工具,不要只看品牌,要看性价比和生态。
Kimi K2.5是Cursor的底层,DeepSeek是无数企业的API首选,MiniMax的Agent能力已可媲美顶级商业模型——这些工具就在眼前,用起来就是了。
📌 喜欢这篇文章?欢迎收藏「暗夜独行」,持续跟踪AI最新动态。
🔗 工具推荐:密码生成器 | 图片压缩 PicShrink




发表回复