国内大模型厂商,可能真要感谢 Claude

前两天跟网友聊 Claude,聊着聊着突然冒出一个想法——说实话,这个念头出来我自己都愣了一下。

先说一件刚发生的事。

就在本周(2026年5月6日),刚好是我在写这篇文章的两天前。

马斯克的 xAI 正式停止独立运营,整体并入 SpaceX,改叫"SpaceXAI"。同一天,SpaceX 宣布跟 Anthropic 达成算力合作——Anthropic 拿下 xAI 孟菲斯 Colossus 1 数据中心的全部算力,包括超过 22 万块英伟达 GPU(H100/H200/GB200),新增算力超过 300 兆瓦。

马斯克跟 OpenAI 的官司还在打着("Musk v. Altman"案,目前还没结),扶植 Anthropic 来牵制 OpenAI,这步棋其实挺好理解的。但有意思的是他自己的态度转弯:几个月前他还在 X 上骂 Anthropic 的政策"厌恶人类",现在改口说"上周跟 Anthropic 团队聊了很多,他们非常有能力"。

行吧,商业就是商业,立场从来都是可以重新算的,这话我没意见。

但这件事对本文的议题有直接影响:Anthropic 正在大力度扩充算力供给。Claude 已经把5小时限制放宽到10小时限制了,后续可能会放开更多的限制。

Anthropic 现在限制国内用户,限制中国背景公司,很多人的第一反应是骂。

说实话,这个反应太正常了。Claude 确实好用。尤其是写代码、长上下文、工具调用、Agent 工作流这块,现在仍然是第一档。很多人不是没试过国产模型,而是试完之后发现:简单任务能做,复杂任务不够稳;回答看起来像那么回事,真接到项目里就容易漏步骤、乱判断、自己脑补。

所以问题来了:如果 Claude 真的完全放开给国内用户用,会发生什么?

我的判断是:大概率不是"百花齐放",而是大量公司、开发者、内容团队直接把工作流绑到 Claude 上。

写代码用 Claude。写文档用 Claude。做客服知识库用 Claude。做 Agent、插件、内部系统,也围着 Claude API、Claude Code、Claude Desktop、MCP、Skills 这套生态转。

短期看效率会很高。但长期看,这是一条很硬的技术依赖链。因为模型一旦进入业务流程,就不是换个聊天软件那么简单——你的提示词、工具链、团队习惯、自动化脚本、内部知识库、客户服务系统,都会慢慢长在它的生态上。

到那时候,对方定价,你接。对方改规则,你改。对方限区,你绕。对方封号,你停。

这话听起来像阴谋论?其实不是,就是商业现实。Anthropic 自己已经把边界说得很清楚了:它的限制不只看公司注册地,还看控制关系。超过 50% 由不支持地区实体控制,即使公司在别的地方运营,也可能被限制。Claude 已经不只是一个普通的 SaaS 工具了,它是带战略边界的技术供给。

前段时间还有公司被整个组织停用 Claude。Belo 的 60 多名员工一度无法访问日常依赖的 Claude 工作流,理由是模糊的"违反使用政策",申诉入口只有一个表单。后来访问恢复了,但这件事已经说明一个问题:当团队把日常工作深度放进单一 AI 服务里,服务商一个开关,就能让一家公司当天卡住。

还有 PocketOS 的删库事件。更准确地说,不是"Claude 自己直接删库",而是 Claude 驱动的编码 Agent,在 Cursor 和 Railway 的工具权限、备份设计、API 边界共同作用下,把生产数据库和备份一起删掉了。整个过程只用了 9 秒。

这里最值得警惕的不是"AI 会不会犯错"——人也会犯错。真正的问题是:AI 一旦接上生产权限,犯错速度会非常快,破坏范围也会被工具链放大。

所以再回头看 Claude 对国内用户的限制,会发现它有两面。

对个人用户来说,这是损失。好工具不能稳定用,体验当然差。这一点没人否认。

但从国内 AI 产业的角度来看,它反而给国产大模型留了一段缓冲期。这话不好听,但是现实:如果 Claude 完全放开,国内不少大模型公司会更难受。因为用户不会为了支持国产而牺牲交付质量。谁好用就用谁,谁稳定就接谁,谁能省人就买谁。

国产模型如果只能靠"情怀""安全可控""本土服务"去竞争,是不够的。企业不是做公益,开发者也不是来陪跑的。如果最强模型毫无限制地进入国内市场,很多 AI 应用公司可能会直接围着 Claude 做生态。国产模型会被压在价格、能力、品牌和开发者习惯的四重压力下,很难拿到足够多的真实场景。

而现在,限制客观存在。这给国产模型留下了一口气。国内模型公司可以靠国内客户、国内场景、国内应用赚到收入,再把钱投回训练、推理、数据工程、工具链和产品生态。这很关键。AI 不是只靠榜单练出来的,它要在客服、代码、办公、视频、教育、制造、政企、游戏、内容生产里反复打磨。模型要见过足够多真实任务,才能从"会答题"变成"能干活"。

所以说,国内大模型厂商,或许真要感谢 Claude。

不是感谢它友好,而是感谢它没有把最强模型完整压进国内市场。这给国产模型留下了时间。

【DeepSeek 已经先走了一步】

DeepSeek 的出现证明了一件事:国产模型不一定只能追赶,也可以主动挑战。它的训练成本只有同级别模型的几分之一,性能却逼近 Claude 和 GPT。这直接逼着国内大厂重新思考定价和技术路线,也逼着 Anthropic 和 OpenAI 认真解释自己的成本结构。

对国内 AI 产业来说,DeepSeek 的意义不只是"又一个国产模型"。它说明:只要在架构和工程上做对选择,算力劣势是可以部分抵消的。

但这也意味着竞争在加速。DeepSeek 在追,Claude 在扩产(见上文的算力合作),OpenAI 也不会停。国内大模型厂商如果还把"Claude 被挡住"当成缓冲,很快就会发现:真正的对手不只有 Claude,还有跑得很快的自己人。

但这里有个更刺耳的判断:窗口期不是护城河。

如果国产模型厂商只是把这段时间当成涨价窗口,API 难用、上下文不稳、工具调用乱跳、文档写不清、客服没人管,那这段缓冲期很快就会被浪费掉。用户不会永远忍,开发者也不会永远迁就。一旦更强的开源模型、更成熟的第三方中转、企业私有部署和海外合规方案出现,用户还是会用脚投票。

所以国产模型真正该做的,不是庆幸 Claude 被挡住,而是趁它没有完全进来,把几件事补上。

首先是能力。尤其是代码、长任务、复杂推理、工具调用、稳定执行。不要只会写一段漂亮回答,要能连续干活。少猜,少编,少自作主张。遇到危险操作,要知道停手。

然后是生态。Claude 强,不只是模型强,它强在 Claude Code、MCP、Artifacts、Skills、Desktop、API、社区教程一起成形。国产模型如果只有聊天框,没有工具链,就很难进入企业深处。

价格也得合理。国内用户不是没得选,只是现在选择还不够稳。高利润可以理解,但必须换来高可用、高并发、高稳定和高质量支持。不能一边收企业价,一边给测试版体验。

企业自己也要清醒。不要因为 Claude 强,就全绑 Claude;也不要因为国产模型可用,就只绑一家国产。核心业务必须做多模型架构,能切 Qwen、DeepSeek、GLM、MiniMax、MiMo、本地模型,也能在外部服务不可用时降级运行。数据库、服务器、支付、客户资料这些高风险动作,必须有人类确认、权限隔离、备份恢复和审计日志。

最后说个更底层的转变:以后判断一个 AI 好不好,标准不再是"哪个模型最强"——而是谁能稳定、可控、可替换地嵌进业务流程。

Claude 现在强,这是真的。Claude 的限制给国产模型留了空间,这也是真的。但这不是胜利,只是时间。这段时间如果用来补能力、补生态、补安全边界,国内 AI 产业还有机会形成自己的链条;如果只用来吃国内用户的溢价,那等下一波更强开源模型和合规替代方案成熟,还是会被重新洗牌。

所以我的想法就是:Claude 封锁国内用户,表面看是把用户挡在门外,实际上,也把国内大模型从最强对手的正面碾压下,暂时推开了一步。

这一步不是终点,是倒计时。

国产大模型厂商真正该感谢 Claude 的,不是感谢它让路,而是感谢它给了一个很短、但很关键的窗口。能不能把这口气变成真正的产业能力,就看接下来这几年了。

作为普通用户,我还是要感谢Deepseek,感谢梁文锋!90%以上的缓存命中太香了!

参考信息

Anthropic:Updating restrictions of sales to unsupported regions

Tom's Hardware:Anthropic revokes Belo organization access incident

The Guardian:Claude-powered coding agent deletes PocketOS production database incident

Wired:Anthropic Gets in Bed With SpaceX as the AI Race Turns Weird (2026-05-06)

财新网:马斯克旗下xAI公司改名SpaceXAI 为Anthropic提供GPU算力 (2026-05-07)

原文链接:https://www.he6.net/12055.html,转载请注明出处。
0
没有账号?注册  忘记密码?

社交账号快速登录