硅谷口水战:“AI营销祖师爷”奥特曼说Anthropic在“贩卖恐惧”

奥特曼又开炮了。
4月21日,OpenAI CEO萨姆·奥特曼(Sam Altman)做客科技播客“Core Memory”时,公开嘲讽竞争对手Anthropic的最新网络安全模型Mythos,称其发布策略是“基于恐惧的营销”(fear-based marketing)。
他的原话相当精彩:“说‘我们造了一颗炸弹,它随时可能掉在你头上,然后我们再卖给你一个价值1亿美元的防空洞’,这显然是一种不可思议的营销手段。”
这段话指向的是Anthropic在4月初的一个决定:他们发布了一个名叫Mythos Preview的AI模型,声称这个模型在发现和利用软件漏洞方面能力极强,可能对“经济、公共安全和国家安全”构成严重威胁,因此决定不向公众开放,只提供给少数经过筛选的企业客户。
奥特曼认为,这不是负责任,这是做生意。
他说得对吗?对,也不全对。因为这段批评最讽刺的地方在于:它来自一个把“AI末日论”玩得最溜的人。
Anthropic做了什么?
Anthropic在4月初发布了Mythos Preview的有限预览版,仅向一小批企业客户开放。按照Anthropic的说法,这个模型“擅长发现和利用软件中的漏洞”,如果不加限制地公开发布,网络犯罪分子可能会将其武器化。
这个理由听起来合理。一个能自动发现安全漏洞的AI模型,如果被别有用心的人使用,确实可能造成严重后果。Anthropic把这包装成一种“企业级负责任AI”的产品策略:我们的模型太强了,所以我们不能随便给人用。
但这个叙事很快遭到了质疑。据TechCrunch报道,多位批评者认为Anthropic“夸大了Mythos的能力”。《卫报》也在一期播客中直接提问:这到底是真正的恐慌,还是公关操作?
《卫报》的一篇相关报道标题更加直白:“强大到不能公开发布:Anthropic如何赢得AI公关战。”
换句话说,Anthropic精心构造了一个叙事:我们手里有一件危险武器,正因为危险,你才需要通过我们来获取安全防护。这个逻辑链条的终点,指向的是高昂的企业级服务合同。
奥特曼的批评,精准且虚伪
奥特曼的炮轰非常犀利。“造炸弹,然后卖防空洞”,这个比喻一针见血地戳穿了Anthropic策略的商业本质。
他在同一次播客中还说了一句更耐人寻味的话:“世界上有一些人,长期以来一直希望把AI控制在一小群人手里。你可以用很多不同的理由来为此正名。”
这话的潜台词很明确:Anthropic以“安全”之名限制模型发布,本质上是在制造稀缺性、抬高价格、锁定高端客户。
说得好。但问题是,这段批评来自萨姆·奥特曼。

TechCrunch在同一篇报道的末尾特意补了一刀:“恐惧营销并非Anthropic的发明。可以说,AI行业的很大一部分都在利用恐吓策略和夸大其词来让自己的工具听起来更强大。关于AI可能导致世界末日的持续论调,不仅来自反技术的末日论者,也来自那些向公众售卖这项技术的人,包括奥特曼本人。”
这不是媒体的偏见,这是事实。
2023年,奥特曼亲自前往美国国会作证,呼吁对AI进行强监管。同年,他签署了那封著名的“AI灭绝风险”公开信,与数百位AI研究者一起警告AI可能带来“人类灭绝级别”的危害。
正是这套“AI可能毁灭人类”的宏大叙事,帮助OpenAI从一个不起眼的非营利实验室,变成了一个估值超过3000亿美元的商业帝国。
投资人买的不只是技术,买的是“如果我不投,这个技术就会落入别人手中”的焦虑感。
所以,当奥特曼指责Anthropic“贩卖恐惧”的时候,你很难不笑出声。这就好比高速公路上超速的司机,摇下车窗对旁边同样超速的车大喊:“你怎么能开这么快?”
这场口水战的真正看点
大佬互怼当然好看,但这件事的看点不在八卦。
这场口水战暴露了一个更大的事实:在2026年的AI行业,“安全”已经不再只是一个技术问题或伦理问题,它已经变成了一种核心商业策略。
想清楚这个逻辑链条:
一家公司声称自己的AI模型非常强大,强大到可能被滥用,所以不能公开发布。
这句话同时完成了三件事:
第一,它证明了模型的能力(连我们自己都害怕);
第二,它制造了稀缺性(只有少数人能用);
第三,它为高昂的定价提供了道德合法性(这不是贵,这是负责任)。
一石三鸟。
而奥特曼之所以跳出来攻击这个策略,不是因为他真的反对“以安全之名行营销之实”,而是因为Anthropic把这个游戏玩得太成功了,成功到已经开始威胁OpenAI的市场叙事权。
在AI军备竞赛中,“谁更危险”的话语权,就等于“谁更值钱”的定价权。
如果Anthropic成功让市场相信“Mythos太危险了,只有我们才能负责任地管理它”,那OpenAI的模型就会显得“不够危险”,也就是“不够强”。在一个客户愿意为“最强”付费的市场里,这是致命的。
所以奥特曼必须反击。他的反击方式不是证明OpenAI的模型更强,而是试图一把掀翻整个桌子:你们根本就没那么强,你们在吓人。
被忽略的真问题
在这场口水战的烟雾弹背后,有一个被双方都刻意回避的真问题:AI网络安全模型到底有没有那么危险?
据TechCrunch报道,部分批评者对Mythos的实际能力持怀疑态度。一个能发现软件漏洞的AI工具,在安全行业并不是新鲜事。传统的自动化漏洞扫描工具已经存在了几十年,它们并没有导致互联网的崩溃。
Mythos的真正创新,可能在于它把大语言模型的推理能力和传统安全工具结合了起来,在某些场景下效率更高。但这和“如果公开发布就会威胁国家安全”之间,还有很长的距离。
Anthropic选择不公开发布Mythos,也许确实出于安全考虑,但用“经济安全和国家安全面临严重风险”来包装一个企业级安全产品的有限发布,这个措辞本身就已经是营销语言了。
而奥特曼选择把Anthropic的做法称为“恐惧营销”,也不是因为他真的关心AI是否被过度渲染为威胁。如果他真的这么想,他应该先撤回自己过去三年里关于“AI灭绝风险”的所有表态。
双方都在玩同一个游戏,只是分别站在了进攻和防守的位置上。
对行业意味着什么
这场口水战传递了一个清晰的信号:从2026年开始,“安全限制”将成为AI公司的标准产品发布套路。
逻辑很简单。当各家大模型公司的基础能力越来越接近时,“我的模型比你强多少”这个叙事的边际效应在递减。
这时候,“我的模型比你更危险”反而变成了一种差异化优势。因为“危险”隐含着“强大”,而“我选择限制自己”则隐含着“我比你负责任”。
可以预见,未来每一个重要模型的发布,都会附带一个精心措辞的“安全评估报告”,解释为什么这个模型需要限制性发布。大模型确实需要安全评估,但它同时也是一份营销文件。
我们应该怎么看待这些报告?不必全信,也不必全不信。关键是看一个指标:这家公司在声称“太危险”的同时,有没有在卖相关的安全服务?
如果有,那你就知道“安全”在这个语境下的真实含义了。
写在最后
奥特曼炮轰Anthropic“贩卖恐惧”,这件事本身就是一场关于“谁有资格贩卖恐惧”的争夺战。
在AI行业,“安全”已经不只是一种责任,更是一种资产。谁能定义什么是“危险的”,谁就握住了定价权。
所以,当你听到某家AI公司说自己的模型“太强大了,不能公开发布”的时候,不必急着恐慌,也不必急着嘲笑。
你只需要问一个问题:他们的防空洞,定价多少?
参考资料:
[1]https://techcrunch.com/2026/04/21/sam-altman-throws-shade-at-anthropics-cyber-model-mythos-fear-based-marketing/
[2]https://www.theguardian.com/science/audio/2026/apr/21/mythos-are-fears-over-new-ai-model-panic-or-pr-podcast
[3]https://www.theguardian.com/technology/2026/apr/12/too-powerful-for-the-public-inside-anthropics-bid-to-win-the-ai-publicity-war
[4]https://www.corememory.com/p/the-great-reset-at-openai-ep-67-sam-altman-greg-brockman
