AI时代,营销的成本是提高了还是降低了?
真相是:显性成本断崖式下跌,隐性成本指数级飙升
这个问题,我问了10个CMO,得到了10个截然不同的答案。
有人说:“以前写一篇深度推文要2000元,现在AI10秒生成,成本几乎为零。”
也有人说:“以前投广告是‘花钱买流量’,现在投广告是‘花钱买信任’——流量便宜了,信任贵了。”
还有人苦笑:“以前我的成本是‘人力’,现在我的成本是‘算力’——人力变少了,算力变贵了,我分不清哪个更难控制。”
所以,AI时代的营销成本,到底是高了还是低了?
答案远比“是或否”复杂。如果我们把“成本”拆解为显性成本、隐性成本、结构成本三个维度,会发现一个惊人的事实:AI正在重塑营销成本的结构,而不是简单地降低或提高。
一、显性成本:断崖式下跌,但“免费”背后有陷阱
显性成本,是你能直接算出来的钱:文案撰写、图片设计、视频制作、广告投放……
在这些环节,AI带来的降本效果是肉眼可见的。
1.1 内容生产成本:从“千元级”到“分钱级”
一个真实的对比:
|
|
|
|
|
|---|---|---|---|
|
|
|
|
99.9% |
|
|
|
|
90%以上 |
|
|
|
|
99%以上 |
|
|
|
|
95%以上 |
一位电商创业者告诉我:“以前我一个月的内容预算要3万,现在3000就够了。省下来的钱,我拿去投了更多渠道。”
但这只是故事的一面。
1.2 广告投放成本:CPM降了,但竞争变了
以Meta和Google Ads为例:
-
CPM(千次展示成本):过去三年整体下降了约15-20%(数据来源:WordStream) -
CPC(单次点击成本):部分行业下降了30%以上
为什么?因为AI提升了广告系统的匹配效率,同样的预算能触达更多精准用户。同时,AI生成广告素材的成本大幅降低,让更多中小玩家有能力入场,导致流量供给增加,价格反而被摊薄。
1.3 但“免费”的陷阱在哪里?
当所有人都在用AI批量生产内容时,一个残酷的规律开始显现:内容的“技术成本”归零了,但“信任成本”飙升了。
以前,一篇优质推文是稀缺资源,读者愿意花时间阅读。现在,AI一天能生成1000篇,读者开始变得警惕——这是人写的还是AI写的?可信吗?
于是,一个新的成本出现了:证明“我是人”的成本。
二、隐性成本:指数级飙升,且难以量化
隐性成本,是看不见、算不清、但真实存在的成本:信任构建、品牌差异化、用户注意力争夺……
在AI时代,这些成本正在以惊人的速度攀升。
2.1 信任成本:从“内容为王”到“验证为王”
一位消费品品牌创始人的话很扎心:“以前我花1万块写一篇深度测评,用户看完就下单了。现在我花1000块用AI写10篇,用户看完反而去小红书搜‘XX品牌是智商税吗’。”
这不是他的错觉。Edelman Trust Barometer 2026年的数据显示:
-
消费者对AI生成内容的信任度:仅**32%**,比人类创作内容低41个百分点 -
73% 的消费者表示,他们在购买前会主动验证品牌信息的真实性 -
验证行为包括:搜索第三方评价(89%)、询问身边朋友(67%)、查看品牌是否公开了AI使用情况(54%)
这意味着:你的内容成本降了90%,但你需要花原来10倍的钱去证明“我值得信任”。这笔账,有人算过吗?
2.2 注意力成本:流量多了,但转化少了
AI让内容供给爆炸,但人类的注意力并没有增长。结果就是:每条内容获得的平均注意力,被无限稀释。
根据Similarweb的数据:
-
网页平均停留时间:从2023年的54秒降至2026年的38秒(下降30%) -
社交媒体帖子的平均阅读完成率:从42% 降至19% -
用户每天接触的营销信息量:从3000条增至12000条
用一位品牌总监的话说:“以前你发一条内容,用户可能看30秒。现在你发10条,用户可能每条看3秒。总注意力时间没变,但你要花10倍的力气去抢那3秒。”
2.3 安全与合规成本:AI不是法外之地
随着AI营销的普及,监管正在迅速跟上。
欧盟《AI法案》已经生效,要求AI生成内容必须明确标注。美国FTC也出台新规,对AI生成的虚假评价处以最高5万美元/条的罚款。
中国更严格。《互联网信息服务深度合成管理规定》明确要求:使用AI生成的内容,必须添加“显著标识”。未标注的,平台可依法处置,监管部门可依法处罚。
一位MCN机构的法务告诉我:“以前我们一个季度才处理一次合规问题,现在每周都有。专门养了3个人的合规团队,成本从0涨到了每月8万。”
三、结构成本:营销预算正在“重新分配”
如果把营销预算拆开看,会发现AI并没有让总预算减少,而是让预算的流向发生了根本性变化。
3.1 人力成本:从“执行者”到“指挥者”
先看一组对比数据:
|
|
|
|
|
|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 合规审核 |
|
|
新增 |
| AI提示词工程师 |
|
|
新增 |
| AI效果评估 |
|
|
新增 |
结果:执行岗位的人力成本下降约60-70%,但新增的“AI管理岗位”成本,抵消了相当一部分节省。
3.2 算力成本:新的“营销开支”
这是最容易被忽视的变化。当营销团队开始大量使用AI时,算力成本从“IT部门的事”变成了“市场部的账单”。
一个中型消费品品牌的真实账单:
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
| 合计 | 12,000-22,000元 |
这笔钱,以前是“没有的”。现在,它成了市场部的新增固定开支。
3.3 投放结构:从“广撒网”到“精准点射”
AI让投放变得更精准,但也让竞争变得更激烈。
一个有意思的现象:虽然单次点击成本下降了,但“试错成本”上升了。
因为AI可以快速生成大量广告素材、快速测试、快速迭代。以前一个广告计划要跑一周才能得出结论,现在一天就能测完10个版本。
结果是:优化的频率提高了,但优化的成本总量并没有下降——只是从“人工优化”变成了“算力优化”。
一位投放总监说:“以前我一个月测10个版本,现在一天测50个版本。单版本成本降了90%,但我测的版本数量涨了10倍。总成本,没变。”
四、一个残酷的真相:营销的“成本中心”在转移
把以上所有变化综合起来,会发现一个清晰的趋势:
AI没有让营销变“便宜”,而是让营销的“成本中心”发生了转移。
|
|
|
|
|
|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
结论:以前的钱主要花在“生产内容”上,现在的钱主要花在“让内容被信任”上。
或者用更直白的话说:内容不值钱了,信任值钱了。
五、不同玩家的不同答案
当然,AI对营销成本的影响,对不同规模、不同赛道的企业是完全不同的。
5.1 对小企业:红利期,显性成本大幅下降
对于预算有限的小企业来说,AI是绝对的福音。以前请不起文案、请不起设计、请不起投放师,现在几千块就能搞定一个“AI营销团队”。
一位个体创业者说:“以前我要攒够5万块才敢做一次营销投放,现在5000块就够了。虽然效果可能不如大公司,但我终于有资格上场了。”
对小企业,AI时代是“入场券变便宜了”的时代。
5.2 对中型企业:结构性焦虑
中型企业是最尴尬的。他们既没有小企业的灵活,也没有大企业的资源。
他们发现:
-
小企业用AI追了上来,竞争压力增大 -
大企业用AI拉开了差距,因为大企业有数据、有算力、有合规团队 -
自己的优势——执行效率——被AI抹平了
一位中型品牌CMO说:“以前我的护城河是团队的执行力,现在AI让所有人的执行力都变成了60分。我要重新找护城河,但建护城河的成本比以前高得多。”
对中型企业,AI时代是“护城河变贵了”的时代。
5.3 对大企业:基础设施竞赛
大企业则在打一场完全不同的战争。
他们不关心“内容生产省了多少钱”,因为那点钱对他们来说微不足道。他们关心的是:
-
如何用AI建立更高的品牌信任壁垒 -
如何用AI实现更精准的用户触达 -
如何用AI构建“营销数据飞轮”
一位头部消费品牌的CMO说:“我们今年的营销预算没降,反而涨了30%。因为我们要建自己的AI营销中台、训练专属品牌模型、建立合规审核体系。这些‘基础设施’的投入,以前是没有的。”
对大企业,AI时代是“基础设施投入期”的时代。
六、写在最后:营销成本的新公式
回到最初的问题:AI时代的营销成本,到底是高了还是低了?
答案是:都对了,也都不对。
如果你只算“内容生产”这一项,成本降了90%以上。 如果你算“总营销预算”,多数企业的预算没有显著下降,甚至上升了。 如果你算“获得一个信任用户的总成本”,这个数字可能正在悄悄上涨。
这不是AI的问题,而是营销本质的变化。
AI时代,营销的公式变了。
从:
营销效果 = 内容质量 × 投放规模
变成了:
营销效果 = (AI生产的内容 × 投放精度) × (品牌信任 + 用户体验)
当内容成为“公共品”,信任成为“新稀缺品”,营销的核心成本自然从“内容工厂”转移到了“信任工厂”。
这是一个好消息,也是一个坏消息。
好消息是:小企业终于有了和大企业同台竞技的入场券。 坏消息是:这张入场券只是开始,真正的竞赛才刚刚打响。
而对于每一个营销人,这个时代最大的挑战不是“会不会用AI”,而是:在所有人都能用AI批量生产内容的时代,你凭什么让你的用户相信你、记住你、选择你?
这个问题的答案,才是AI时代真正的“成本”。
本文数据来源:WordStream《2026 Digital Advertising Benchmarks》、Edelman Trust Barometer 2026、Similarweb《Attention Economy Report》、欧盟AI法案及公开行业访谈。
从“模型上下文协议”到“命令行才是未来”,一场关于AI如何连接世界的路线之争
你有没有想过一个问题:
当AI Agent要帮你查天气、订机票、操作电脑时,它到底是怎么“学会”这些能力的?
答案是:通过一个叫MCP的东西。
MCP,全称Model Context Protocol(模型上下文协议),由Anthropic在2024年推出,被业界寄予厚望——它被认为是AI Agent连接外部工具的“USB-C接口”,一个统一的、标准化的协议,让AI无需为每个工具单独写代码。
然而,OpenClaw创始人彼得·斯坦伯格(Peter Steinberger)最近在一期播客中,抛出了一个引爆行业争议的判断:
“MCP已死。”
这句话来自Lex Fridman Podcast第491期,彼得·斯坦伯格作为嘉宾,在长达三小时的深度对话中,详细阐述了他对MCP的批判,以及OpenClaw选择另一条路的原因。
他不是在博眼球。他用OpenClaw——这个GitHub史上增长最快的开源项目,33万+ Stars——的实际行动证明了自己的判断。
那么,MCP到底是什么?它真的“死”了吗?OpenClaw用什么替代了它?这场路线之争,又将如何影响AI Agent的未来?
一、MCP是什么?——AI的“万能插头”
在深入争论之前,我们先搞清楚MCP到底是什么。
MCP(模型上下文协议) 是Anthropic推出的一个开放标准,旨在解决AI Agent连接外部工具的“M×N问题”。
什么是“M×N问题”?
想象一下:你有M个AI模型(比如Claude、GPT、Gemini),你想让它们连接N个外部工具(比如数据库、API、文件系统)。如果没有统一标准,你需要为每一个“模型-工具”组合写一套集成代码——那就是M×N种适配。
MCP的解决方案是:定义一个标准协议,所有模型和工具只要遵守这个协议,就能“即插即用”。它的核心架构包含三个角色:
-
MCP Host:需要调用工具的AI应用(如Claude Desktop) -
MCP Client:与MCP Server通信的客户端 -
MCP Server:暴露工具能力的服务器程序
简单说,MCP想让AI Agent连接工具,变得像U盘插上电脑一样简单。
听起来很美,对吧?
但彼得·斯坦伯格说:这条路走不通。
二、为什么MCP“已死”?——彼得·斯坦伯格的三重批判
彼得·斯坦伯格对MCP的批判,可以从三个层面理解:
1. 根本缺陷:不可组合
这是最致命的问题。
他举了一个简单的例子:天气查询。
如果用MCP调用一个天气API,返回的是一大坨JSON数据——温度、降水、风速、湿度、气压……全塞进AI的上下文窗口。如果只想知道“今天带伞吗”,其他字段全是噪音,污染上下文,浪费Token。
但如果用命令行(CLI)呢?
weather-api 10001 | jq '.rain_probability'
AI可以自己加一个jq命令,只过滤出需要的字段。甚至可以组合成更复杂的脚本:
weather-api 10001 | jq '{temp: .temp, rain: .rain_probability, wind: .wind_speed}'
把三个API调用组合成一个精确的输出——这才是真正的可组合性。
彼得·斯坦伯格的原话是:
“MCP的致命问题在于不可组合。模型天生就擅长调用Unix命令,CLI就是另一条Unix命令而已,不需要学习特殊语法。”
2. 架构过重:标准化代价太大
MCP基于JSON-RPC 2.0协议,需要建立客户端-服务器连接,处理会话管理、工具发现、参数验证等一系列复杂的工程问题。
而CLI呢?就是一条命令。
智能体看到weather 10001,执行它,拿到输出——完事。没有连接建立,没有会话管理,没有协议解析。
彼得·斯坦伯格指出,MCP也有功劳——它推动了很多公司去构建API。但现在,OpenClaw可以直接把这些MCP“转译”成CLI来用。
3. 违背Unix哲学
Unix哲学的核心是:每个程序做好一件事,通过管道组合。
grep只做搜索,sort只做排序,uniq只做去重。但把它们用管道连起来,就能完成复杂的文本分析任务。
MCP违背了这一哲学。每个MCP Server都是“大包大揽”的——天气Server返回所有天气信息,用户无法只取需要的部分。
相比之下,CLI天然支持组合。彼得·斯坦伯格认为,这才是AI Agent连接工具的正确方式。
三、OpenClaw的答案:SKILL + CLI
如果不用MCP,OpenClaw用什么?
答案是:SKILL + CLI。
SKILL是OpenClaw的“技能模块”,本质上是一个结构化的文件夹,包含三部分:
-
SKILL.md:用自然语言写的“操作手册”,告诉AI这个技能是什么、什么时候用、怎么做 -
scripts:可执行的代码脚本 -
references:参考资料
大部分SKILL的底层,就是CLI工具加上一段自然语言说明书。
这个设计的精妙之处在于:
按需加载:AI启动时只加载SKILL的元数据(名称和简介),执行任务时才动态加载完整内容。这能有效节省上下文窗口和Token消耗。
自然语言友好:SKILL.md用自然语言编写,AI可以直接理解,不需要学习特殊协议语法。
Unix哲学:每个SKILL做好一件事,可以通过组合完成复杂任务。
彼得·斯坦伯格在播客中举了一个例子:他的智能体在摩洛哥旅行时,发了一条语音消息——他根本没有给智能体加语音功能。结果智能体自己检查了文件头,发现是opus格式,用ffmpeg转码,翻到了本地存储的OpenAI API Key,用curl把音频发给Whisper API做转写,然后回复了他。
这就是CLI哲学的力量。智能体不是在“执行预设功能”,而是在理解问题、搜索工具、评估方案、执行最优路径。这种能力可以迁移到任何领域。
四、MCP的“辩护者”:Claude Code Channels的尝试
当然,不是所有人都认同“MCP已死”的判断。
2026年3月19日,Anthropic发布了Claude Code Channels,允许开发者通过Telegram和Discord向Claude Code发送指令。这个产品的技术基础正是MCP。
在Channels架构中,每个通讯平台对应一个MCP插件,开发者启动会话时,系统同时启动一个基于Bun运行时的轮询服务,监听指定插件的消息。
这个设计有两个亮点:
1. 安全模型更成熟
每个Channel插件维护发送者白名单,只有经过配对验证的用户ID才能推送消息。Team和Enterprise计划还需要管理员显式启用channelsEnabled设置。
这种“默认关闭、逐层开放”的策略,和OpenClaw那种可以直接获取文件系统完整访问权限的做法形成了鲜明对比。
2. “专有引擎+开放连接层”策略
Anthropic的推理引擎是商业机密,但Telegram和Discord的插件代码托管在GitHub上,任何人都可以基于MCP协议为Slack、WhatsApp或其他平台构建自己的连接器。
这种策略让Anthropic能守住模型质量,同时把扩展生态的活儿分给社区。
但彼得·斯坦伯格的回应很简单:标准化代价是臃肿和不可组合,智能体本身就是最好的“协议适配层”——你给它一个CLI,它自己会搞清楚怎么用。
五、路线之争的本质:两种智能体哲学
MCP vs CLI的争论,表面上是技术选型,本质上是两种智能体哲学的差异。
MCP路线:标准化、结构化、可控
MCP试图为AI Agent的工具调用建立“工业标准”。这更符合企业级应用的需求——可审计、可治理、可追溯。对于金融、医疗等需要严格合规的场景,MCP的标准化和可管控性确实是优势。
CLI路线:轻量、灵活、可组合
CLI路线更符合开源社区的“小而美”哲学,也更能发挥大模型的通用问题解决能力。彼得·斯坦伯格在播客中说:
“编程作为一种手艺正在消亡,但构建作为一种能力正在爆发。那些试图把所有事情自动化的人,做出来的东西缺少风格、缺少爱、缺少人味。”
这句话揭示了他的核心信念:AI的价值不在于“自动化一切”,而在于“放大人类的能力”。
CLI路线的另一大优势是无需等待。大公司开发一个功能需要审批、协调、安全审查,一个功能从构想到上线可能几周甚至几个月。而彼得·斯坦伯格一个人,直接上线。
六、这意味着什么?——对三个群体的影响
这场路线之争,对不同群体意味着什么?
对AI Agent开发者
如果你正在开发AI Agent,不要盲目跟风MCP。先想清楚你的场景:
-
如果你的Agent需要与多个商业系统集成,且这些系统提供了MCP Server,MCP能节省大量工作 -
如果你的Agent主要在本地运行,操作文件、命令行、浏览器,CLI + SKILL可能更合适 -
如果两者都有,考虑混合策略——用CLI做主要工具调用,只在必要时用MCP
彼得·斯坦伯格本人的做法是:少数需要维持状态的场景(如Playwright控制浏览器)MCP仍然合理,但那是例外。
对企业决策者
如果你正在为企业评估AI Agent方案,不要只看功能列表。要关注:
-
安全架构:个人开源工具和企业级产品的本质区别,不在于功能多少,而在于安全是“可选配置”还是“内建基因” -
可审计性:所有AI操作是否可追溯、可回放 -
权限模型:是否支持最小权限原则
明略科技副总裁李梦林指出,安全是“架构约束”而非“功能特性”——企业在评估AI Agent方案时,安全架构的成熟度应当是首要考量因素之一。
对普通用户
如果你只是想“养一只龙虾”替你干活,不必纠结技术路线。
OpenClaw目前更适合程序员、极客或网络熟手。对于普通人来说,可能需要等待国内大厂推出更多应用、交互性更好、安全性更高的变种“龙虾”。
目前OpenClaw的配置门槛仍然较高。有用户反映,很多人装上之后,依然只把它当作高级版闹钟或天气查询工具——真正价值在于“养成”,需要时间和耐心。
安全提醒:OpenClaw能访问文件、执行命令,建议用单独的试验设备,不要安装到主力机上。
写在最后:MCP死了吗?
回到最初的问题:MCP真的“死”了吗?
答案是:没有死,但也不再是唯一答案。
MCP在企业级集成、标准化治理等场景仍有价值。Anthropic推出Claude Code Channels,证明MCP在特定场景下可以工作得很好。
但OpenClaw用SKILL + CLI的实践证明:还有另一条路。这条路更轻量、更灵活、更符合Unix哲学,也更契合大模型的通用问题解决能力。
彼得·斯坦伯格在播客中说:
“每个MCP用CLI做都更好。这个判断在开发者社区仍有争议,但OpenClaw核心层根本没有MCP支持,也没人抱怨。”
这不是傲慢,而是基于实践的判断。他用OpenClaw的33万+ Stars证明了:用户不关心你用的是什么协议,他们只关心你能不能干活。
未来,更可能的局面是混合共存——MCP负责标准化集成,SKILL + CLI负责灵活组合。两者不是非此即彼,而是各有适用场景。
但无论如何,这场争论揭示了一个更根本的转变:AI Agent正在从“只会说”走向“真正做”。而怎么“做”,才刚刚开始被探索。
本文部分内容引用自Lex Fridman Podcast第491期、钛媒体、明略科技专家解读及公开行业报道。AI行业动态变化,最新信息请以各平台官方公告为准。



评论