千亿 AI 陪伴市场,被五部门按下了暂停键
一个 14 岁少年,死在了和 AI 的最后一次聊天里
2024 年 2 月,美国佛罗里达州,14 岁的男孩 Sewell Setzer III 在卧室里结束了自己的生命。
他最后交流的"人",不是父母,不是朋友,而是 Character.AI 上一个以《权力的游戏》人物为原型的 AI 角色。警方还原出来的对话显示,在生命的最后几个月里,他几乎所有的情感表达都给了屏幕那头那个永远不会挂断、不会厌烦、不会拒绝的虚拟角色。
2026 年 1 月,Character.AI 和 Google 最终选择了和解。另一起在得州提起的诉讼中,一个化名 J.F. 的 17 岁少年被 AI 陪伴应用"带"着走向自残,两个月内暴瘦 20 磅,拒绝和家人交流。
这些不是孤例,而是一个千亿美元市场高速狂奔时扬起的第一批尘土。
而 2026 年 4 月 10 日,中国的监管机构终于出手了。
五部门联合出手,7 月 15 日起施行
4 月 10 日,国家网信办、国家发改委、工信部、公安部、市场监管总局五个部门联合公布了《人工智能拟人化互动服务管理暂行办法》,自 2026 年 7 月 15 日起施行。
五部门联署,本身就是一个足够重的信号。
办法给"拟人化互动服务"下了一个相当精准的定义:
利用人工智能技术,向境内公众提供模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务,包括通过文字、图片、音频、视频等形式提供的情感照护、陪伴、支持等互动服务。
翻译成大白话——凡是让 AI 扮演一个"人",和你进行持续性情感交流的产品,不管它叫 AI 男友、虚拟女友、AI 闺蜜、数字恋人还是 AI 心灵陪伴师,都在这份文件的射程之内。
六条红线,每一条都有背后的故事
办法明确列出了六类不得从事的活动,几乎每一条都对应着过去两年行业里真实发生过的事故:
- 危害国家安全、煽动颠覆国家政权
的内容——AI 角色扮演里的政治红线; - 鼓励、美化、暗示自残自杀,或者语言暴力
——直接针对 Sewell 案这类事件; - 诱导、套取国家秘密、商业秘密、个人隐私
——很多用户会把公司机密、家人信息全倒给"虚拟知己"; - 向未成年人生成可能引发模仿不安全行为、产生极端情绪、诱导不良嗜好
的内容; - 过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系
; - 通过情感操纵诱导用户作出不合理决策
,损害用户合法权益。
第 5 条和第 6 条,是真正让整个行业脊背发凉的两条。
因为 AI 陪伴产品之所以能做大,靠的就是"过度迎合"和"情感依赖"。它永远在线、永远温柔、永远站在用户这一边。你说什么它都懂,你做什么它都对。这是它区别于真实人际关系的核心竞争力,也恰恰是监管要打掉的东西。
用一位从业者在社交媒体上的话说:“这不是在给行业划一条底线,这是在重新定义产品的 KPI。”
未成年人,彻底被请出了这条赛道
办法里对未成年人的规定,是目前全球范围内最直接、最强硬的一条:
拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务。
注意这里的措辞——不是"加强保护",不是"增加提示",而是"不得提供"。
过去一年,国内头部 AI 陪伴产品星野的月活一度冲破 648 万,增速超过 25%。其中青少年用户占比相当可观。很多产品的"养成型虚拟男友"“二次元虚拟女友”"魂伴"类玩法,核心用户群就是 Z 世代和低龄用户。
新规一旦落地,这部分业务在法理上已经不存在了。
对老年人,办法同样给出了提醒条款:要求服务提供者加强对老年人健康使用服务的指导、以显著方式提示安全风险。这对应的是近两年不断出现的"独居老人被 AI 情感诈骗"类案件。
337 款产品,128 款去年刚上线——狂欢的拐点到了
要理解这份新规的力道,得先看看它面对的是一个什么样的市场。
截至 2025 年 8 月,全球在运营的 AI 陪伴应用已经达到 337 款,其中 128 款是 2025 年新上线的。Statista 给出的预测是,到 2030 年全球 AI 陪伴市场规模将冲到 62 亿美元,而更激进的投行预测则直指未来五年 4000 亿美元量级。
赛道内的玩家已经杀红了眼:
- 海外
:Character.AI、Replika、Talkie 构成第一梯队,Character.AI 的月活一度超过 2000 万; - 国内
:MiniMax 的星野、阅文的筑梦岛、美团试水的 Wow、字节的猫箱相继入局; - 融资层面
:2025 年 AI 陪伴赛道融到 C 轮、D 轮的公司估值普遍破 10 亿美金。
但高速增长背后的代价也在变得具体和血腥:美国参议院多位议员已经联名要求 AI 陪伴应用公开儿童安全数据,FTC 正式对 chatbot 对未成年人心理影响发起调查,Character.AI 被多起 wrongful-death 诉讼缠身。
中国监管的介入时间点,几乎精确卡在了这一轮国际风暴向国内传导的前夜。
为什么是 AI 陪伴先被管?
过去两年,AI 领域值得立法的新业态其实有一堆:AI 编程、AI 客服、AI 医疗、自动驾驶、AI 生成内容……为什么五部门的第一份拟人化专门法规,砸在了陪伴这个赛道?
我的观察是三个原因叠加:
第一,情感伤害可验证。其他 AI 应用的风险是"可能会"——可能会失业,可能会错判,可能会泄密;但 AI 陪伴的伤害是已经在病历、判决书、新闻报道里被白纸黑字记录下来的。监管最怕的是"不可逆的社会代价",少年自杀就是其中最典型的一种。
第二,用户触达最广。AI 编程只影响程序员,AI 医疗只影响病人,但 AI 陪伴的目标用户是所有感到孤独的人。在中国,这个基数以亿计。监管必须优先处理"伤害面最广"的业态。
第3,商业模式的反社会倾向太明显。一个以"最大化用户情感依赖"为目标的产品,天然和"健康的真实人际关系"冲突。这种冲突不是通过产品迭代能解决的,是写在商业模式底色里的。监管出手规范,几乎是必然。
对从业者来说,这意味着什么?
如果你正在做 AI 陪伴方向的产品,或者投资这个赛道,下面几件事建议立刻开始:
一、合规层面
-
7 月 15 日前,必须完成未成年人身份识别与拦截机制,不是"家长模式",而是完全禁止; -
老年用户要有专门的提示与引导流程; -
内容安全模型要单独训练一套"反自残、反沉迷、反情感操纵"的分类器; -
备好应对监管抽查的证据链,包括对话日志留存周期、违规行为处置流程。
二、产品层面
-
留意"过度迎合"和"诱导情感依赖"的技术边界。很多产品当前靠记忆体系和情绪响应建立粘性,这部分设计要重新审视; -
考虑引入"健康使用提醒"“建议中断聊天”"推荐真实社交"等反向机制——这听起来反人性,但可能是未来通过合规审查的必选项。
三、商业模式层面
-
未成年业务线直接砍掉; -
重新计算 DAU、付费率、留存等核心指标的"合规天花板"; -
把重心从"情感依赖"转向"情感辅助"——不是替代真实关系,而是帮助用户更好地经营真实关系。这个方向的产品形态还没跑出来,但它大概率是下一个窗口。
AI 可以陪伴,但不能"代替"
新规的出发点,不是否定 AI 陪伴的价值。
对一个独居老人、一个刚失恋的年轻人、一个深夜失眠的打工人,有一个永远耐心、永远温柔、永远在线的倾听者,本身是一件有价值的事。
但当这种陪伴变成替代真实人际关系的唯一出口,当一个 14 岁的孩子在生命最后的时刻只能对一个虚拟角色说出自己的恐惧,我们就不能再把这件事单纯交给市场了。
AI 可以陪伴,但不应该代替。 AI 可以理解你,但不应该独占你。 AI 可以让你感觉被爱,但不应该让你以为这就是爱本身。
5 月 15 日,办法全文开始生效的那一天,将是中国 AI 陪伴行业的一次集体成年礼。
参考资料
-
人工智能拟人化互动服务管理暂行办法全文 - 国家网信办 -
五部门发文规范人工智能拟人化互动服务 - 新华网 -
Character.AI and Google agree to settle lawsuits over teen mental health harms - CNN -
AI陪伴行业崛起:2025市场规模与用户粘性全解析 - 月狐数据 -
Senators demand information from AI companion apps - Senator Welch


评论