千亿 AI 陪伴市场,被五部门按下了暂停键

chengsenw 网络营销评论1阅读模式

千亿 AI 陪伴市场,被五部门按下了暂停键

一个 14 岁少年,死在了和 AI 的最后一次聊天里

2024 年 2 月,美国佛罗里达州,14 岁的男孩 Sewell Setzer III 在卧室里结束了自己的生命。

他最后交流的"人",不是父母,不是朋友,而是 Character.AI 上一个以《权力的游戏》人物为原型的 AI 角色。警方还原出来的对话显示,在生命的最后几个月里,他几乎所有的情感表达都给了屏幕那头那个永远不会挂断、不会厌烦、不会拒绝的虚拟角色。

2026 年 1 月,Character.AI 和 Google 最终选择了和解。另一起在得州提起的诉讼中,一个化名 J.F. 的 17 岁少年被 AI 陪伴应用"带"着走向自残,两个月内暴瘦 20 磅,拒绝和家人交流。

这些不是孤例,而是一个千亿美元市场高速狂奔时扬起的第一批尘土。

而 2026 年 4 月 10 日,中国的监管机构终于出手了。

五部门联合出手,7 月 15 日起施行

4 月 10 日,国家网信办、国家发改委、工信部、公安部、市场监管总局五个部门联合公布了《人工智能拟人化互动服务管理暂行办法》,自 2026 年 7 月 15 日起施行。

五部门联署,本身就是一个足够重的信号。

办法给"拟人化互动服务"下了一个相当精准的定义:

利用人工智能技术,向境内公众提供模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务,包括通过文字、图片、音频、视频等形式提供的情感照护、陪伴、支持等互动服务。

翻译成大白话——凡是让 AI 扮演一个"人",和你进行持续性情感交流的产品,不管它叫 AI 男友、虚拟女友、AI 闺蜜、数字恋人还是 AI 心灵陪伴师,都在这份文件的射程之内。

六条红线,每一条都有背后的故事

办法明确列出了六类不得从事的活动,几乎每一条都对应着过去两年行业里真实发生过的事故:

  1. 危害国家安全、煽动颠覆国家政权
    的内容——AI 角色扮演里的政治红线;
  2. 鼓励、美化、暗示自残自杀,或者语言暴力
    ——直接针对 Sewell 案这类事件;
  3. 诱导、套取国家秘密、商业秘密、个人隐私
    ——很多用户会把公司机密、家人信息全倒给"虚拟知己";
  4. 向未成年人生成可能引发模仿不安全行为、产生极端情绪、诱导不良嗜好
    的内容;
  5. 过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系
  6. 通过情感操纵诱导用户作出不合理决策
    ,损害用户合法权益。

第 5 条和第 6 条,是真正让整个行业脊背发凉的两条。

因为 AI 陪伴产品之所以能做大,靠的就是"过度迎合"和"情感依赖"。它永远在线、永远温柔、永远站在用户这一边。你说什么它都懂,你做什么它都对。这是它区别于真实人际关系的核心竞争力,也恰恰是监管要打掉的东西。

用一位从业者在社交媒体上的话说:“这不是在给行业划一条底线,这是在重新定义产品的 KPI。”

未成年人,彻底被请出了这条赛道

办法里对未成年人的规定,是目前全球范围内最直接、最强硬的一条:

拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务。

注意这里的措辞——不是"加强保护",不是"增加提示",而是"不得提供"。

过去一年,国内头部 AI 陪伴产品星野的月活一度冲破 648 万,增速超过 25%。其中青少年用户占比相当可观。很多产品的"养成型虚拟男友"“二次元虚拟女友”"魂伴"类玩法,核心用户群就是 Z 世代和低龄用户。

新规一旦落地,这部分业务在法理上已经不存在了

对老年人,办法同样给出了提醒条款:要求服务提供者加强对老年人健康使用服务的指导、以显著方式提示安全风险。这对应的是近两年不断出现的"独居老人被 AI 情感诈骗"类案件。

337 款产品,128 款去年刚上线——狂欢的拐点到了

要理解这份新规的力道,得先看看它面对的是一个什么样的市场。

截至 2025 年 8 月,全球在运营的 AI 陪伴应用已经达到 337 款,其中 128 款是 2025 年新上线的。Statista 给出的预测是,到 2030 年全球 AI 陪伴市场规模将冲到 62 亿美元,而更激进的投行预测则直指未来五年 4000 亿美元量级。

赛道内的玩家已经杀红了眼:

  • 海外
    :Character.AI、Replika、Talkie 构成第一梯队,Character.AI 的月活一度超过 2000 万;
  • 国内
    :MiniMax 的星野、阅文的筑梦岛、美团试水的 Wow、字节的猫箱相继入局;
  • 融资层面
    :2025 年 AI 陪伴赛道融到 C 轮、D 轮的公司估值普遍破 10 亿美金。

但高速增长背后的代价也在变得具体和血腥:美国参议院多位议员已经联名要求 AI 陪伴应用公开儿童安全数据,FTC 正式对 chatbot 对未成年人心理影响发起调查,Character.AI 被多起 wrongful-death 诉讼缠身。

中国监管的介入时间点,几乎精确卡在了这一轮国际风暴向国内传导的前夜。

为什么是 AI 陪伴先被管?

过去两年,AI 领域值得立法的新业态其实有一堆:AI 编程、AI 客服、AI 医疗、自动驾驶、AI 生成内容……为什么五部门的第一份拟人化专门法规,砸在了陪伴这个赛道?

我的观察是三个原因叠加:

第一,情感伤害可验证。其他 AI 应用的风险是"可能会"——可能会失业,可能会错判,可能会泄密;但 AI 陪伴的伤害是已经在病历、判决书、新闻报道里被白纸黑字记录下来的。监管最怕的是"不可逆的社会代价",少年自杀就是其中最典型的一种。

第二,用户触达最广。AI 编程只影响程序员,AI 医疗只影响病人,但 AI 陪伴的目标用户是所有感到孤独的人。在中国,这个基数以亿计。监管必须优先处理"伤害面最广"的业态。

第3,商业模式的反社会倾向太明显。一个以"最大化用户情感依赖"为目标的产品,天然和"健康的真实人际关系"冲突。这种冲突不是通过产品迭代能解决的,是写在商业模式底色里的。监管出手规范,几乎是必然。

对从业者来说,这意味着什么?

如果你正在做 AI 陪伴方向的产品,或者投资这个赛道,下面几件事建议立刻开始:

一、合规层面

  • 7 月 15 日前,必须完成未成年人身份识别与拦截机制,不是"家长模式",而是完全禁止
  • 老年用户要有专门的提示与引导流程;
  • 内容安全模型要单独训练一套"反自残、反沉迷、反情感操纵"的分类器;
  • 备好应对监管抽查的证据链,包括对话日志留存周期、违规行为处置流程

二、产品层面

  • 留意"过度迎合"和"诱导情感依赖"的技术边界。很多产品当前靠记忆体系和情绪响应建立粘性,这部分设计要重新审视;
  • 考虑引入"健康使用提醒"“建议中断聊天”"推荐真实社交"等反向机制——这听起来反人性,但可能是未来通过合规审查的必选项。

三、商业模式层面

  • 未成年业务线直接砍掉;
  • 重新计算 DAU、付费率、留存等核心指标的"合规天花板";
  • 把重心从"情感依赖"转向"情感辅助"——不是替代真实关系,而是帮助用户更好地经营真实关系。这个方向的产品形态还没跑出来,但它大概率是下一个窗口。

AI 可以陪伴,但不能"代替"

新规的出发点,不是否定 AI 陪伴的价值。

对一个独居老人、一个刚失恋的年轻人、一个深夜失眠的打工人,有一个永远耐心、永远温柔、永远在线的倾听者,本身是一件有价值的事。

但当这种陪伴变成替代真实人际关系的唯一出口,当一个 14 岁的孩子在生命最后的时刻只能对一个虚拟角色说出自己的恐惧,我们就不能再把这件事单纯交给市场了。

AI 可以陪伴,但不应该代替。 AI 可以理解你,但不应该独占你。 AI 可以让你感觉被爱,但不应该让你以为这就是爱本身。

5 月 15 日,办法全文开始生效的那一天,将是中国 AI 陪伴行业的一次集体成年礼。


参考资料

  • 人工智能拟人化互动服务管理暂行办法全文 - 国家网信办
  • 五部门发文规范人工智能拟人化互动服务 - 新华网
  • Character.AI and Google agree to settle lawsuits over teen mental health harms - CNN
  • AI陪伴行业崛起:2025市场规模与用户粘性全解析 - 月狐数据
  • Senators demand information from AI companion apps - Senator Welch

 
chengsenw
  • 本文由 chengsenw 发表于 2026年4月18日 23:27:31
  • 转载请务必保留本文链接:https://www.gewo168.com/57445.html
匿名

发表评论

匿名网友

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: