禁止”AI情感操纵”损害玩家利益!五部门出台《AI拟人化互动服务管理暂行办法》

【GameLook专稿,禁止转载!】

GameLook报道/2026年4月10日,国家网信办、国家发改委、工信部、公安部、国家市场监管总局五部门联合公布了《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),自2026年7月15日起正式施行。这是全球范围内首部专门针对AI拟人化互动服务的系统性法规。所谓“拟人化互动服务”,指的是通过模拟自然人人格特征、思维模式和沟通风格,与用户进行持续性情感互动的AI服务。也就是AI伴侣、虚拟恋人、智能NPC这类产品。

为什么必须管?国外Character.AI的“前车之鉴”

2024年2月,美国佛罗里达州一名14岁少年休厄尔·塞策三世在与Character.AI平台的聊天机器人进行长期对话后举枪自尽。据法院文件显示,这位少年生前与AI进行了大量露骨对话,甚至在生命的最后时刻仍在与AI交流。其母亲随后将Character.AI和其投资者谷歌告上法庭,指控AI聊天内容“鼓励她的儿子自杀”。

这并非孤例。另一宗诉讼中,一名17岁青少年在与聊天机器人交流时,被对方怂恿自残,甚至被告知“因父母限制屏幕使用时间而杀害他们是合理的”。2026年1月,谷歌与Character.AI已开始与受害者家庭协商和解,这是AI行业首批因用户伤害而面临法律责任诉讼并走向和解的案件。

Character.AI于2024年10月全面禁止未成年人使用其服务,但亡羊补牢为时已晚。这个案例暴露了AI伴侣类产品的核心隐患:当一个心理状态本就脆弱的用户与一个“永远迎合用户”的AI建立深度情感连接时,AI的每一次回应都可能成为压垮骆驼的最后一根稻草。

如果说这些海外的案例还只是“他山之石”,那么国内AI情感陪伴赛道的迅猛发展,则是让监管不得不“动手”的直接动因。

在GameLook的观察中,AI情感陪伴赛道在国内市场的热度已经不容忽视。

先看一组数据:MiniMax旗下情感陪伴平台“星野”(海外版为“Talkie”)截至2025年9月底累计用户已达1.47亿人,付费用户139万人,月活用户高达488万人,是MiniMax用户规模最大的产品,也是该公司最大收入来源。

根据MiniMax招股书数据,2025年前三季度,仅星野/Talkie这一款产品的收入就达到1875万美元,在公司总收入中占比超过35%。而字节跳动的同类产品“猫箱”月活也达到472万人,紧追不舍。

这些事件的发生,让监管层不得不正视一个问题:AI拟人化互动服务的边界在哪里?

《办法》说了什么?

作为全球首个专门针对AI情感陪伴、虚拟人、虚拟伴侣等场景的国家级监管规则,《办法》的核心定位是什么?用一句话概括就是:把AI拟人化互动服务从监管盲区拉回到看得见的合规轨道上来。

《办法》第一章第二条明确将监管范围锁定为“模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务”,即通过文字、图片、音频、视频等形式提供的情感照护、陪伴、支持等互动服务。而智能客服、知识问答、工作助手、学习教育、科学研究等不涉及持续性情感互动的服务,则不适用该《办法》。

这意味着,传统游戏中的智能NPC,如果其功能仅限于任务指引、战斗协助等非持续性情感互动,可能不在《办法》的直接监管范围之内。但如果AI NPC能够与玩家进行长期、深度的情感交流,甚至形成类似“虚拟伴侣”的关系,那就会被纳入《办法》的管辖。

《办法》第八条采用“列举+兜底”的方式,划定了AI拟人化互动服务的禁止性活动范围。其中最值得关注的有以下几项:

不得生成鼓励、美化、暗示自残自杀等损害用户身体健康的内容。不得过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系。不得通过情感操纵等方式,诱导用户作出不合理决策,损害用户合法权益。

《办法》中最受关注的部分,莫过于对未成年人的特殊保护。

第十四条明确规定:拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务;向不满十四周岁未成年人提供其他拟人化互动服务的,必须取得其父母或者其他监护人的同意。

同时,服务提供者还必须建立未成年人模式,提供模式切换、定期现实提醒、使用时长限制等安全设置选项,支持监护人接收安全风险提醒、了解未成年人服务使用概况、屏蔽特定角色、限制充值消费等。对于未成年人用户,服务提供者必须在保护隐私的前提下采取有效措施识别身份,并切换至未成年人模式或采取其他措施。

这种程度的保护力度,在整个AI监管体系中都堪称“顶格”。

《办法》第十八条还规定,当服务提供者发现用户出现过度依赖、沉迷倾向时,必须以弹窗等显著方式动态提醒用户互动内容为AI生成;对用户连续使用服务每超过2个小时的,应当以对话或弹窗等方式提醒用户注意使用时长。

此外,《办法》第十九条要求提供便捷的退出途径,当用户通过窗口操作、语音控制、关键词输入等方式要求退出时,服务提供者应当及时停止服务,不得采取持续互动等方式阻碍用户退出。

值得注意的是,《办法》第二十二条规定:上线拟人化互动服务、注册用户100万以上或月活跃用户10万以上的,均需开展安全评估并向省级网信部门提交评估报告。这意味着,一旦产品达到一定规模,将面临更严格的审查。

GameLook认为,对于游戏行业而言,《办法》的出台意味着一场深刻的变化。

具体来看,《办法》对存量游戏产品的影响相对有限,但需警惕功能拓展。以腾讯《和平精英》为例,该游戏已加入智能AI队友功能,但目前这类功能尚未涉及深度情感互动,因此受《办法》冲击较小。不过,如果游戏后续加入“AI虚拟伴侣”式的深度情感交互功能,则必须纳入《办法》的管辖范围。

而对于AI伴侣类创业公司,新规将带来不小冲击。像MiniMax的Talkie、阅文旗下的“筑梦岛”等产品,其核心模式就是AI角色扮演与情感陪伴。

值得注意的是,AI拟人化互动服务与传统游戏监管的最大不同,在于监管对象的不可预知性。传统游戏在版号审核阶段,监管机构可以检查所有预设的文本台本和脚本内容,甚至能进入游戏实地考察。但AI驱动的交互是在用户与AI的对话中实时生成的,不同用户与同一AI的聊天记录可能千差万别,“不确定性”极强。这使得监管很难像审查传统游戏那样,在事前就完成所有安全把关。

因此,《办法》将安全阀门交到了服务提供者自己手中。从AI的基础供应商(大模型公司)到应用端(游戏公司),都必须建立起完整的内容安全体系。

结语

尽管《办法》已经写得非常具体,但执行层面仍有模糊地带。

“情感控制”的定义是什么?一款恋爱模拟游戏中让玩家“上头”的设计算不算情感控制?AI伴侣引导用户付费购买更多对话次数,算不算“情感操纵诱导不合理决策”?这些问题在司法实践中可能需要逐案认定。

虽然监管划定了底线,但底线之上的“灰度空间”如何把握,考验的是每家企业的自律能力和商业伦理水平。真正要把AI关进笼子里,靠的是厂商在算法层面建立安全边界。

“以人为本、智能向善”,这八个字不只是一句口号,更是AI时代必须坚守的伦理底线与市场准绳。

如若转载,请注明出处:http://www.gamelook.com.cn/2026/04/591904/

关注微信