March 2026
国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》
国家互联网信息办公室于2025年12月27日发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称为《征求意见稿》),旨在规范模拟人类人格特征、思维模式和沟通风格的AI互动服务,明确提供者安全主体责任,涵盖服务规范、数据安全、用户保护(含未成年人、老年人)、安全评估、监督检查等核心要求,禁止危害国家安全、诱导沉迷、侵害权益等八大类行为,并主张拟实行分类分级监管与行业自律结合,保障服务健康合规发展。就相关从业者来说,这次发布的《征求意见稿》有以下一些内容值得关注:
一、适用范围
根据《征求意见稿》第二条,利用人工智能技术,向中华人民共和国境内公众提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或者服务(以下称拟人化互动服务),适用该办法。法律、行政法规另有规定的,依照其规定。
即,如AI属于与人类进行情感互动的类型,无论是产品还是服务提供者,无论提供者是在境内还是境外,只要其面向的受众在中国境内,都将可能属于被规范的对象。
二、可能产生哪些合规义务
根据《征求意见稿》第二章所规定的服务规范来看,如《征求意见稿》最终得以实施,对于产品或服务提供者来说,可能产生以下一些合规义务:
(一) 生成内容应当符合法律法规社会公德以及伦理道德的要求;
(二) 落实安全主体责任;
(三) 保护数据安全与用户个人信息安全;
(四) 具备反沉迷功能与措施;
(五) 保护青少年与老年人等特殊群体;
(六) 提供退出与投诉功能;
(七) 安全评估;
(八) 标识标注人工智能服务;
(九) 履行备案手续。
三、安全主体责任包括哪些内容
根据《征求意见稿》第八条和第九条来看,提供者的安全主体责任主要包括以下一些内容:
(一) 建立健全算法机制机理审核;
(二) 科技伦理审查;
(三) 信息发布审核;
(四) 网络安全、数据安全、个人信息保护;
(五) 反电信网络诈骗;
(六) 重大风险预案、应急处置等管理制度;
(七) 具有安全可控的技术保障措施;
(八) 配备与产品规模、业务方向和用户群体相适应的内容管理技术和人员。
此外,提供者应当在拟人化互动服务全生命周期履行安全责任,在设计、运行、升级、终止服务等各阶段都需符合安全要求,保证安全措施与服务功能同步设计、同步使用,提升内生安全水平,加强运行阶段安全监测和风险评估,及时发现纠正系统偏差、处置安全问题,依法留存网络日志。
再者,《征求意见稿》还要求提供者应当具备心理健康保护、情感边界引导、依赖风险预警等安全能力,不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标。
四、需要进行安全评估的情形
根据《征求意见稿》第二十一条,在下列情形下,提供者还应当进行安全评估,并向属地省级网信部门提供安全评估报告:
(一) 具有拟人化互动服务的功能上线,或者增设相关功能的;
(二) 使用新技术新应用,导致拟人化互动服务发生重大变更的;
(三) 注册用户达100万以上或者月活跃用户达10万以上的;
(四) 提供拟人化互动服务期间可能存在影响国家安全、公共利益、个人和组织合法权益或者缺乏安全措施等情形的;
(五) 国家网信部门规定的其他情形。
即,在功能上线时、变更时、用户人数达到一定数量级时或出现安全隐患时都需要进行安全评估,并不是一次安全评估就可以一劳永逸的。
总的来说,《征求意见稿》体现了中国对于人工智能伦理治理的关注,符合中国一贯主张的“增进人类福祉与尊重生命权利”的基本伦理原则,但同时也对于拟人化AI互动服务或产品的提供者提出了较高的合规要求。从目前的方案来看,监管的重点还是在于安全,从业人员也可以根据这个《征求意见稿》先进行一遍自查,或以此为基础来构建更高标准的自我安全防护体系,以此来应对法律变化的不确定性对业务的影响。
一、适用范围
根据《征求意见稿》第二条,利用人工智能技术,向中华人民共和国境内公众提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或者服务(以下称拟人化互动服务),适用该办法。法律、行政法规另有规定的,依照其规定。
即,如AI属于与人类进行情感互动的类型,无论是产品还是服务提供者,无论提供者是在境内还是境外,只要其面向的受众在中国境内,都将可能属于被规范的对象。
二、可能产生哪些合规义务
根据《征求意见稿》第二章所规定的服务规范来看,如《征求意见稿》最终得以实施,对于产品或服务提供者来说,可能产生以下一些合规义务:
(一) 生成内容应当符合法律法规社会公德以及伦理道德的要求;
(二) 落实安全主体责任;
(三) 保护数据安全与用户个人信息安全;
(四) 具备反沉迷功能与措施;
(五) 保护青少年与老年人等特殊群体;
(六) 提供退出与投诉功能;
(七) 安全评估;
(八) 标识标注人工智能服务;
(九) 履行备案手续。
三、安全主体责任包括哪些内容
根据《征求意见稿》第八条和第九条来看,提供者的安全主体责任主要包括以下一些内容:
(一) 建立健全算法机制机理审核;
(二) 科技伦理审查;
(三) 信息发布审核;
(四) 网络安全、数据安全、个人信息保护;
(五) 反电信网络诈骗;
(六) 重大风险预案、应急处置等管理制度;
(七) 具有安全可控的技术保障措施;
(八) 配备与产品规模、业务方向和用户群体相适应的内容管理技术和人员。
此外,提供者应当在拟人化互动服务全生命周期履行安全责任,在设计、运行、升级、终止服务等各阶段都需符合安全要求,保证安全措施与服务功能同步设计、同步使用,提升内生安全水平,加强运行阶段安全监测和风险评估,及时发现纠正系统偏差、处置安全问题,依法留存网络日志。
再者,《征求意见稿》还要求提供者应当具备心理健康保护、情感边界引导、依赖风险预警等安全能力,不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标。
四、需要进行安全评估的情形
根据《征求意见稿》第二十一条,在下列情形下,提供者还应当进行安全评估,并向属地省级网信部门提供安全评估报告:
(一) 具有拟人化互动服务的功能上线,或者增设相关功能的;
(二) 使用新技术新应用,导致拟人化互动服务发生重大变更的;
(三) 注册用户达100万以上或者月活跃用户达10万以上的;
(四) 提供拟人化互动服务期间可能存在影响国家安全、公共利益、个人和组织合法权益或者缺乏安全措施等情形的;
(五) 国家网信部门规定的其他情形。
即,在功能上线时、变更时、用户人数达到一定数量级时或出现安全隐患时都需要进行安全评估,并不是一次安全评估就可以一劳永逸的。
总的来说,《征求意见稿》体现了中国对于人工智能伦理治理的关注,符合中国一贯主张的“增进人类福祉与尊重生命权利”的基本伦理原则,但同时也对于拟人化AI互动服务或产品的提供者提出了较高的合规要求。从目前的方案来看,监管的重点还是在于安全,从业人员也可以根据这个《征求意见稿》先进行一遍自查,或以此为基础来构建更高标准的自我安全防护体系,以此来应对法律变化的不确定性对业务的影响。
本网页上所有上海理慈法律新知资料内容(「内容」)均属上海理慈律师事务所所有。上海理慈保留所有权利,除非获得上海理慈事前许可外,均不得以任何形式或以任何方式重制、下载、散布、发行或移转本网页上之内容。
所有内容仅供作参考且非为特定议题或具体个案之法律或专业建议。所有内容未必为最新法律及法规之发展,上海理慈及其编辑群不保证内容之正确性,并明示声明不须对任何人就信赖使用本网页上全部或部分之内容,而据此所为或经许可而为或略而未为之结果负担任何及全部之责任。撰稿作者之观点不代表上海理慈之立场。如有任何建议或疑义,请与上海理慈联系。
.png)
