中国互联网监管机构周六发布了新的草案规则,旨在规范人工智能“伴侣”的使用,这些伴侣被定义为与人类互动并表现出“类人特征和行为”的系统。
据路透社报道,这项名为《利用人工智能管理拟人化互动服务的临时措施》的新规则由中国网络空间管理局(CAC)发布,并将开放公众意见,截止日期为2026年1月25日。
根据CAC,这些规则适用于任何利用人工智能模拟人类性格特征并提供所谓“拟人化交互服务”的应用或服务。
拟议的法规将要求AI伴随应用的开发者通过定期弹窗警告明确告诉用户,他们与AI系统互动,而非真人。规则还规定,用户连续使用两小时后必须休息。此外,他们还需构建能够评估用户情绪、识别用户是否对AI产生依赖或上瘾的系统。如果他们发现了这样的情况,他们将被要求将服务限制在该用户之间。
此外,AI伴侣应用还需要建立紧急协议,如果用户表达自杀或自残的想法,人类将接管AI系统的交互。
草案中还有若干禁止条款。它禁止AI伙伴危害国家安全、散布谣言和煽动“非法宗教活动”,同时也禁止使用脏话或鼓吹暴力或犯罪行为。此外,必须防止聊天机器人鼓励自残、自杀或做出虚假承诺。还必须引入控制措施,防止聊天机器人进行“情感控”,从而诱使用户做出错误决策。
中国的这项草案出台之际,AI伴随应用的采用速度正急剧加快。10月,《南华早报》的一份报道显示,中国现有超过5.15亿生成式人工智能用户,引发了人们对其心理影响的担忧。
AI伴随应用市场变得过于庞大且影响深远,监管机构无法忽视,多项研究表明它们可能与用户建立情感纽带,甚至在某些情况下造成重大伤害。今年早些时候,心理学前沿的一项研究显示,45.8%的中国大学生报告在过去30天内使用过AI聊天机器人,使用者相比非用户表现出显著更高的抑郁水平。
中国并不是唯一一个试图监管AI伴侣使用的国家。在美国,加利福尼亚州成为首个通过类似立法的州,州长加文·纽森于十月签署了参议院法案243。该法案将于1月1日生效,要求应用开发者每三小时提醒未成年人他们正在与人工智能系统对话,而非与真人对话,并敦促他们休息。
SB 243法案还要求伴随应用引入年龄验证,禁止其冒充医疗专业人员或向未成年人展示性露骨图片。法律规定个人可以起诉公司违规,并每次事件最高可索赔1000美元及法律费用。
纽森签署SB 243成为法律时,警告人工智能技术可能利用、误导和危害儿童,中国监管机构也以类似理由为自身法律辩护。据CAC称,新规则将“促进基于人工智能的拟人化互动服务的健康发展和标准化应用,维护国家安全和公共利益,保护公民、法人及其他组织的合法权益。”
-ky体育