OpenAI 正开发 ChatGPT“儿童版”,平衡青少年安全、用户自由与隐私保护
9 月 17 日消息,OpenAI 昨晚发布公告,阐述了其在青少年安全、用户自由与隐私保护三个原则之间的取舍与决策。
OpenAI 表示,这些领域存在一定冲突,因此需要在透明的前提下作出平衡。
OpenAI 强调,AI 对话涉及高度个人化的信息,其敏感程度可类比医生问诊或律师咨询。公司认为,这类信息应获得同等的“特权保护”,并正积极向政策制定者倡导这一立场。
为此,OpenAI 正研发更先进的安全功能,确保用户数据即便对公司员工也保持私密性。但公告同时指出,在特定情况下仍会有例外,例如自动化系统监测到严重滥用,或涉及生命威胁、他人安全风险、大规模网络安全事件时,数据可能被提交人工审核。
OpenAI 表示,其目标是在安全范围内尽可能保障用户的使用自由。随着模型可控性增强,用户的自由度也在逐步提升。例如,模型默认不会生成暧昧对话,但如成年用户主动提出,则应当提供;而涉及自杀相关内容时,模型不会提供实施指导,但若是成年用户要求帮助创作包含自杀情节的虚构作品,则应予以支持。OpenAI 称这一原则为 “把成年人当成年人对待”。
对于未成年人群体,OpenAI 明确优先考虑安全而非隐私和自由。ChatGPT 的使用对象设定为 13 岁及以上,公司正在研发年龄预测系统,以区分未成年人和成年人。
如果系统识别用户未满 18 岁,将自动进入青少年专属模式,屏蔽露骨性内容,并在用户表现出严重心理困扰时,可能联系家长或在紧急情况下通知执法部门。
如果无法确定年龄或信息不完整,系统将默认进入未成年人模式;成年人则可通过验证方式解锁完整功能。
针对未成年用户,OpenAI 制定了更严格的规则:
不允许生成暧昧对话;
不参与任何形式的自杀或自残话题,即便是在文学创作背景下;
若用户表现出自杀意图,OpenAI 将尝试联系家长,若无法联系则会在存在紧急危险时上报有关部门。
OpenAI 还宣布,将于本月内推出 家长控制功能,支持家长:
通过电子邮件邀请,将自身账户与子女账户(13 岁以上)关联;
管理 ChatGPT 针对青少年的行为规则;
控制是否启用记忆功能与聊天记录;
在检测到青少年处于严重心理危机时接收通知(如无法联系到家长则可能上报有关部门);
设定“禁用时段”,限制青少年在特定时间段使用 ChatGPT。
此外,面向所有用户的提醒功能仍将保留,例如在长时间使用时提示适度休息。