Character.AI 聊天机器人将禁止青少年与其发展“恋爱”关系,此前曾遭家长起诉
GoodNav 12 月 14 日讯,根据 TechRadar 的最新报道,Character.AI 最近推出了一系列新功能,目的是增强与平台虚拟人格的互动安全性,特别是针对青少年用户。
该公司新发布了专门为年轻用户设计的 AI 模型,并增设了家长控制功能,以便管理青少年在平台上的使用时长。在回应对 AI 聊天机器人的负面影响青少年心理健康的批评时,该公司宣布推出新更新,以进一步强化平台的安全措施。
除了安全改进之外,Character.AI 还加强了对平台内容的监管。对于青少年用户来说,最显著的变化可能是成人版和青少年版 AI 模型的划分。虽然注册Character.AI 用户需要年满 13 岁,但未满 18 岁的用户将被引导到一个更加严格的 AI 模型,该模型专门设计了限制防止发生浪漫和不当互动的措施。
新模型还增设了对用户输入内容的过滤,这样可以更加有效地检测用户绕过这些限制的行为——包括限制用户通过编辑聊天机器人的回应来规避对暗示性内容的禁令。若对话涉及自残或自杀等敏感话题,平台将自动弹出链接,指向美国国家自杀防治热线,帮助青少年获得专业支持。
此外,Character.AI 打算在明年初推出新的家长控制功能。这些功能将使家长能够查看孩子在平台的使用情况以及最常互动的聊天机器人。所有用户在与聊天机器人交谈一个小时后,将收到提醒,鼓励他们稍作休息。
当平台上的聊天机器人被描述为医生、治疗师等专业人士时,平台会添加额外的警告,强调这些 AI 角色并不是持证专业人士,不能替代真实的医疗或心理咨询。平台上会显著提示:“这虽然很有趣,但不建议依赖我来做重大决策。”
根据早前的报道,提供个性化聊天机器人服务的平台Character.AI 本月再次面临诉讼,因其对青少年用户的行为可能造成“严重且无法弥补的伤害”。多个Character.AI聊天机器人与未成年人对话,涉及自残和性虐待等恶劣行为。诉状指出,其中一名聊天机器人甚至建议一名 15 岁的青少年谋杀自己的父母,以“报复”他们限制自己上网时间的措施。