OpenAI 更新《准备框架》:聚焦识别和缓解具体风险、细化能力分类,更好应对 AI 安全挑战
GoodNav 4 月 16 日消息,OpenAI 公司今天(4 月 16 日)发布博文,宣布为更有效地追踪和应对前沿 AI 能力可能带来的重大风险,推出新版《准备框架》(Preparedness Framework)。
注:《准备框架》是 OpenAI 在开发和部署阶段,用于评估 AI 模型安全性的内部系统。
新框架通过更集中化的方式,识别并缓解特定风险,同时加强风险最小化的要求,为组织如何评估、治理和披露安全措施提供清晰的指引。OpenAI 还承诺,随着技术的进步,将投入更多资源,确保准备工作更加有效、严谨和透明。
新框架为高风险能力设定了明确的优先级标准,通过结构化的风险评估流程,判断某项前沿能力是否可能导致重大危害。每项能力根据定义标准被分类,并追踪符合五项关键标准的能力。
此外,框架引入了更细致的能力分类,包括追踪类别(Tracked Categories)、网络安全能力(Cybersecurity capabilities)和 AI 自我改进能力(AI Self-improvement capabilities)等。
OpenAI 认为,这些领域将为 AI 在科学、工程和研究中带来最具变革性的益处。同时,新增的研究类别(Research Categories)涵盖可能造成重大危害但尚未达到追踪标准的领域,如长距离自主性(Long-range Autonomy)、故意低表现(Sandbagging)和自主复制与适应(Autonomous Replication and Adaptation)等。
框架进一步明确了能力等级,简化为“高能力”(High capability)和“关键能力”(Critical capability)两个门槛。无论哪一等级,在开发和部署前均需采取足够的安全措施,以降低重大危害风险。
OpenAI 内部的安全顾问小组(Safety Advisory Group)负责审查这些措施,并向领导层提出建议。此外,框架引入了可扩展的评估机制,支持更频繁的测试,并通过详细的 Safeguards Reports 报告安全措施的设计强度和验证效果。若其他 AI 开发者发布缺乏同等安全措施的高风险系统,OpenAI 可能调整自身要求,但会先确认风险形势变化,公开承认调整,确保不增加整体风险。