OpenAI AI 安全策略遭质疑,前高管批评其“篡改公司历史”
GoodNav 于 3 月 7 日报道,外媒 Wccftech 在当地时间 6 日获得消息,OpenAI 最近向社区介绍了其谨慎和逐步部署 AI 模型的方法,采取了分阶段发布的策略,并以 GPT-2 的谨慎发布为案例。然而,这一例子引发了前 OpenAI 政策研究员 Miles Brundage 的批评,他指责公司扭曲了 AI 安全的历史。
OpenAI 发布的文件清晰地说明了其对 AI 安全及模型部署的看法。文件强调,公司在处理当前系统时始终保持谨慎,提到 GPT-2是其谨慎发布策略的一部分。公司“相信”只有通过对现有工具的学习,才能确保未来系统的安全。
附文件部分内容的大意如下:
在一个不连续的世界中……安全的教训源于对当今系统的高度谨慎,特别是针对它们展现出来的能力,这正是我们对 GPT-2 的方法。我们现在将第一个 AGI 视为逐步增强有用性的系统的一部分……在连续的世界中,确保下一个系统安全且有利的方法是从当前系统中学习。
曾在公司担任政策研究负责人多年的 Miles Brundage 坚持认为,GPT-2 的发布同样采取了逐步推进的方式,OpenAI 在每个阶段都提供了相关信息,安全专家也对此表示认可,认为公司在处理模型时十分谨慎。他指出,GPT-2 的逐步发布与公司现在的逐步部署策略是一致的,并坚信过去的谨慎是必要的,且负责任的。
“这篇文章大部分内容都很好,我为那些致力于文中提及工作的人的努力点赞。但我对‘AGI 将通过分步骤实现而非一蹴而就’的论述感到不满/担忧,这种说法以一种不安的方式重写了 GPT-2 的历史。”
Brundage 还表达了对 OpenAI 声称 AGI 将通过逐步发展而非突发突破的看法的担忧。他指出,公司歪曲了 GPT-2 的发布历史并篡改了安全的历史,这一行为令人担忧。他进一步表示,OpenAI 发布文件的目的可能是为安全问题设定标准,或视这些问题为过度反应,这可能带来巨大的风险,特别是在 AI 系统不断进步的背景下。
这并不是 OpenAI 第一次因追求进步和利润而忽视长期安全问题而受到批评。像 Brundage 这样的专家们担心,如果不对 AI 安全保持足够谨慎,未来可能面临的风险将十分严重。