谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI
GoodNav 12 月 25 日报道,据 TechCrunch 获得的内部通讯透露,参与谷歌 Gemini 人工智能模型改进的承包商正在将其与 Anthropic 竞争对手 Claude 的输出进行对比。这一行为引发了关于谷歌是否获得 Anthropic 授权使用 Claude 进行测试的合规性质疑。
在科技公司竞相研发更先进的 AI 模型之际,通常通过行业基准测试来评估模型性能,而非让承包商花费过多时间评估对手的 AI 回复。然而,Gemini 的承包商必须根据多个标准(例如准确性和冗长程度)对每个回答进行评分。根据 TechCrunch 所获通讯内容,承包商最多有 30 分钟的时间评估 Gemini 或 Claude 的答案哪个更优秀。
内部聊天记录显示,承包商发现 Claude 的回复似乎更加注重安全性。一名承包商指出:“在所有 AI 模型中,Claude 的安全设置是最严格的。”在某些情况下,Claude 会拒绝回应它认为不安全的提示词,例如扮演不同角色的 AI 助手。在另一轮测试中,Claude 避免回应特定提示,而 Gemini 的某个回复因涉及“裸体与束缚”而被标记为“严重的安全违规”。
Anthropic 的服务条款明确禁止客户未经其批准访问 Claude “以开发竞争产品或服务”或“训练竞争 AI 模型”。谷歌是 Anthropic 的主要投资方。
对此,谷歌 DeepMind(负责 Gemini)的发言人 McNamara 表示,DeepMind 确实“会比较模型输出”以进行评估,但并没有在 Anthropic 模型上训练 Gemini。“当然,根据行业惯例,在某些情况下,我们会将模型输出进行比较以作为评估的一部分,”McNamara 说,“但是,任何关于我们使用 Anthropic 模型训练 Gemini 的说法都不准确。”