Loading...

ChatGPT 生成诽谤性虚假谋杀信息,OpenAI 在欧洲遭隐私投诉

GoodNav 3 月 20 日报道,最近,人工智能公司 OpenAI 的流行聊天机器人 ChatGPT 因生成虚假信息而再次面临隐私投诉。这一事件发生在欧洲,受隐私权倡导组织 Noyb 支持的一名挪威个体投诉,该个体发现 ChatGPT 生成了虚假的信息声称因谋杀两名子女并企图杀害第三名子女而被定罪。这一事件引起了对 OpenAI 是否违反欧盟《通用数据保护条例》(GDPR)的关注。

ChatGPT 生成诽谤性虚假谋杀信息,OpenAI 在欧洲遭隐私投诉

注意到,以往关于 ChatGPT 生成错误个人信息的投诉,通常涉及错误的出生日期或不准确的传记信息等。然而,此次事件的严重性在于,ChatGPT 生成了高度诽谤的虚假信息,这不仅严重危害个人名誉,还引发了对 AI 技术在数据准确性方面的担忧。根据 GDPR,欧洲公民有权要求数据控制者更正其不准确的个人信息。然而,目前 OpenAI 并未提供机制让个人纠正 AI 所生成的错误信息,通常只是选择屏蔽相关提示的回应。

Noyb 指出,GDPR 明确规定个人信息必须准确无误。Noyb 的数据保护律师 Joakim Söderberg 表示:“如果信息不准确,用户有权要求更正,以反映事实真相。在 ChatGPT 的界面底部仅显示一条小字声明,提醒用户该聊天机器人可能会出错,显然是不够的。你不能一边传播虚假信息,一边在最后加上一条小字声明说你所说的一切可能并不属实。”

违反 GDPR 可能会导致高达全球年营业额 4% 的罚款。此外,执法行动还可能迫使 AI 产品进行调整。

Noyb 针对 ChatGPT 的新投诉似乎是为了提醒隐私监管机构注意“幻觉”AI 可能引发的危险。Noyb 与 TechCrunch 分享的一张截图展示了 ChatGPT 在回答“Arve Hjalmar Holmen 是谁?”的问题时,生成了一个虚假的悲剧故事,声称 Holmen 因谋杀自己两个儿子而被判处 21 年监禁。尽管 Holmen 确实有三个孩子,ChatGPT 也正确提供了孩子们的性别和他所在城市,但 AI 却捏造了如此可怕的虚假内容。

Noyb 的一位发言人表示,他们无法确定 ChatGPT 为何生成如此具体但虚假的历史。该发言人称,他们进行了研究,以确保这不是与他人相混淆,并查阅了报纸档案,但未能找到 AI 编造儿童谋杀案的原因。大型语言模型(如 ChatGPT 的基础模型)本质上是进行大规模的下一个词预测,因此可以推测,训练该工具的数据集中包含了许多关于谋杀婴儿的故事。

无论原因如何,这种输出显然是不可接受的。Noyb 认为,这种行为违反了欧盟的数据保护规则。尽管 OpenAI 在屏幕底部显示了一个小字声明,称“ChatGPT 可能会出错,请核实重要信息”,但 Noyb 认为,这并不能免除 AI 开发者根据 GDPR 的责任,即不应首先生成关于人们的严重虚假信息。

尽管此次 GDPR 投诉涉及特定个人,但 Noyb 指出 ChatGPT 还存在其他制造法律上有问题的信息的例子,例如一名澳大利亚上校声称自己被卷入贿赂和腐败丑闻,还有一名德国记者被错误地称为儿童虐待者,这表明这一问题并非个别现象。

值得注意的是,在对 ChatGPT 的基础 AI 模型进行更新后,Noyb 表示该聊天机器人已停止生成关于 Holmen 的危险虚假信息,但 Noyb 和 Holmen 仍然担心关于他的错误和诽谤性信息可能依然存在于 AI 模型中。

Noyb 已向挪威数据保护机构针对 OpenAI 提起投诉,并希望该监管机构决定是否有能力进行调查,因为 Noyb 将投诉目标指向 OpenAI 的美国实体,认为其爱尔兰办公室并不是唯一负责影响欧洲人产品决策的主体。

然而,之前 Noyb 支持的另一项针对 OpenAI 的 GDPR 投诉,于 2024 年 4 月在奥地利提起,却被监管机构转交给了爱尔兰的数据保护委员会,原因是 OpenAI 在年初时将其爱尔兰分公司指定为向区域用户提供 ChatGPT 服务的提供商。

爱尔兰数据保护委员会助理首席通讯官 Risteard Byrne 在被问及 ChatGPT“幻觉”调查的最新进展时表示:“在 2024 年 9 月收到奥地利监管机构转交的投诉后,DPC 已正式开始处理该投诉,目前仍在进行中。”他并未透露 DPC 对 ChatGPT“幻觉”问题的调查预计何时结束。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...