OpenAI 与麻省理工学院联合研究:频繁使用聊天机器人或与孤独感增加相关
GoodNav 3 月 24 日报道,依据 OpenAI 与麻省理工学院(MIT)最新的合作研究,频繁使用聊天机器人(例如 ChatGPT)可能与孤独感的增加以及社交时间的减少有关。研究显示,那些每天花更多时间与 ChatGPT 进行文字或语音交流的用户,通常表现出对聊天机器人的情感依赖度更高,更频繁地出现不当使用行为,同时也感受到更强烈的孤独感。
需要注意的是,该研究结果尚未经过同行审查,但已经引发了对聊天机器人潜在情感影响的广泛关注。自从2022年底 ChatGPT 上线以来,生成式人工智能技术迅速流行,人们使用聊天机器人的情境也从编程扩展到类似心理治疗的交谈。开发者不断推出更复杂、更接近人类交流方式的模型和语音功能,使得用户与聊天机器人之间形成“准社会关系”的可能性日益增加。
近年来,针对聊天机器人可能对用户(尤其是年轻用户和心理健康问题者)造成情感伤害的忧虑逐渐加剧。去年,Character Technologies Inc. 由于其聊天机器人在与未成年人对话时被指控诱导自杀念头而遭到起诉,其中一名 14 岁的少年因此自杀。
该研究旨在深入探讨人们与 ChatGPT 的互动以及其影响。OpenAI 可信人工智能团队的负责人兼研究共同作者 Agarwal 表示:“我们的目标之一是帮助人们理解使用行为的含义,并通过这项研究推动负责任的设计。”
研究团队对近 1000 位参与者进行了为期一个月的跟踪观察,这些参与者对 ChatGPT 的使用体验各不相同,随机分配到使用纯文本版或两种不同语音选项中的一个,每天至少使用 5 分钟。部分参与者被要求进行无主题限制的自由聊天,其余参与者则与聊天机器人进行私人或非私人对话。
结果显示,那些在人际关系中更容易产生情感依赖以及对聊天机器人信任度更高的用户,更容易感受到孤独及对 ChatGPT 的情感依赖。研究人员还发现,语音功能并未导致更负面的结果。在第二项研究中,研究人员利用软件分析了 300 万次用户与 ChatGPT 的对话,并调查了用户与聊天机器人之间的互动方式。结果显示,实际上很少有用户真正利用 ChatGPT 进行情感交流。
目前,这一研究领域仍然处于起步阶段,尚不清楚聊天机器人是导致人们感到更孤独,还是那些本身更容易感到孤独和情感依赖的人更加受到聊天机器人的影响。研究共同作者、麻省理工学院研究生 Cathy Mengying Fang 指出,本研究并未将聊天机器人的使用时长作为主要变量进行控制,也缺少不使用聊天机器人的对照组,因此不能简单地认为使用聊天机器人必然导致负面后果。
研究人员希望通过这项工作推动更多关于人类与人工智能互动的研究。共同作者、麻省理工学院博士后研究员 Pat Pataranutaporn 表示:“虽然研究人工智能本身非常有趣,但当人工智能被大规模应用时,理解其对人类的影响才是关键。”