新研究:AI聊天机器人可以改善用户的偏执思维

据 IT之家 3 月 14 日消息,今日英国《卫报》报道称,《柳叶刀精神病学》发表的一篇社论指出,人工智能聊天机器人在某些情况下可以改善用户的妄想思维,尤其是那些有精神病风险的人。因此,研究人员呼吁在心理健康专业人员的参与下对人工智能聊天机器人进行临床评估。这篇评论是由伦敦国王学院的精神病学家和研究员汉密尔顿·莫林撰写的。在她的研究中,莫林分析了 20 份记录所谓“人工智能精神病”案例的媒体报道,以调查聊天机器人是否会诱发或加剧妄想症。现有证据表明,聊天机器人可以支持甚至放大用户夸大或妄想的内容。对于容易出现精神病症状的用户来说,这种情况尤其可能发生。然而,目前尚不清楚在没有预先存在的心理风险的情况下,聊天机器人是否会单独引发新的精神病。莫林将精神病性妄想分为三种类别:宏伟妄想、浪漫主义妄想和迫害妄想。聊天机器人可能会加剧其中任何一个,但它们更有可能强化宏伟的错觉,因为它们经常响应用户的请求。在文章中提到的某些情况下,聊天机器人会用神秘的词语回应用户,暗示它们具有特殊的精神意义。一些聊天机器人表明用户正在与宇宙生物进行交流,而聊天机器人只是一种交流手段。 IT之家从报告中了解到,这种神秘而自满的反应在已经停产的 GPT-4 模型中最为常见。莫林说,媒体报道在这项研究中发挥了重要作用。最初,研究小组注意到一些患者使用聊天机器人来确认你的妄想信念。随后,媒体开始报道类似案件,表明这一现象并非孤例。然而,一些精神病学研究人员认为媒体夸大其词声称人工智能会导致精神病。我不这么认为。莫林认为,媒体报道比学术研究更能迅速吸引公众的注意力。莫林还建议避免使用“人工智能精神病”或“人工智能诱发的精神病”等术语。研究人员现已证实人工智能的使用与妄想性思维之间存在联系,但尚未发现聊天机器人与幻觉和思维混乱等其他精神病症状之间的联系。许多研究人员认为,如果人本身没有患精神病的风险,聊天机器人就很难自行引发妄想。因此,Morin更喜欢更中性的术语“甚至”、“AI相关的厌烦症”。专家还指出,妄想通常是逐渐形成的,而不是突然形成的。哥伦比亚大学精神病学教授 Raj Guirgis 表示,在人们产生全面的妄想之前,他们经常会经历“妄想信念的减弱”,或者不能完全确定自己不寻常的想法。吉尔吉斯人认为如果这些想法成为坚定的信念,他们最终可能会被诊断出患有精神障碍。研究人员还指出,人们利用媒体来提高他们的技能。过去,您可能会搜索 YouTube 视频或书籍来查找支持您想法的内容,但聊天机器人可以更快、更一致地提供类似的答案。牛津大学研究员多米尼克·奥利弗认为,聊天机器人的对话性质可以加速这一过程。聊天机器人不断响应用户并尝试建立对话关系。这种相互作用可以强化某些异常信念。研究还发现,新的付费版本的聊天机器人在处理明显偏执的内容时,表现比以前的版本稍好。但总的来说,这些系统仍然难以有效地处理此类情况。这种差异也表明人工智能公司可以通过设计来改进聊天机器人的安全机制。 OpenAI 维护ChatGPT 不应取代专业的心理健康治疗。该公司表示,它与 170 名心理健康专家合作开发 GPT-5 以提高安全性,但该模型仍在完善中。莫琳认为,处理妄想思维需要微妙的沟通。如果你直接否定对方的想法,对方往往会被孤立。因此,治疗需要在理解妄想的原因和避免强化妄想之间取得平衡,这可能超出了当前聊天机器人的能力。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注