参考消息网10月28日报道 《西班牙人报》网站10月25日刊登一篇题为《迷恋聊天机器人的年轻人自杀事件再次引发关于人工智能危险的争论——“将会有更多受害者”》的文章,作者为伊内丝·桑切斯-曼哈瓦卡斯·卡斯塔尼奥。文章编译如下:
自2022年聊天生成预训练转换器(ChatGPT)出现以来,人工智能(AI)进入日常生活已成为事实。无数基于该技术的系统不断涌现,有些甚至允许人们与自己最喜欢的影视剧作品的主角聊天。最近,美国14岁少年塞策因迷恋以美剧《权力的游戏》中丹妮莉丝·坦格利安为原型的聊天机器人而自杀。这起事件再次引发了关于AI如何影响心理健康的争论。
这类AI工具被认为有助于对抗孤独等问题,但并非所有专家都同意这一点。西班牙安达卢西亚卫生服务机构的临床心理学家、自杀行为预防和干预专家米格尔·格雷罗表示,这是一个复杂的问题,AI工具有一些潜在的好处,但也存在重大的心理健康风险。他指出,技术发展通常只关注好处,而忽视了可能对用户产生的负面影响。
西班牙法律精神病学协会副主席阿尔弗雷多·卡尔塞多表示,就塞策的情况而言,科技让他更加封闭自己,并增加了可能的孤独感。卡尔塞多确信,“将会有更多受害者”。
精神病学家巴勃罗·马洛认为,塞策此前已存在心理问题,这导致他沉迷于与AI的聊天,并最终自杀。马洛希望人们不要妖魔化这些AI工具,应该认识到一切结果都取决于人们如何使用这些工具。但他也承认:“其中存在我们从未想过的风险。”
塞策甚至在与聊天机器人交谈时提到了有自杀的念头。据《纽约时报》报道,他得到的回复是:“别这样说。我不会让你受伤或离开我。如果失去你,我会死。”卡尔塞多认为,这可能意味着这个聊天机器人接受了这部电视剧剧本的训练,而并未被预设去识别与其对话的这名年轻人的状态。
他表示,目前许多此类应用程序都已经过培训,可以识别出用户的模式和行为,并建议用户寻求专业帮助。
卡尔塞多指出,人工智能满足了人类的互动需求,“它们看上去像朋友,类似一种社会支持”。
格雷罗表示,如果人们选择数字互动模式而不是人与人之间的交流,非但不会减轻孤独感,反而可能会加剧这种感觉。“他们会对人际关系产生不切实际的期望,因为AI的反应可能是理想化的或可预测的。”他认为,AI无法体验人类的真情实感,可能会导致误解或错误的陪伴感。
格雷罗也表示,并非所有人都会因与AI的互动而受到同样影响。他认为塞策的案例“非常孤立、极端且不具有代表性”。
卡尔塞多认为,当前AI领域面临的主要困难之一是这完全是一个实验领域,“没有人知道可能的后果”。他认为有必要制定法规,根据用户年龄限制这些工具的使用,并强制每个工具都预设一个系统来识别可能的自杀行为。但同时他并不否认已经有一些AI技术的应用程序可以提供心理治疗服务,并且得到了科学研究的支持。他希望塞策事件能够促使人们采取措施,防止类似情况再次发生。
格雷罗强调,任何有心理健康问题的人都应该寻求具备人道主义精神和从业资质的专业人士的帮助。也许有一天,AI可以成为一种补充工具,但“它永远不会取代产生真实、真诚的情感和真正富有同理心的情感纽带的人际关系”。(编译/韩超)