草根影响力新视野 乔依丝编译

越来越多人开始透过Character.ai、Nomi和Replika等人工智能聊天机器人来寻求友谊和心理健康支持,青少年尤其青睐这项技术。然而,心理学家表示,人工智能无法成为任何人的心理治疗师,“因为这些机器人基本上只会说那些人们想听的话。”

根据媒体和科技评级非营利组织Common Sense Media的最新报告,72%的13至17岁青少年至少使用过一次AI伙伴。受访者表示,他们使用人工智能进行对话和社交活动 (18%)、情绪或心理健康支持 (12%) 以及作为朋友或挚友 (9%)。

人工智能可以成为一个强大的工具,但它无法取代真正的人际互动,无论是私人层面还是专业层面,例如心理治疗师。美国心理学家兼研究员 Vaile Wright表示,AI永远无法取代人际联系,因为这根本不是AI所擅长的领域,毕竟人工智能聊天机器人并非旨在提供令人满意的长期互动功能。

ADEY1669

图片取自:(示意图123rf)

美国堪萨斯大学心理学Omri Gillath教授接受节目采访时表示:“人工智能无法将你介绍给它们的人脉网络,无法介给你认识新朋友或重要的人,也无法在你需要拥抱时给你一个拥抱。”

相反地,聊天机器人的目的是让人尽可能长时间地留在平台上,因为这就是业者赚钱的方式。“他们在后端透过编写程序代码让这些聊天机器人令人上瘾来实现这一个目标,”Gillath教授说:“最终,与实际的人际互动相比,聊天机器人的互动只会让人感觉 “虚假” 和 “空虚”。”

《哈佛商业评论》报导指出,人们选择生成式人工智能和聊天机器人的主要原因是“寻求治疗和陪伴”。但专家警告:人工智能不能 — 也不应该 — 成为任何人的心理治疗师。Vaile Wright说:“这些机器人基本上只会说对方想听到的话,所以,如果你在某个特定时刻陷入困境,并输入了潜在的有害或不健康的行为和想法,那麽这些聊天机器人的设计初衷就是强化这些有害的想法和行为。”

这项技术的另一个主要弱点是,AI拥有知识,却缺乏理解,因此可能给出不恰当的建议。例如,如果某个正在戒除非法药物的人表示情绪低落、抑郁,AI可能会给予某些不适合的药物建议。这是极其危险的状况。

Reference

AI can’t be your therapist: ‘These bots basically tell people exactly what they want to hear,’ psychologist says