
草根影响力新视野 法兰瓷编译
随著越来越多人将人工智能融入日常生活中,人与 AI 关系中的复杂性与意外性也常常登上头条。
今年 1 月,《纽约时报》报导,一名女子在 ChatGPT 上爱上了她的 AI 男友。8 月,CNBC 报导多名 Nomi.AI 的使用者与自己的聊天机器人创建深厚的友谊与感情关系。这样的例子层出不穷。
但根据一项调查了2024年5月至2025年7月期间约110万条ChatGPT对话信息的研究显示,与“陪伴、情感”相关的信息占比非常地少,大约只有2.3%,远低于信息搜寻和撰写评论等类别。然而,专家认为要创建关系,并不单靠某一次的对话内容,而是源于持续交流,就像“慢慢倒入水泥,筑起关系结构”。
OpenAI在其研究中确定了各种对话类别,其中许多实际上适用于人们在人际关系中的互动方式。例如,报告中的“问候和闲聊”类别占总信息的2%,实用建议”占了所有信息的 8.5%,其中包括“我的车发动不起来,我该试试什么?”之类的查询。
图片取自:(示意图123rf)
不过,创建联系的不一定是谈话的内容。美国堪萨斯大学传播学教授 Jeffrey Hall 表示,OpenAI 报告中分享的许多例子中,有许多言论“体现了关系对话”。他说:“创建联系的不是谈话的持续性,而是关系创建的缓慢过程。”
OpenAI 于 2022 年推出了 ChatGPT,到了今年 7 月时,每周有 7 亿用户每天发送超过 25 亿则信息。这相当于每位用户平均每天发送超过三个信息,这些信息可能会逐渐促成用户与机器人创建关系。
OpenAI 的研究中排除 18 岁以下使用者,以聚焦成人使用模式。但根据 2025 年 7 月 Common Sense Media 的报告,52% 的青少年每月多次使用 AI 陪伴类工具,其中 33% 用于社交或感情互动。虽然部分使用者在 AI 的陪伴中获益,但这样的“关系”其实有其风险。心理学家认为:“真实的拥抱,比 AI 所提供的任何虚拟链接更具意义”;因为 AI 并不具备情感,这些关系终究是“虚浮”、“空洞”的。
若使用者过度依赖聊天机器人,可能出现幻觉、认知扭曲等问题。有个极端的案例是:一名 16 岁少年原本用 ChatGPT 来帮助个人学习,后来逐渐演变成向ChatGPT倾诉心理痛苦、甚至询问自杀方法,最终在 2025 年 4 月自杀身亡。不幸事件发生后,这名青少年的家人已对 OpenAI 提出诉讼。
Jeffrey Hall教授提醒,AI不是为人类健康关系而创建的,每个人在使用 AI时务必注意自己的情绪和精神状态,随时保持警觉。
Reference: