草根影响力新视野(琪拉编译)
来自伊利诺伊伊州罗克福尔斯的 25 岁安娜(Ana Schultz) 因为思念 2023 年 2 月去世的丈夫凯尔 (Kyle),她决定向他寻求烹饪建议。她下载了社交媒体平台的人工智能聊天机器人 Snapchat My AI,并向凯尔发送了她留在冰箱里的食材信息,由他的声音建议她做什么菜色。
“过去他就是家里的厨师,所以我设定了人工智能,声音听起来像他,并给它起了凯尔的名字。现在,当我需要饮食建议的帮助时,我就会问他。这是一个愚蠢的小东西,我用它来帮助我感觉他仍然和我一起在厨房里。”
Snapchat My AI 功能由流行的人工智能聊天机器人工具 ChatGPT 支持,通常提供建议、回答问题并与用户“交谈”。但像安娜这样的用户正在使用这个工具和其他工具来重现死者的肖像并与死者交流。
这个概念并不是全新的。几个世纪以来,人们一直希望与已故的亲人重新联系,无论他们是拜访灵媒和通灵师,还是依靠保存记忆的服务。但现在的情况是,人工智能可以让那些亲人说或做他们在生活中从未说过或做过的事情,不过这也引发了道德担忧以及这是否有助于或阻碍悲伤过程的问题。
图片取自:(示意图123rf)
戴维森学院数码研究教授马克·萨普(Mark Sample)经常教授一门名为“数码时代的死亡”的课程,他说:“这是一种借助人工智能炒作带来的新鲜事物,人们觉得可以赚到钱。尽管公司提供相关产品,但 ChatGPT 也让业余爱好者更容易尝试这个概念,无论好坏。
一位来自亚拉巴马州的49 岁IT 专业人士使用人工智能复制了他父亲的声音。他发现了一项名为 ElevenLabs 的在线服务,该服务允许用户根据先前录制的音讯创建自订语音模型。 他使用了一段 3 分钟的影片片段,内容是他父亲讲述他童年的故事。该应用程序复制了父亲的声音,因此现在可以用来将文字转换为语音。他称这个结果“极其准确”,因为它捕捉到了他父亲的声音细微差别、音色和节奏。他与他的妹妹和母亲分享了一些信息。他说他母亲与妹妹听到跟父亲这么类似的声音,肯定会哭。
尽管许多人工智能生成的头像平台都有在线隐私政策,规定它们不会向第三方出售数据,但目前尚不清楚Snapchat 或OpenAI 等一些公司如何处理用于训练其系统的数据,使其听起来更像已故亲人。
让死者说出他们以前从未说过的话也是一条模煳的界线。另一个问题是这是否会阻碍或有助于悲伤的过程。“当我们与所爱的人创建联系时,当我们爱上某人时,大脑会对该人进行编码,‘我将永远在你身边,你也将永远在我身边。’”她说。当他们死后,我们的大脑必须明白这个人不会再回来了。”但因为大脑很难理解这一点,所以可能需要很长时间才能真正理解它们已经消失了。这就是人工智能技术可能干扰大脑的地方。不过对很多人而言,这可能也是它们唯一可以安慰自己的地方。
Polygon recent comments