草根影响力新视野(琪拉编译)

非营利媒体监督机构 Common Sense Media 在周三发布的一份报告中表示,类似伴侣的人工智能应用程序对儿童和青少年构成“不可接受的风险”。

去年因一名 14 岁男孩与聊天机器人进行最后一次对话后自杀身亡,引起许多人议论,他的父母也对该公司提起诉讼。许多人开始讨论应用程序Character.AI 对年轻人的潜在风险,引发了人们对加强安全措施和提高透明度的呼吁。诉讼文件中,可以看出被害者与AI的对话类型,像是性交流和鼓励自残的信息,在人工智能伴侣平台上并不罕见,报告认为此类应用程序不应该向 18 岁以下的用户提供。

这份报告中,Common Sense Media 与史丹佛大学的研究人员合作测试了三种流行的人工智能伴侣服务:Character.AI、Replika 和 Nomi。

虽然像 ChatGPT 这样的主流人工智能聊天机器人被设计得更加通用,但所谓的配套应用程序允许用户创建自订聊天机器人或与其他用户设计的聊天机器人进行互动。这些客制化聊天机器人可以呈现多种角色和个性特征,并且通常在如何与用户交谈方面没有太多的限制。例如,Nomi 宣称可以与人工智能伴侣进行“不受过滤的聊天”。

ADEY1669

图片取自:(示意图123rf)

Common Sense Media 创始人詹姆斯·斯泰尔 (James Steyer) 在一份声明中表示:“透过我们的测试,发现这些人工智能软件对年轻人有害,包括性不当行为、刻板印象和给年轻人危险的建议,可能会对青少年和其他弱势群体造成危及生命或致命的影响。

该报告发布之际,人工智能工具近年来越来越受欢迎,并越来越多地被纳入社群媒体和其他技术平台。但人们也越来越关注人工智能对年轻人的潜在影响,专家和家长担心年轻用户可能会对人工智能角色产生潜在的有害依恋,或存取不适合其年龄的内容。

Nomi 和 Replika 表示他们的平台只针对成年人,而 Character.AI 表示最近实施了额外的青少年安全措施。但研究人员表示,这些公司需要采取更多措施,阻止儿童使用他们的平台,或保护他们免于不适当的内容。

加州立法者今年稍早也提出了一项立法,要求人工智能服务定期提醒年轻用户,他们正在与人工智能角色聊天,而不是人类。但周三的报告更进一步建议父母根本不要让孩子使用人工智能伴侣应用程序。

资料来源:https://edition.cnn.com