草根影响力新视野(琪拉编译) 

随著科技公司竞相开发越来越强大的聊天机器人,它们的广泛采用在一些公司、监管机构和行业观察人士中引发了一系列新的资料隐私问题。

包括摩根大通(JPM)在内的一些公司已经禁止员工使用ChatGPT,这个病毒式的人工智能聊天机器人首次掀起了大科技公司的人工智能军备竞赛,原因是违反员工使用协力厂商软件有关的合规问题。

当ChatGPT背后的公司OpenAI披露它不得不在3月20日暂时关闭该工具,以修复一个允许一些用户看到其他使用者的聊天记录中的主题句的错误时,这只是增加了对隐私的担忧。而就在上周,意大利的监管机构在OpenAI披露漏洞后,以隐私问题为由,该国发布了对ChatGPT的临时禁令。

资安专门律师马克·麦克雷里说,当使用者向这些工具输入信息时,你不知道它随后会被如何使用。随著越来越多的员工随意采用这些工具来帮助处理工作邮件或会议记录,公司商业机密被丢进这些不同的各种人工智能的机会只会增加。

波士顿咨询集团的首席人工智能道德官史蒂夫米尔斯同样告诉CNN,大多数公司围绕这些工具的最大隐私担忧是 “敏感信息的不慎泄露“。

帮助 机器人 符号 高科技 虚拟 软件 在线 现代 聊天的 公司 因特网 方便 信息 支持 数字 业务 谈话 发育 对话 发言 卷筒纸 服务 助理 概念 智能 新 插图 信息 设备 标志 网站 屏幕 通讯 情报 顾客 聊 电脑 技术 开 人造的
图片取自:(示意图123rf)

你让所有这些员工做的事情可能看起来非常无害,比如可以用这个来总结一个会议的笔记,但在将会议记录黏贴到提示中时,你突然间就有可能披露了一大堆敏感信息。

他说[如果人们输入的资料被用来进一步训练这些人工智能工具,正如这些工具背后的许多公司所说的那样,那麽你就失去了对这些资料的控制,而被别人掌握了。]

不过,ChatGPT的隐私政策规定,除非法律要求,否则它可以在不进一步通知使用者的情况下向协力厂商提供个人信息。如果超过2000字的隐私政策看起来有点不透明,那可能是因为这几乎已经成为因特网时代的行业规范。OpenAI也有一个单独的使用条款档,它把大部分责任放在用户身上,让他们在使用其工具时采取适当的措施。

不过,消费者仍然在学习这一切是如何运作的。你只是不完全知道你投入的信息,如果它被用来重新训练这些模型,这些表现如何输出的,是否会被输出。有时用户和开发者甚至没有意识到新技术所潜伏的隐私风险,直到为时已晚。

因此,在我们还未了解全貌以前,专家建议消费者不应该在这些工具中放入任何你不愿意假设会与他人共享的东西。

资料来源https://edition.cnn.com/