草根影响力新视野 法兰瓷编译
A.I.是生活中的便利帮手,但同时也成为有心人士的诈骗工具。这次的美国总统竞选,就曾发生冒充总统乔拜登的机器人电话敦促新罕布夏州选民不要参加总统初选。美国总检察长办公室在 1 月 22 日的声明中表示:“虽然自动电话中听起来像是拜登总统的声音,但这则信息似乎是根据初步迹像人为生成的,是破坏新罕布夏州总统初选及压制选民的非法企图。”
诈骗者利用A.I.工具复制家人声音的案例也与日俱增。今年3月美国联邦贸易委员会发布了消费者警报,警告民众诈骗者可能会利用A.I.技术复制家人们的声音来试图说服受骗者汇款。人们该如何保护自己以避免受骗上当呢?
根据电脑软件公司的 “人工冒名顶替者” 报告,研究人员发现,免费的在线工具可利用仅仅3秒钟的音讯来复制某个人的声音。报告指出,雪铁龙的人工智能工具正在改变网络犯罪分子的游戏守则。现在,不需要花费太多心力,有心分子就可以复制一个人的声音来欺骗亲友们汇款。
图片取自:(示意图123rf)
虽然区分真假和人工智能生成的深度赝品变得越来越困难,但保持警惕并采取积极措施来确保自己和家人的安全非常重要。以下是一些可以采取的保护步骤:
- 查核事实与验证
网络安全专家 Adrianus Warmenhoven表示,当面对类似模仿拜登这样的A.I.语音诈骗时,应该仔细检查所听到的内容是否真的正确。例如,接到模仿拜登总统声音的恶意电话时,只要在网络上稍加搜索,就可以明确得知已登记的共和党人和未申报的选民都可以在初选中投票。Warmenhoven补充表示,如果怀疑自己成为网络犯罪分子的目标,那麽还可以在网络查看最近是否有关于人工智能生成的语音诈骗的报告。
- 结束通话
当接听到未知号码的电话,对方听起来也像是家人的急迫语调来调度金钱,请尽量不要惊慌失措。相反地,应该挂断电话,然后尝试使用“家人平常在用的电话号码”来打个电话或发短信确认是否安好。如果接到冒充银行的诈骗者打来的电话,做法也是如此:不要立即相信他们的说法,而是结束通话并立刻拨打银行在网站上、金融卡背面、信用卡背面所列的服务电话号码做确认。
Reference:
Scammers can use AI tools to clone the voices of you and your family—how to protect yourself
Polygon recent comments