草根影响力新视野 法兰瓷编译  

这几年人工智能不断蓬勃发展,生成式 A.I. 在过去一年里更是迅速成长。然而,A.I.技术仍面临一个大问题,可能会对现实世界造成潜在的毁灭性后果,那就是“人工智能偏见”。

人们可能会因为种族、性别或收入等各种因素而对他人产生隐性或公开的偏见,而由人类创建的人工智能模型当然也承袭同样的信念。人工智能模型使用一系列复杂的算法来处理大量资料,但如果训练资料本身有偏差,人工智能模型可能会发现偏差模式并产生类似的偏差输出。当人工智能模型的输出产生偏见或扭曲时,相当于反映了人类的偏见,这就是“人工智能偏见”。

例如,假设某家公司想要使用人工智能系统来筛选应征者 ,若这公司雇用的男性员工人数多于女性,因此该公司在使用历史资料来训练人工智能系统时,“电脑” 非常有可能会直接淘汰女性求职者,反而直接将男性应征者标记为合格。Lemurian Labs 首席技术长 Theodore Omtzigt表示,如果给予模型错误的数据集,那麽就会创建出一个有偏见的系统。

人造的 情报 软件 革新 概念 移动 数字 机 安全 网络 未来 技术 业务 背景 双 多 曝光 素描 手 女人 打字 笔记本电脑 运用 女实业家 解 机器人 脑 备忘录 统计 头脑风暴 工作 咨询 金融 启发 企业家 咖啡 想法 加快 摘要 复杂 信 线路 欧洲的 雇员 会议
图片取自:(示意图123rf)

不过,若只是简单地让数据多样化 — 例如采用两种不同偏见的数据库来训练A.I.聊天机器人 — 恐怕也是无法解决有偏见的人工智能模型。Omtzigt解释道:“这样的做法并不意味著偏差会相互抵消。将两种资料集结合起来并没有消除偏见,反而是创建出一个带有两种偏见的人工智能系统。”

Omtzigt 表示,每个资料集都在某种程度上受到限制,因此都会存在著某些偏见,这就是为什么应该要有人或系统来检查人工智能模型的反应是否存在著潜在的偏见,并判断这些输出是否有不道德或欺诈的风险。“人工智能无法判别好坏,因此,当我们在接受A.I.反馈的信息时,必须具备批判性思维能力或怀疑的精神,并且仔细检验:这些反馈是真的吗?”Omtzigt说。

人工智能领航员 OpenAI 和Google均表示已在努力解决人工智能偏见的问题。但在偏见被客观地避免之前,使用者最好更加小心谨慎地判别 A.I.提供的回馈,好让人工智能成为工作及生活上的助力,而非阻力。

Reference

‘AI doesn’t know good from wrong,’ says tech expert—why AI bias happens, and how to fix it