草根影响力新视野 乔依丝编译

由Google前执行长艾瑞克·施密特(Eric Sc​​hmidt)领导的专案小组于1月底进行了为期两天的公开讨论,讨论美国应如何考虑将AI(人工智能)应用于国家安全和技术进步层面。专案小组表示,AI犯下错误的概率比人类来得低,同时可以减少人员伤亡数量,因此美国在“道德上”应积极开发AI武器,不应禁止使用或禁止开发由AI软件驱动的自主武器。

专案小组副主席为美国前国防部副部长罗伯特·沃克(Robert Work),他表示“自主武器在战争中的错误率预计会少于人类的错误率,进而减少目标误认所造成的人员伤亡或冲突,因此在人道上势在必行。”然而,专案会议的讨论为了人权和战争领域陷入了争议。有一个非政府组织联盟在过去八年来持续推动“禁止杀手机器人”条约,强调对于袭击的判断和为战争罪负责等层面绝对需要人为的控制。联盟网站宣称,从2014年起联合机构即已针对此议题举行讨论会议,包括巴西和巴基斯坦在内的30个国家均表示希望实行此禁令。

JMOY1866

自主武器的发展已有数十年之久,各国人民十分关注为此类系统提供动力的AI相关技术开发以及关于AI滥用范例的研究。由美国国家人工智能安全委员会组成的美国专家组在本周的会议上承认自主武器的风险,包括制造快速反应的自主机器可能会加剧冲突。专案小组希望人类只需要做出发射核弹头这类的决定,并仍认为禁止AI武器的发展将违反美国利益。

已参与“禁止杀手机器人”运动八年之久的玛丽·威尔汉姆(Mary Wareham)表示,委员会对于中国和俄罗斯所进行的投资竞争展现出的关注,等于是在鼓励军备竞赛。

除了AI自主武器之外,专案小组提出的报告还建议情报机构使用AI来简化数据收集和审查工作,而每年用于人工智能研究的联邦资金为320亿美元。专案小组预定于三月份向美国国会提交最终报告,但报告内容纯属建议性质,并没有实质的约束力。

AI武器对于人类发展到底是福还是祸? 恐怕要由历史来见证一切了。

Reference

US has ‘moral imperative’ to develop AI weapons, says panel