草根影响力新视野(琪拉编译)  

OpenAI公司已经拟定了计划,避免他们正在研发的强大人工智能未来会有最危险的状况发生。这间研发了强大聊天机器人ChatGPT的公司,这礼拜也推出了一份长达二十七页的[预先准备框架]的文件,指出了公司会如何追踪、评估、与预测因为他们的人工智能模型可能引发的[大灾难]的发生。

可能的风险范围包括人类可能借用人工智能模型创造大规模网络安全破坏,到协助制造生物、化学或核能武器等都有。另外,OpenAI表示,公司领导层拥有是否发布新AI模型的决策权,但其董事会拥有最终决定权,并拥有原本公司领导层决定的权利。

但即使在董事会否决有潜在风险的人工智能模型之前,该公司也表示,它必须事先通过许多安全检查。一个专门的“准备”团队将领导多管齐下的工作,以监控和减轻 OpenAI 雪铁龙人工智能模型的潜在风险。

麻省理工学院教授 Aleksander Madry 负责领导这家新创公司的准备团队。他将监督一组研究人员,负责评估和密切监控潜在风险,并将这些不同的风险集成到记分卡中。这些记分卡在某种程度上将某些风险分类为“低”、“中”、“高”或“严重”。

答案 人造的 助理 聊 聊天的 谈话 网络空间 未来 未来 人的 情报 新 机器人 谈话 帐户 应用程序 应用 牌 业务 电脑 设备 数字 社论 图标 说明 因特网 生活方式 市场营销 移动 在线 电话 屏幕 服务 智能 技术
图片取自:(示意图123rf)

准备框架指出,只有得分为[中]或以下的模型才能开始研发,并且只有得分为[高]或以下的模型才能进一步开发。该公司表示,该文件目前仍处于“测试版”阶段,预计将根据回馈定期更新。

该框架让人们再次关注这家强大的人工智能新创公司不寻常的治理结构,上个月公司爆发事件后,该公司的董事会进行了彻底改革,导致首席执行官萨姆·奥尔特曼(Sam Altman)被赶下台,然后在短短五天内又重新上任。这部备受关注的企业大戏在奥特曼回归后引发了新的问题:奥特曼在这间公司的权力,以及董事会对他,以及对他的领导团队的限制

OpenAI 表示,目前的董事会是最初的阶段,并且正在组建过程中,由三名富有的白人组成,他们肩负著确保 OpenAI 最雪铁龙的技术完成造福全人类的使命的艰巨任务。

不过这个临时董事会因为缺乏多元化受到了广泛的批评。一些批评者也担心,依靠公司的自我监管是不够的,立法者需要采取更多措施来确保人工智能工具的安全开发和部署。

资料来源:https://edition.cnn.com