草根影响力新视野 文:乔依丝编译 Photo Credit: geralt @ pixabay by CC0 Public Domain
首先,先来了解什么是“AI人工智能(Artificial Intelligence)”,简单来说,就是由机器或系统代替人类去做需要经由智慧分析及思考逻辑所做的事,像是 : 理解人类的自然语言、辨识照片中的脸孔、驾驶汽车、依据我们过去的阅译习惯来推荐我们可能会有兴趣的书…等,这和设计用来做工厂生产在线单调且重复性工作的机器手臂不同。
人工智能其中且最大的一个功能是“机器学习machine learning”: 机器由大量的数据资料中进行学习及分析,找到可遵循的守则,进而做出进一步的预测,例如 : 消费者行为模式分析、图片脸孔辨识、棋盘步骤解析…等。“机器学习”可以被应用于解决各类问题,如Google旗下人工智能公司DeepMind正在与英国健保局合作进行多项医疗专案,包括透过病人的扫描影像诊断出癌症及眼部疾病,以及找出心脏病及阿兹海默症初期患者。人工智能还可以帮助我们管理高度复杂的系统,例如全球航运网络。事实上,AI人工智能无所不在,从金融到交通运输,监控股市的可疑交易,或协助地面和空中进行交通管制,甚至帮忙将垃圾邮件自e-mail信箱中移除,应用范围仍在不断增加。
AI人工智能发展至今已60多年,并且有著令人惊奇的成果,尤以机器人的发展最为显著。然而在过去这几年,已有不少名人发出警告,包括著名的物理学家史蒂芬霍金(Stephen Hawking)、伊隆·马斯克(Elon Musk)、比尔·盖兹(Bill Gates)等人,他们提醒大家要特别注意“超级聪明”的AI发展,例如杀人机器人的问世,这些人工智能最后极有可能会导致人类的灭亡。但有人持相反意见,史丹佛大学副教授、百度首席科学家、国际人工智能最具权威学者之一的吴恩达博士则表示 : “恐惧杀人机器人的兴起就好比担心火星人口过多一样”。
然而,AI的真正风险来自于人类的“过度信赖”,试想一下,AI仅能死板地依靠所提供的大量资料进行分析,可怕的是“资料本身并不完美”,我们不应该过于信任AI将分析出完美不会出错的资料,尤其是当这些所分析的事物是与人类生命有关时,例如 : 病患死亡风险分析、囚犯是否值得获准假释、刑事司法领域的决策…等。生活中任何重要事物如果未经充分审查,仅仅依赖AI的分析结果,那麽“风险”已经存在了。
依据AI人工智能所做的决策过程需要更多的“人工审查”,毕竟,AI是人类开发的,它有可能像人类一样聪明,同时也有可能像人类一样“不完美”。
Reference :
The real risks of artificial intelligence
Polygon recent comments