草根影响力新视野 编译/陕红宇
CEO萨尔帕萨说,“Predictim是一款使用人工智能审查潜在保姆的应用程序,可以帮助父母决定他们想要信任的人,即使这项服务被Facebook和Twitter阻止,但也会坚定继续使用社交媒体数据来改善其推荐发动机。”
萨尔帕萨的公司从社交媒体网站收集的大量信息并使用一种自然语言AI形式来过滤和排序。 他说,公司的产品旨在帮助父母和宠物主人更多更好地了解潜在保姆,了解看护人的个性特征。
该公司的技术员会根据社交媒体活动产生对应的“风险评分”,对一个人的生活态度以及他们参与网上骚扰或滥用药物的可能性进行排名,并标记可疑内容,然后自动生成一个报告,并解释每个排名的含义。
“我们的人工智能可以评估个体在欺凌,骚扰,性暴力内容和滥用药物方面的在线行为,”萨尔帕萨说。
Facebook,Instagram和Twitter最近因违反科技公司的数据收集和用户隐私守则而阻止了Predictim公司的行为。“我们严格禁止将Twitter数据和API用于监视目的,包括进行背景调查,”Twitter发言人Nick Pacilio说。 “当我们意识到Predictim的服务时,我们进行了调查并撤销了对Twitter公共API的访问权限。”API是应用程序编程接口的首字母缩写,该技术允许计算机应用程序交换信息。Facebook最近指出,“在Fb上搜集人们的信息违反了我们的服务条款。”
但萨尔帕萨反对禁令。 “我们使用的是公开数据,不会违反他们的平台政策。”
自该产品推出以来,Predictim应用程序对公共数据的使用一直存在争议。 Twitter上的一些用户指出该公司的结果不一致,并表示担心除了社交媒体信息之外,Predictim公司可能依赖于开源智能(OSINT),如学术期刊,智囊团研究和传统媒体报导等。
数字隐私专家Sarah Clarke担心在OSINT上使用数据过于通用,并且会产生“内容模煳容易出错”的结果。AI专家对该公司不透明的方法表示怀疑,并担心其使用的数据源可能导致不准确,不完整或破坏性的结果。
“事实上很多数据库都存在偏见,特别是针对女性和少数民族,”人工智能专家詹姆斯巴拉特讲道。 “许多数据库都是手工编码,有些事几十年前创立的,他们传承了创造者的偏见。例如,佛罗里达州的监狱判刑算法是使用历史监狱判决创建的,他们对少数民族更加苛刻。”
巴拉特也对使用人工智能根据社交媒体信息对个人进行排名持怀疑态度。
“是什么让未来真正的雇主有权利通过要求访问他们的社交媒体帐户来侵犯某人的隐私?”巴拉特问道。 “这些神奇的排名算法背后的过程是’黑盒’系统,这意味著你无法深入了解排名是如何制作的。”
另一位专家Hansson 说,保姆可能会受到依赖社交媒体数据的AI系统的伤害。他说:“我认为不可能查看22篇Twitter帖子,然后以合理的确定性宣称撰写这些帖子的人容易吸毒或社交性格差。”“他们的尊严因受到这个过程的影响而降低”,“他们可能无法获得他们非常有资格的工作,因为机器给了他们一个糟糕的分数。”
但萨尔帕萨反对批评,“我们将技术与其他模型叠加在一起,每一次被标记为中等或高风险的扫描都由受过有意识和无意识偏见训练的分析师进行人体评估后得出的,解释是合理的,而不是黑盒子。”
Polygon recent comments