纪录片Coded Bias,立花瑠莉对奥威尔式现实的冷遇

电影Coded Bias

科学家在面部识别软件中发现种族和性别偏见后,在纪录片作家Shalini Kantayya的唤醒电话中打开了令人不安的算法蠕虫sdde-318。Shalini Kantayya的警示纪录片Coded Bias中有一个令人着迷的并置ure-015。乔伊·布拉姆维尼(Joy Buolamwini)是21世纪算法地狱之旅中最引人入胜的导游,他是年轻的非洲裔美国麻省理工学院媒体实验室研究员yrz-067,他发现对于面部皮肤较黑的面部和女性面部而言,大多数面部识别软件都非常不准确。她从机器人怪胎sdde318到科学家再到激进主义者rbd-573的演变,向国会介绍了在荒野西部这一领域迫切需要监管的问题,这给电影增添了灵感。她不仅获得了成果,而且还撰写了有关编码的漂亮口头诗。

与之形成鲜明对比的是,来自中国杭州同年龄段的滑板潮人snis110热衷地支持面部识别技术,甚至在售卖自动售货机汽水等基本商品上也是如此。她认为,ymdd177的社会信用体系(该领域的一位美国专家称其为“算法服从训练”)是改善社会的宝贵工具。对于那些不想生活在社会上的人们一之濑桃来说,它监督我们的每一个运动,同时奖励或减少了忠诚度的观念,不仅对个人而且对他们的朋友和家人,都是对隐私的严重侵犯 。

在Kantayya的铆接研究中,以令人震惊的效率提出的观点之一是,我们已经交出了足够多的个人数据,以使监视状态可以说是更加阴险的。那是因为与中国的透明版本不同,我们的透明版本是公司信息访问交织在一起的隐形行动。一位受访者说:“每个人都参与其中。“每个人都受到影响。”

自从智能手机问世以来,每次互联网购买,每笔网上支付账单,每一次跟宗应用程序和社交媒体互动都存储在“数学破坏武器”中,这既不是秘密也不是意外。众所周知,计算机的决策能力不包含人类同理心的关键因素。但是吸收这里积累的关于如何利用数据,尤其是针对弱势少数民组的数据的滚雪球般的证据,就像您所见过的最可怕的《黑镜》。这部电影之所以令人恐惧,是因为它是真实的,并且因为这部电影没有诉诸反乌托邦的恐慌,因此引发了有关是否已经为时已晚的警告提出合理的疑问。

Buolamwini的发现是在她从事名为“ Aspire Mirror”的艺术项目时偶然发生的,该项目旨在将令人振奋的图像叠加在她自己的脸上,例如狮子或Serena Williams。但是计算机视觉软件实际上拒绝看到她,直到她戴上白色面具。

这是一个主要由白人开发的技术的有力比喻,因此在扫描他们的面部时不经意地进行了编程,以实现最大的准确性。它也使Kantayya指出了我们对未来技术的无限想象力的科幻概念与范围更窄的人工智能现实之间的差距,这些都可以归结为数学。我们倾向于认为是现实中的大量技术,是由一小群人组成的。

这些看门人允许无意识的偏见潜入技术。在便衣英国警察进行的审判中,面部识别软件存在这种固有风险,当时一名14岁的黑人学生在离开伦敦地铁站时被拘留,拖下一条小巷进行搜查,审讯和指纹识别,然后在被告知他被误认后以摇晃的状态被释放。算法司法组织Big Brother Watch与国会议员合作,对内政部提出法律挑战,援引《通用数据保护条例》,这是防止滥用信息侵犯个人权利的堡垒。

美国是建立人工智能未来的9家公司中的6家(其他3家在中国),没有这样的保护措施。立法者于今年6月出台了禁止联邦挣府使用面部识别的立法,美国许多主要城市已经禁止使用该技术。同样在6月,亚马逊宣布警方暂停使用其面部识别技术一年。

自电影于1月在圣丹斯(Sundance)首映以来所取得的这些结果表明了行动主义的力量。Buolamwini的研究首先导致了具有重大影响的《扭约时报》专题报道,然后引起了国会的注意,引起了亚历山大·奥卡西奥·科尔特斯(Alexandria Ocasio-Cortez)等人的注意。但是,这场蓬勃发展的民权斗争注定将继续下去。将侵入技术锁定在危害范围之外的想法似乎是个空想。现在,数据库中存储着超过1.17亿美国人的面孔(通常是不准确的),其影响是惊人的。

编辑亚历山德拉·吉尔维(Alexandra Gilwit),扎卡里·卢德斯切尔(Zachary Ludescher)和坎塔雅(Kantayya)从他们的发现中得出了一个具有说服力的叙述,这些叙述中充斥着事实数据,但总是清晰而引人注目。除了Buolamwini,该领域的许多作者和学者还帮助建立了一个影响深远的案例,反对使用人工智能和数据收集来控制我们的自有的方式。

信用评分,贷款评估,医疗服务,抵押贷款再融资要求,福利管理和工作申请等方面的影响令人大开眼界,尤其是在邮政编码,种族,家庭收入和警察记录等因素影响到这些过程的情况下,这种不平等现象长期存在。比亚斯编码认为,大数据对我们技术中嵌入的歧视仍然蒙住了双眼。基于对增值模型的偏见分析而被解雇的具有杰出服务记录的示例性休斯顿小学教师的考验,是这种性能评估算法在实际应用中如何失败的令人震惊的例子。

这只是人工智能如何在没有受益于西方基本民著理想的情况下发展的一个实例。数学家凯茜·奥尼尔(Cathy O’Neil)说:“这是关于有能力的人对无能为力的人的评分。” 尽管在美国开发的AI主要用于商业应用,但Kantayya通过布鲁克林房屋建筑群中居民的斗争提供了一种不太有益的证据,以防止房东安装生物识别安全系统,该系统基本上将其房屋变成了Rikers Island 。

作者弗吉尼亚·尤班克斯(Virginia Eubanks)引用了古老的科幻小说,发现未来已经来了,只是分布不均,富人首先获得了花哨的工具。但是她颠覆了这一假设,指出人工智能正在以最惩罚性,最具侵入性的方式使用,监视工具已经在贫困社会环境中进行了测试,而这些社会环境对尊重人权的期望不高。下一步将是将这些技术移植到更广泛的社区中。

只是短暂地提及了用于进行选举的技术含义,但足以引起共鸣,特别是考虑到Facebook的实验已经显示出该领域的成功。现在,我们只是依靠马克·扎克伯格的话,即该公司将摆脱困境。

Kantayya和负责数学使用技术的负责人的女性数学家和数据科学家的激烈交往,基本上说的是,不要太自在。当您在网上购买内衣并且浏览器突然被skivvies广告打扰时,或者您观看rom-com,并且流媒体平台为您排列了15个型感的爱情故事时,这似乎无害。但是,这部快速移动,动态组装的电影-充分利用了经典的科幻视觉概念和屏幕图形来呼应其主题-在这里提醒我们,人与机器之间在决策上的斗争只会越来越多。

制作公司:第7帝国媒体
导演,制片人:Shalini Kantayya
摄影导演:Steve Acevedo
音乐:Katya Mihailova
编辑:Alexandra Gilwit,Zachary Ludescher和Shalini Kantayya
视觉效果:Zachary Ludescher,Alexandra Gilwit 地点:普罗温斯敦
电影节

86分

未经允许不得转载:莱华网赚博客 » 纪录片Coded Bias,立花瑠莉对奥威尔式现实的冷遇

赞 (1) 打赏

评论 0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏