提供的爬取软件来源于:52pojie.cn@夜泉 免费下载使用

这些欧美国家为什么限制使用人脸识别技术?

方可成 新闻实验室 2019-11-05

科技

人工智能|伦理|隐私

10月底,北京地铁相关负责人透露:计划今后在安检中应用人脸识别技术——“研究建立人员分类标准,并形成对应的人脸库,依托人脸识别系统对乘客进行判别,并将信息推送给安检人员,安检人员据此对应采取不同的安检措施。”


这一消息传出之后,引发了不少讨论。人工智能技术的快速发展,使得我们必须尽快应对人脸识别等新技术带来的新问题。这是一次难得的讨论机会,其中清华大学法学院教授劳东燕的文章尤其值得一读:http://opinion.caixin.com/2019-11-04/101478652.html


新闻实验室会员通讯在10月初的时候恰好讨论过人脸识别问题,聚焦的是:为什么很多欧美国家和城市都在限制人脸识别技术的运用。


考虑到这一话题的公共讨论价值,在此,我与各位分享该期会员通讯的内容。也欢迎你加入新闻实验室会员计划,每3-4天就可以收取一份这样的会员专属内容。


∙ ∙ ∙ ∙

作者:方可成


过去数年中,人脸识别技术是发展最快的新技术之一。助推人脸识别技术发展的主要是机器学习、云计算等人工智能相关技术的突飞猛进,以及越来越清晰和便宜的摄像头。人脸识别技术已经用在了很多人的手机上,刷脸购物、刷脸登机等等都不是什么新鲜事。


在中国,很多时候人脸识别技术的发展都被认为是令人鼓舞的技术进步,它的广泛应用也能引发很多人的自豪和称赞。然而,在欧美国家,人脸识别技术正遭遇着越来越多的质疑和限制。


今年5月,旧金山市通过决议,禁止警察等公权力机构使用人脸识别技术。这项决议很有代表意义,因为旧金山所在的硅谷湾区一直是数字科技创新的中心。随后,和旧金山同属加州的奥克兰市,以及马萨诸塞州的萨默维尔市(Somerville)也出台了人脸识别禁令。在全国层面,两位参议员提出了关于限制人脸识别技术应用的法案,这项法案目前获得了共和党和民主党两党议员的支持。众议院也有议员正在准备相关法案。


8月底,英国《金融时报》报道(https://www.ft.com/content/90ce2dce-c413-11e9-a8e9-296ca66511c9):欧盟正在考虑对人工智能技术进行严格限制。在正在筹划的监管方案中,如果公权力机构或者商业公司想要使用人工智能技术,那么所有被牵涉到的欧盟公民就有权知晓:他(她)的人脸数据何时被使用了。


为何这些欧美国家和城市对这项新技术有着如此强烈的警惕?本期会员通讯,我们就来聊聊这个问题。


限制的对象:

不是个人,而是公权力和商业公司

首先要明确的是,这些针对人脸识别技术的禁令,不是禁止个人使用这项技术,更不是禁止这项技术的发展。也就是说,你用自己的脸解锁自己的iPhone,这完全不会受到限制。真正受到限制的,是公权力机构(政府、警察等)以及商业公司对人脸识别技术的应用。


这中间的一个核心逻辑是:消费者自己使用人脸识别技术的时候,是自愿使用的,并且是知道自己的脸正在被识别的。但是,如果是公权力机构在使用的话,比如警察使用这项技术在公共场所进行监控,那么公众很可能并不知道自己的脸正在被拍摄、扫描、分析、比对、纳入数据库,即便知道也不可能把人脸识别系统关掉。这种差别,使得欧美国家普遍认为:对公权力使用人脸识别技术要设一个高得多的门槛。


当然,公权力机构使用人脸识别技术可以带来不少好处,比如提高破案率、降低犯罪率等。一个实际的案例是:去年6月,马里兰州的《The Capital Gazette》报社曾经发生大规模枪击案,造成5人死亡。警方在破案的时候,利用了人脸识别技术来锁定犯罪嫌疑人。


但是,这些对于公共安全的好处,不足以抵消人们对这项技术被滥用的担忧。美国公民自由联盟(the American Civil Liberties Union,简称ACLU)是在倡导限制公权力机关使用这项技术方面最活跃的一家NGO。该机构的律师Matt Cagle说,“这项技术让政府获得了前所未有的追踪人们日常生活的权力。这样的权力过大,和健康的民主制度并不相容。”他认为,旧金山的禁令能够起到的作用,就是防止这项危险的技术被用来对付公众。(https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html)


Cagle律师还强调,现在我们根本不知道政府和企业在多大范围内使用着这项新技术,因为它们一直都对此保密,而公众则经常被蒙在鼓里,这是非常危险的状况。


简单而言,这些欧美国家限制公权力机构使用人脸识别技术,就是为了防止一个压迫性的监控国家(surveillance state)的产生。这样的国家也常被称为“奥威尔式”(Orwellian)的国家——这种说法来自奥威尔的经典小说《1984》。在小说中,老大哥通过电幕无时无刻不在监视者人们的生活,支撑起一种恐怖的极权统治。



为了避免这种可怕的状况成为现实,这些国家愿意在一定程度上做出妥协,不用人脸识别去追求破案率的提高。


与公权力机构相比,商业公司看起来并没有建立起“奥威尔式”统治的能力,为什么也要受到限制呢?


这主要是因为,如果不对商业公司作出限制,那么它们可能出于商业利益的追求,大规模地收集人脸数据,并且可能会在不经过消费者本人许可的情况下将这些数据出售、滥用。


很多人认为,人脸数据属于个人信息当中最为敏感的生物识别数据(biometric data),被滥用造成的后果是最为严重的,应该得到最高限度的保护。


人脸识别技术的误差和偏见


这些欧美国家和城市对人脸识别技术做出限制,还有一个非常重要的原因:技术本身依然不成熟,有很多误差,并且会造成对不同人群的歧视。


今年4月,一名18岁的美国大学生起诉了苹果公司,指责苹果在店内使用人脸识别技术,并且这项技术错误地将他识别成了小偷,导致他莫名其妙收到传票,后来还被警察逮捕,给他造成了严重的精神损失。这位大学生要求苹果公司赔偿10亿美元。


苹果公司否认了这些指控。不论该案的判决如何,我们可以明确知道的是:目前的人脸识别技术,确实可能造成“冤假错案”。


今年1月,ACLU测试了亚马逊公司开发的人脸识别系统Rekognition,让这个系统来识别美国议员的照片。结果,系统将多达28名议员识别成了罪犯。



尤其值得关注的是,在欧美国家,人脸识别技术对白人的识别准确率要远远高于对有色人种(尤其是黑人)的识别准确率,对男性的识别准确率要高于对女性的识别准确率。(https://www.theverge.com/2019/1/25/18197137/amazon-rekognition-facial-recognition-bias-race-gender)


这样的结果并不意外。在开发人脸识别技术的时候,研究者们用来训练机器的照片大多是白人男性,因此机器辨认白人男性的能力更强。相比之下,由于缺乏辨认黑人、女性的经验,机器也就更容易在识别少数族裔和女性的时候犯错。这种偏见的产生,是由于社会上既有的不平等,而它又会进一步加强不平等的状况,因为一旦警察大规模使用此技术,弱势群体陷入冤假错案的机率就会更高。


这种写在技术里面的偏见,常常容易被人们忽视,因为人们容易接受这样的观点:人是有感情的、容易产生偏见的,但机器是没有感情的,所以应该是客观公正的。然而,正如此前的新闻实验室会员通讯反复提到的,技术是由人在特定的社会条件下开发的,技术本身也会带有深刻的偏见。如果我们将一切都交给看似公正的机器,以为这样就万事大吉了,那么可能导致的结果便是社会不平等的进一步加剧、公正的进一步丧失。


 

技术是由人在特定的社会条件下开发的,技术本身也会带有深刻的偏见。


基于伦理的人工智能发展


正是因为以上两个方面的原因,不少欧美国家和城市都对人脸识别技术的应用做出了严格的限制。


旧金山在通过限制法令的同时,还通过了另一项涵盖内容更广的规定。根据这项新规定,旧金山市的公权力部门要想购买监控技术,就必须提前申请获得批准。这些监控技术包括自动的车牌扫描仪、带有摄像头的无人机等等。


科技媒体Recode的一篇文章(https://www.vox.com/recode/2019/5/14/18623897/san-francisco-facial-recognition-ban-explained)指出:美国对于数字隐私的立法速度是缓慢的,有一部分美国人看上去愿意为了便利而牺牲隐私(而且基本上都是向企业提供个人数据,而非政府);但是,人脸识别这项技术很可能戳中了美国文化的敏感点,那就是对个人自由权利的看重,对政府滥用权力的恐惧。因此,美国在针对人脸识别的立法方面要快得多。


而对于欧盟来说,对人脸识别技术的限制,是一项更为宏大的监管计划的一部分。这一计划,可以称为“基于伦理的人工智能法规”(ethically based laws governing AI)。此前的会员通讯也曾提到,欧盟在数字技术的发展方面不算领先,但在针对数字技术的监管方面走在世界前列。



当然,欧盟发展监管的目的并不是打压新技术,而是希望新技术能够尽可能造福社会,而不是带来副作用。在欧盟的立法者看来,对人工智能技术作出限制,其实可以使得公众对这项技术的信任度和接受度提高,这样一来,最终实际上是有利于这项技术的健康发展和妥善应用。


根据《金融时报》的报道,欧盟希望通过这方面的立法,树立一种“人工智能监管的世界标准”,这种标准可以通过清晰、可预测、统一的原则,充分保护个人的权益。



💡 本文是“新闻实验室会员计划”于2019年10月5日发送的第328期会员通讯内容试读。欢迎加入会员计划阅读更多深度分享文章。这里是往期内容目录:https://github.com/Jeanny328/Newslab/blob/master/catalogue.md (可以通过文末的“阅读原文”跳转)



往期推荐



精选留言

袅袅赞:40

公共行政课老师说自由和福利、效率往往是一条路相反的两个方向,有些国家的人们选择了自由,放弃了福利和效率,但总有相反的国家。毕竟自由的保障一定有不自由的成分。 但这也只是理论层面而已,是否真的是国民选择,选择背后需不需要对另一个面向进行考虑,这都是政策制定者需要考虑的问题。 要我说,我是典型的“中国巨婴”,为了便利,我愿意放弃部分自由,只需要需要保障自己的最为基本的选择自由和权利。

作者

其实并非那么绝对,只能选A而不能选B,更好的选择是:在A和B和C之间都去寻求一种平衡,而寻求平衡的过程是大家一起来参与讨论的,而不是由某一些力量来决定的。

要优雅赞:130

主要是根本不给人们一个选择的权力,还被某些舆情引导带节奏

且行且珍惜🚴🏻 🚴🏻赞:65

我能接受用指纹换方便,不能接受人脸识别换便利

作者

嗯,指纹和人脸识别很不一样。采集指纹的时候我们都是知情的,人脸识别则可能浑然不知。另外正如劳东燕老师所说,“从各国的情况来看,强制采集国民的指纹,仍是较为少见的现象。虽然对外国人采集指纹的做法变得普遍,但在法治国家,往往以侵犯个人自治甚至违宪的理由,禁止政府采集普通国民的指纹。“

潮汐赞:60

除了偏见 歧视外,人脸识别技术基于算法和人工智能技术还可能会固化社会结构。因为他是建立在 对个体过去的数据分析与评估上,而这些数据只能说明过去而不是未来。我们的身份、地位、经济条件和人际关系都被识别并且被标签化呈现,难道这没有更进一步的使我们被圈定在与自己条件相吻合的社会地位,从而更加减少底层向上层流动的机会吗? 另外,我觉得 更可怕的不是单纯的人脸识别,而是生物识别...当你不喜欢一件事或一个人时,你可以在脸上不表现出来,但是生物识别能探测出你的内心情绪变化 并且进行数据呈现与交换.....噫[衰]...

何凌云赞:45

没问题,公权力和商业公司把我们都用烂大街了

(;´Д`)赞:39

人脸识别的发展一直都让我恐惧,可是并没有什么用。

老猫赞:29

个人觉得文中所述的美国“限制公权力使用人脸识别技术”的逻辑不太站得住脚,更多出于恐惧而非理性对技术进行打压。从数据带来的更大权力到监控国家,太多环节是滑坡过去的,权力可以通过机制制约,看得见的监控对于监控国家既非充分又非必要,极权不止奥威尔式一种。相对应的,欧盟的说法(至少从文中看来)更靠谱一些,查一波“基于伦理的AI立法”看看论文。我也觉得技术从来不是中性的,作为神经科学研究者,从基因编辑婴儿事件后就特别担心有一天神经技术被滥用,希望伦理学能赶上,自己有空也能补点伦理知识。

阿彪赞:25

支付最好用密码,其他生物信息支付,例如指纹,刷脸之类的,密码你可以换,生物信息无法更换

92赞:23

害,这算啥,某些老师还打算把传感器植入人体呢

陆维豪🐳小胖赞:14

看完突然意识到我在看新闻实验室!好久不见啊

Kαmeleono赞:11

推荐看个英剧,叫做捕捉真相,感觉就是AI人脸技术应用后,引发出的人性话题

赞:10

嘿嘿,近地太空布满几万颗微型宽带卫星这个场景,比视频监控更全高压。视频监控毕竟只要带个面具就足以屏蔽,而可与间谍卫星智能组网的宽带天蛛,却可以监控每一部接入天基WiFi的物联网设备。嘿嘿。

Mona赞:8

方老师今天好勤快,公众号和b站都更新了呢!

彡潭影、空人心忄赞:8

再看一遍宅总的《疑犯追踪》🤣🤣🤣

阅读全文