巴西论坛

首页 » 问答 » 常识 » 人脸识别技术是潘多拉盒子还是阿拉丁神灯
TUhjnbcbe - 2021/2/23 12:10:00

编者按:

本公号曾发表的人脸识别系列文章:

欧盟基本权利局“人脸识别技术”报告中文翻译(DPO社群出品)

法国数据保护局(CNIL)关于人脸识别报告的中译文(DPO社群出品)

零售门店使用人脸识别技术的主要法律问题(DPO社群成员观点)

人脸识别技术的规制框架(PPT+讲稿)

人脸识别技术运用的六大场景及法律规制框架的适配(DPO社群成员观点)

人脸识别技术的法律规制研究初探(DPO社群成员观点)

美国联邦隐私保护立法草案研究(四):“生物识别信息”

美国华盛顿州人脸识别服务法案中文翻译(DPO社群出品)

PAI

《理解人脸识别系统》全文翻译(DPO社群出品)

解读世界首例警方使用人脸识别技术合法性判决二审判决(DPO社群成员观点)

人脸识别技术研究综述(一):应用场景

人脸识别技术研究综述(二):技术缺陷和潜在的偏见

美国人脸识别技术的法律规范研究综述

拼凑式(Patchwork)的范式

美国《00年国家生物识别信息隐私法案》中译文

今天给大家推送的王源律师的一篇作品。

一、对人脸识别技术的反思

人脸识别数据是发展人工智能技术的重要要素,可以广泛应用于公共和私营部门,例如公共安全、安防监控、智慧交通、*企事务、智能家居、新零售和银行业务等场景。在利用人脸识别数据发展人工智能技术过程中,国内外对人脸识别数据的广泛使用甚至滥用可能导致的侵害个人信息后果开始反思。就中国来看,00年1月1日发布的《天津市社会信用条例》规定,市场信用信息提供单位在天津市内不得采集包括人脸识别在内的生物识别信息。00年11月0日浙江法院判决野生动物世界败诉,删除原告个人在办理年卡时提交的人脸识别信息。00年11月和1月间,媒体以个人戴头盔看房防止人脸识别以及人脸识别:不安之术、小区门禁强制“刷脸”等为题材对人脸识别进行报道。

就国外来看,00年6月8日IBM宣布停止人脸识别技术,避免种族歧视和违反平等原则,强调负责任的科技和技术应用的评估;受到舆论与投资者压力,亚马逊暂停警方使用人脸识别技术1年,6月10日亚马逊宣布暂时禁止美国警方使用自己的人脸识别技术Rekognition,为期一年时间。谷歌在年即停止在谷歌云开放通用人脸识别API,Facebook年不再默认开启图片人脸识别功能,微软删除始于年的含有10万人万张照片的MSCeleb人脸识别数据库。年5月15日,美国旧金山市禁止警察和市*府使用人脸识别软件。

二、人脸识别技术的风险

从国内外立法、案例和事件来看,暂停或者禁用人脸识别信息主要基于对隐私和个人信息保护的担忧,例如,IBM停用人脸识别技术特别考虑了:a)*府用人脸识别技术以识别监控个体,更容易侵犯基本权利;b)用以识别(identification)(一对多)的人脸识别进技术涉及集中存储大量人脸模板数据库;c)通用目的(generalpurpose)的人脸识别技术风险较大。总结起来,人脸识别信息的应用主要风险在于:

个人基本权利。在人工智能技术下,保护隐私和个人信息更具有挑战性。例如,面部信息一旦采集难以修改,容易结合身份信息识别个体,且可以持续、远程监控。例如在欧盟,人脸识别技术被纳入基本权利(fundamentalright)考量,人脸识别也需要在GDPR建立的法律框架(regulatoryframework)下讨论[1];在美国,同样强调防止人脸识别技术妨碍自由(civilliberties)。

公权力部门使用人脸识别的特殊风险。人脸识别技术可以为公权力部门例如执法机构所用,也可以为私营部门所用。由于公权力部门使用人脸识别技术涉及大规模采集、监控人口(例如利用摄像头在公共场所或者集会时在个人不知情情况下即可大量采集)、集中存储大量数据模板以供比对识别等,风险更大。

人工智能涉及敏感数据。人脸识别信息更加敏感,可以直接判断个人健康体态个体特征、民族种族等,GDPR原则上禁止处理这些信息;收集人脸识别信息的方式更加隐蔽也更加容易,例如未经同意就可以在公共场所“非接触”收集,且可以一次性大量收集。

平等和歧视。人脸识别技术涉及处理肤色、种族等信息,对妇女、儿童、残疾人、雇员、消费者等弱势群体有歧视和不公平对待的风险。

风险难以估量和透明度。人工智能技术的风险无法准确估量,人工智能存在黑匣(blackbox)问题,难以确保充分的透明度。

人脸识别技术缺陷。人脸识别受到光线、成像质量、环境、动态等影响,可能会有误识别或者漏识别问题。

三、国外对人脸识别技术的限制

尽管有上述风险,欧盟、美国和国际组织在对人脸识别技术进行规制时,也并非一概而论、一蹴而就地禁止。例如,IMB宣布“不再提供通用目的(generalpurpose)的人脸识别或者分析软件”,Google宣布“不再提供通用目的(generalpurpose)人脸识别APIs”。与通用目的相对应,小范围、具体场景、实验性、充分估量风险的人脸识别应用是可行的。具体来说,对人脸识别技术的限制措施特点包括:

对*府公权力执法部门限制较多,对私营公司限制较少。例如美国亚马逊暂停警方使用人脸识别技术1年,美国旧金山市禁止警察和市*府使用人脸识别软件。美国联邦层面的立法尝试对*府和私营公司分开立法。“面部识别伦理法案”[]延缓*府使用人脸识别技术:1.国会发布指南前,没有获得法院等签发的令状,联邦执法机构不能在摄像头中使用人脸识别技术;.无论法律如何规定,联邦*府批给州*府和地方的资金都不能用于人脸识别技术。“商用面部识别隐私法案”[3]要求经过最终用户明示同意,才可以使用人脸识别技术。

对识别(一对多)为目的集中存储大量人脸模板的数据库的担忧较多,对验证(一对一)为目的采用终端边缘存储技术等担忧较少。[4]人脸识别技术应用可以分为验证和识别,一般来讲,以验证为目的的数据存储可以在终端实现,而以识别为目的的数据模板需要集中存储,数据量比较大。因此,从一定程度讲,以验证为目的使用人脸识别技术的风险低于以识别为目的的人脸识别应用。前述*府通过人脸识别在公共场所进行监控等主要涉及以识别为目的的应用,微软删除的信息为始于年的含有10万人万张照片的MSCeleb人脸识别数据库。此外,以识别为目的的人脸识别应用涉及的实时动态采集场景更多,准确度低于静态活体验证的应用。

通用性人脸识别慎用,小范围、具体场景、实验性、充分估量风险的人脸识别应用可行。例如美国白宫“GuidanceforRegulationofArtificialIntelligenceApplications(人工智能应用管理指南)”[5]建议对于人工智能制定细分行业的指南,进行试验性尝试;法国数据保护机构CNIL“FACIALRECOGNITIONforaDEBATELIVINGUPTOTHECHALLENGES(法国人脸识别的报告)”[6]强调目的特定,在目的特定基础上才能讨论收集信息的比例原则、存储期限、安全性等,同时强调实验性的尝试,而非先建立宏观大框架。

四、人脸识别技术对发展人工智能的意义

在充分认知人脸识别技术风险的基础上,仍然应当回归到人脸识别技术的意义和价值。就中国来看,中国国务院在《促进大数据发展行动纲要》()和《新一代人工智能发展规划》()中提出,人工智能成为国际竞争的新焦点和经济发展的新引擎,数据已成为国家基础性战略资源,大数据成为推动经济转型发展的新动力和重塑国家竞争优势的新机遇。中共中央、国务院在《关于构建更加完善的要素市场化配置体制机制的意见》中将数据规定为新时代的生产要素,数据在网络和人工智能时代的作用与土地和劳动力在农业社会的作用、资本和技术在工业社会的作用相比肩。人脸识别数据是将人工智能技术应用于家居安防等典型物联网场景的不可或缺的基础资源。

从国外来看,00年月欧盟在《欧洲数据战略》中指出“需要足够的数据用于人工智能开发”[7],在《人工智能白皮书》中指出“人工智能是数据经济的重要应用,数据是实现人工智能的重要驱动。”[8]欧盟将人工智能技术定位到实现欧洲领先的战略高度。

五、如何规制人脸识别技术

滥用人脸识别技术可能开启潘多拉盒子导致个人信息保护的灾难,但正确使用也将擦亮阿拉丁神灯带来科技进步的福祉。在风险可控的前提下实现人脸识别技术的价值在制度设计上需要考虑:

以人为中心,给予个人充分的权利,促进公平防止歧视。在收集和使用人脸识别信息时,强调个人对其个人信息享有的权益,在给予个人充分说明的基础上由其自愿选择是否提供人脸识别信息的机会以及申请删除信息等。例如在公共场所通过摄像头拍摄人脸识别信息为“非接触”式采集,个人不一定能意识到信息正在被采集,需要增强告知和取得同意的方式。再如青少年和儿童、残疾人、少数民族、年长者、在中国的外国人等,因为涉及民族、种族、宗教信仰等敏感信息,需要有特殊保障措施防止歧视。

规范和限制人脸识别技术应用的目的与场景。区别对待以验证(authentication)为目的的人脸识别技术和以识别(identification)为目的的人脸识别技术涉及的风险;对*务服务、商业利用等不同行业应用场景使用人脸识别技术的必要性进行分别评估;审慎地在真实商业实践中(非实验场景下)使用人脸识别技术识别情绪等(例如课堂表现、求职视频面试状态评估),涉及人的内心活动和私密信息,在深度应用人脸识别信息时加强伦理考量。

采用特殊管理措施和技术措施保护人脸识别信息。从数据分类分级角度将人脸识别信息规定为需要特殊保护的信息;在可以仅采集面部特征关键信息或者摘要时,不采集全部面部影像信息;要求人脸识别信息与一般信息分开存储,采取更加严密的安全措施;对于涉及自动化处理人脸识别信息情形时,将人工审查或者复审设置为必经环节;在诸如打卡、门禁等商用场景,仅将人脸识别信息存储于智能终端的智能卡中等。

对人脸识别信息被篡改或者泄露等加强问责。人工智能技术的安全核心要求为“可信(trustworthy)”、“负责任(responsible)”、“可问责(accountability)”。[9]从风险评估角度,人脸识别信息为面临更大风险、一旦泄露对个人权益影响更大的个人信息,因此需要加强对处理和运营人脸识别信息的主体的问责机制。同时,除了采取法律手段,需要强调伦理道德和意识培训,增强主动给予人脸识别信息特殊保护的意识。

综上:人脸识别信息是发展人工智能技术的基础数据资源,人工智能技术是不可阻挡的科技趋势。人脸识别信息的敏感度高、采集方式多样、隐蔽和灵活,需要更加严格的个人信息保护措施,防止对个人隐私和信息保护带来负面影响,防止歧视。《个人信息保护法(草案)》对人脸识别技术进行了规定,规定在共场所安装图像采集、个人身份识别设备,应当为维护公共安全所必需,遵守国家有关规定,并设置显著的提示标识。所收集的个人图像、个人身份特征信息只能用于维护公共安全的目的,不得公开或者向他人提供;取得个人单独同意或者法律、行*法规另有规定的除外。在此基础之上,对使用人脸识别信息的场景与目的进行更加细化的规定和限制,采用特殊管理措施和技术措施保护人脸识别信息。

[1]GeneralDataProtectionRegulationEUROPEANPARLIAMENTANDOFTHECOUNCIL,7April(GDPR,一般数据保护条例)。

GDPR中与人工智能数据处理特别相关的规则有:1.个人对自动化处理数据有访问知情权,了解数据处理的逻辑、通过识别分析进行的处理的结果(序言第63条);.明确规定GDPR适用全自动或者半自动化的数据处理(第条);3.原则上禁止处理种族或民族背景、*治观念、宗教或哲学信仰或工会成员的个人数据、基因数据、为了特定识别自然人的生物性识别数据、以及和自然人健康、个人性生活或性取向相关的数据,除非满足例外情形(第9条)。对照片的处理并不能一概认为属于特殊类型个人数据的处理,只有通过允许对自然人进行唯一识别或认证的特定技术手段进行处理时,照片才被认定为生物计量数据(序言第51条);4.数据可携带权(第0条);5.有权反对包括用户画像在内的自动化决策(第条);6.默认和设计的数据保护(第5条)。

[]EthicalUseofFacialRecognitionActABill-TocreateamoratoriumonthegovernmentuseoffacialrecognitiontechnologyuntilaCommissionre

1
查看完整版本: 人脸识别技术是潘多拉盒子还是阿拉丁神灯