科技日报11月27日报道,人脸识别系统已经给我们的城市带来诸多方便。然而,在许多国家,对人脸识别的抵抗声也在不断高涨。研究人员、公民自由倡导者和法律学者都受到人脸识别技术兴起的困扰。他们正在跟踪其使用,揭露其危害并开展运动以寻求保障甚至是彻底禁止技术的使用。然而,技术发展的潮流浩浩荡荡,更多人认为该技术的存在是“不可避免的”,但是其背后存在的道德伦理问题值得我们深思。
近期,《自然》杂志的一系列报道对人脸识别系统背后的道德伦理学进行了探讨。一些科学家正在分析人脸识别技术固有的不准确和偏见,对其背后存在的歧视发出警告,并呼吁加强监管、提高技术透明度。
《自然》杂志对480位从事人脸识别、人工智能和计算机科学领域研究的研究人员的调查显示,人们对人脸识别研究的伦理学普遍存在担忧,但也存在分歧。
有些未经同意获取数据
为了使人脸识别算法正常工作,必须对大型图像数据集进行训练和测试,理想情况下,必须在不同的光照条件和不同的角度多次捕获这些图像。过去,科学家普遍招募志愿者,只为收集各种角度的照片;但现在,大多数人未经许可即被收集人脸图像。
在《自然》杂志的480位受访者中,当被问及对应用面部识别方法从外表识别或预测个人特征(如性别、年龄或种族)的研究有何看法时,约三分之二的人表示,此类研究只能在获得面部识别者知情同意的情况下进行,或者在与可能受到影响的群体代表讨论后进行。
大多数人认为,使用人脸识别软件的研究应事先获得伦理审查机构(例如机构审查委员会)的批准。他们认为,对于在学校、工作场所或由私人公司监视公共场所时使用人脸识别进行实时监视感到最不舒服,但是他们通常会支持警察在刑事调查中使用人脸识别系统。
从法律上讲,目前尚不清楚欧洲的科学家是否可以未经人们的同意而收集个人人脸的照片以进行生物识别研究。欧盟的通用数据保护条例并没有为研究人员提供明显的法律依据。在美国,一些州表示,商业公司未经其同意使用个人的生物识别数据是非法的。
受访者强烈认为,应该有其他法规来规范公共机构使用人脸识别技术。超过40%的人则希望禁止实时大规模监视。
存在性别和种族偏见现象
人脸识别系统通常是专有的并且保密,但是专家说,大多数系统涉及一个多阶段过程,该过程通过深度学习对大量数据进行大规模神经网络训练。
美国国家标准技术研究院(NIST)在去年年底发布的报告中称,人脸识别的准确率有了显著提高,深度神经网络在识别图像方面效果明显。但NIST同时也证实,相对于有色人种或女性,大多数人脸识别对于白人男性面孔的准确性更高。特别是,在NIST的数据库中被归类为非裔美国人或亚裔的面孔被误认的可能性是那些被归类为白人的面孔的10—100倍。与男性相比,女性误报的可能性更高。
领导NIST图像小组的电气工程师克雷格·沃森认为,这种不准确很可能反映了每家公司培训数据库构成的不平衡,一些公司可能已经开始解决这个问题。
有待严格立法和监管
致力于人脸识别或分析技术的研究人员指出,人脸识别有很多用途,比如寻找走失的儿童,追踪罪犯,更方便地使用智能手机和自动取款机,通过识别机器人的身份和情绪来帮助机器人与人类互动,在一些医学研究中,还可以帮助诊断或远程跟踪同意的参与者。
人脸识别技术有好处,但这些好处需要根据风险进行评估,这就是为什么它需要得到适当和细致的监管。
目前,许多研究人员以及谷歌、亚马逊、IBM和微软等公司都呼吁在人脸识别系统方面出台更严格的监管措施。
马萨诸塞州波士顿东北大学研究面部监控的计算机科学家、法学教授伍德罗·哈特佐格说视人脸识别技术为“史上最危险的发明”,说如果美国立法者允许公司使用人脸识别,他们应该编写规则,从健身房到餐厅都应当禁止“面部指纹”的收集和储存,并禁止将人脸识别技术与自动化决策(如预测性警务、广告定位和就业)结合使用。
尚须谨慎研究和思考
密歇根州立大学东兰辛分校的计算机科学家阿尼尔·贾恩说:“在我们的社会中,我们需要大量正当而合法的人脸和生物识别应用。”但一些科学家表示,研究人员也必须认识到,在人们不知情的情况下对人脸进行远程识别或分类的技术从根本上是危险的,应该努力抵制其被用来控制人们的做法。
作为人工智能领域的首要会议之一,神经信息处理系统会议是今年首次要求进行这种道德考量,即提交有关人脸识别论文的科学家必须添加一份声明,说明他们的工作中存在的伦理问题和潜在的负面后果。
此外,《自然机器智能》杂志也在试图要求一些机器学习论文的作者在文章中加入一项声明,考虑到更广泛的社会影响和伦理问题。
纽约伊萨卡市康奈尔大学从事技术伦理研究的社会学家凯伦·利维认为,研究人脸识别的学者意识到道德伦理问题,“感觉像是科学界真正的觉醒”。
(原题为《道德伦理:人脸识别“热”中的冷思考》)