今日头条丨一点资讯丨腾讯丨搜狐丨网易丨凤凰丨阿里UC大鱼丨新浪微博丨新浪看点丨百度百家丨博客中国丨趣头条丨腾讯云·云+社区
“刷脸”进门,“靠脸”吃饭......在人脸识别技术日渐成熟的今天,这些曾经的想象已经无限接近于现实。根据前瞻行业研究院的预测,未来五年中国人脸识别整体市场将快速成长,实现多行业应用,预计到2021年中国人脸识别市场规模将突破50亿元。
在2018年北京安博会上,参观者走过一个展示面部识别软件的屏幕
但是,在人脸识别一路狂奔的同时,技术开发所涉及的隐私问题日渐暴露,应用中的弊病也逐渐凸显。
试想,在简单“刷脸”就能完成一切的同时,你的五官数据将永远成为网络数据集的一部分,甚至有可能被不同的机构调用。人脸识别所带来的并不只是便利、高效和未来感,在现阶段,它应该更多地与伦理、审查、规范化相联系。本期全媒派(ID:quanmeipai)带来独家编译,让我们放下对这项技术的想象与憧憬,从最现实的角度对其进行探讨和反思。
当研究数据被永久存储
如何划定隐私边界
当你走进一家坐着20个人的咖啡店,至少会有22个摄像头在你身边:每个人的手机里有一个,另一个通常高高悬挂在角落。你说的内容可能被偷听或被发布出去,你甚至可能出现在另一位顾客的自拍或视频会话背景中。但即使最注重隐私的人也不会因此而拒绝进入咖啡店,因为人们都能接受进入公共场所固有的风险。
正是这种对隐私的“合理”期望,使那些需要在公共场合采集人脸识别研究对象的研究者心安理得。但是,当公共场合采集的信息成为了永久且开放的数据集,如何划定“合理”的隐私边界,就成为了一片学术伦理尚未完善的灰色地带。
成为数据集的研究对象
杜克大学、斯坦福大学和科罗拉多州立大学多泉分校的学者们,都利用了校园监控作为捕捉研究对象的手段,但这一行为引起了强烈的反对。虽然人们对在咖啡店里被人偷听有心理准备,但却没有想过会突然变成研究对象,更何况,被录入的研究对象将永远成为数据集的一部分。
伦理委员会(IRB)批准了这三个使用学生数据来改进机器学习算法的研究项目。杜克大学研究员Carlo Tomasi在《杜克大学纪事报》(Duke Chronicle)的一份声明中表示,他“真诚地认为”自己遵循了委员会的指导方针。
为了开展研究,他和他的同事在公共区域的所有入口处张贴海报,告诉人们他们正在被记录,如果他们想要删除自己的数据,可以留下联系信息。Tomasi也告诉《纪事报》,没有人主动来联系研究团队删除数据。
但Tomasi承认,他没有通知IRB自己研究范围的变化。一般来说,微小的变化是可以不用上报的,但是Tomasi获得的批准是在室内录制,并且只有提交请求才能访问数据库。但现实中,他在室外录制,并且将数据库向所有人开放。他向《纪事报》表示,“IRB不应该受到指责,因为我没有在关键时刻咨询他们。我对我的错误承担全部责任,我向所有被记录的人和此举对杜克大学造成的影响道歉”。
有限的监管和失控的后果
在科罗拉多州立大学多泉分校,首席研究员表示虽然他们通过学生数据来测试技术,但是团队从未收集过具体到个人的识别信息。在独立声明中,大学们都重申IRB批准了所有研究,并强调了其对学生隐私的承诺。
但问题在于,大学伦理委员会的监管范围是有限的。他们主要关注研究是如何进行的,但对研究将会如何结束,后续会产生什么影响却并不关心。
正如盖辛格的IRB领导委员会主席、生物伦理学家Michelle Meyer所解释的那样,IRB主要关注的隐私问题是在公共场所开展观察研究时,研究对象是否被单独识别,以及对他们的识别是否会使他们面临实质利益或生理上的伤害。“从理论上讲,如果你正在制造一枚核弹,其中涉及调查或采访人类受试者,那么IRB考虑的风险将是直接参与该项目的人员面临的风险,而不是核爆炸的潜在风险。”
值得注意的是,在信息时代,大多数学术研究都依靠互联网,而互联网上的信息将永远存在。为其他研究人员开放数据集会增加伴生风险,但IRB在这一方面并没有多少管辖权。因为从根本上说,数据共享与研究本身并不是一回事,因此它处在“一个奇怪的灰色监管地带”,Meyer解释说。
如果IRB对研究可能导致的后果漠不关心,那么其他不受IRB标准约束的研究人员,就可以下载数据集并按照他们的意愿随意使用。而被研究的对象却对自己正在被研究这件事全然不知,这可能会导致各种消极的后果。
这些后果或许远远超出研究人员的想象。德国反监视专家Adam Harvey在全球范围内发现了100多个引用杜克数据集的机器学习项目。他创建了一张地图,用于追踪这一数据集在全球的传播情况,就像飞机的航线图一样,从杜克大学向各个方向延伸出长长的蓝线,指向世界各地的大学、初创企业和研究机构,包括中国的商汤科技(SenseTime)和旷视科技(Megvii)。
每次有新项目访问数据集时,损害可能导致的影响和范围都会发生变化。数据的可移植性和互联网的快速度结合在一起,大大扩展了一个研究项目的可能边界,也把风险扩展到远远超出任何一所大学能承担的范围。
解决尝试:建立学术审查系统
杜克大学最终决定删除与该研究相关的数据集。斯坦福大学清除了研究人员基于旧金山咖啡馆的顾客所创建的数据集。