据国外媒体报道,日前斯坦福大学研究人员开发的一个算法能够根据面部照片推测出该人士的性别取向。通过对约会网站上公开的面部照片进行测试,其准确率达到91%,但同时也为社会带来了伦理方面的思考。
根据新的研究,人工智能能够基于面部照片准确地推测出照片的主人是同性恋还是直男(女),这似乎表明机器对于人类性取向有更准确的辨识度。
斯坦福大学的研究发现,计算机算法区分同性恋和直男的准确度为81%,而对女性照片的性取向辨识度为74%,这一研究引发了性取向的生物学起源,面部检测技术的伦理问题以及这种软件是否违反人身隐私或被滥用于反LGBT目的等方面的讨论。
相关研究发表在《人格与社会心理学》杂志上,这种人工智能的测试是基于在美国约会网站上公开发布的超过35,000张男女面部图像样本。研究人员Michal Kosinski和Yilun Wang利用“深层神经网络”从图像中提取相关性别特征,这意味着他们打造了一个复杂的数学系统,应用了基于大数据集的视觉分析。
研究发现,同性恋男女往往性别特征不够明显,本质上讲同性恋男性似乎更加女性化,反之亦然。这些数据还确定了一些趋势,包括同性恋男子的鼻子比直男更狭窄,更长,同时额头也更大。与直女相比,同性恋女性的颌骨较大,额头较小。
相比之下,人类的直觉要比算法差得多。一个人准确判断一个男人性取向的概率为61%,同样准确判断女人性取向的概率更低,仅为54%。而当研究中的人工智能能够检测目标人物的五张头像后,其准确率更高,对男人性取向判断的准确率为91%,而对女人性取向判断的准确率为83%。研究人员表示,这通常意味着“面部图像中隐藏着人们无法感知和解释的更多性别信息”。
研究认为,研究结果强力佐证了这样一种理论,即性取向源于出生前母体内某种激素的升高,这意味着一个人并非天生就是同性恋。人工智能对女性性取向辨识度较低的结果也从一个侧面验证了女性性取向更加飘忽不定的理论。
当然调查结果在性别和性行为方面有明显的局限性,有色人种并不在研究之中,也没有考虑变性人或双性恋者,事实上这些现实对人工智能的影响是巨大的。研究人员希望能够使用存储在社交媒体网站和政府数据库中的数十亿人脸图像。但未经许可,公共数据不得用于检测人的性取向。
很容易想象配偶会使用这种技术来测试另一半,青少年也会使用算法检测自己或同龄人。这意味着开发类似功能的软件是有争议的,或许对社会有害。
但论文的作者认为,该技术已经存在,其功能对于公众来说有重要的需求,因此政府和公司可以主动考虑如何应对隐私风险以及完善法规的需求。
“这当然是令人不安的。像任何新工具一样,如果它陷入错误的手中,它可以用于恶意的目的,“多伦多大学心理学副教授Nick Rule说,他曾发表过关于性别检测科学的研究。 “如果你是根据他们的外表进行分析,然后识别出他们,并做出负面事情,那真的很糟糕。”
Rule认为开发和测试这项技术仍然很重要:“论文所做的仅仅是说明这个功能有多强大。?...现在我们知道我们每个人都需要保护。“
在斯坦福大学的研究中,研究人员还指出,这种人工智能可用于探索面部特征与一系列其他现象之间的联系,如政治观点,心理状况或个性。
这种类型的研究进一步引起了人们对类似于科幻电影《少数派报告》中场景的担忧,人们只要有犯罪动机就会被逮捕。
面部识别技术公司Kairos首席执行官Brian Brackeen说:“只要数据量足够大,人工智能可以告诉你任何人的任何情况。关键问题在于我们想知道吗?”
Brackeen表示,斯坦福大学关于性取向的人工智能研究“令人吃惊”,整个社会需要更多地关注隐私和技术的使用,以防止机器学习的滥用越来越普遍。
Rule也担心人工智能在面部识别上的滥用会引发更严重的性别歧视问题:“我们应当共同关注。“