编者按:人工智能正在深刻地影响社会生活、改变世界。在引发巨大变革的同时,它也带来了诸多风险。如何从技术的角度打造“负责任的人工智能”已成为新的关注重点。作为一家负责任的技术企业,微软强调到人工智能开发应用应遵循以下六个道德原则:公平、可靠和安全、隐私和保障、包容、透明、负责。
在此背景下,由微软亚洲研究院-中国科学技术大学联合实验室举办的“负责任的人工智能” 前沿技术论坛成功举办。参会嘉宾们从隐私与安全、透明与可解释、高效可靠的类脑智能、AI 赋能民生四个方向出发,探讨了如何践行这些原则进行人工智能的开发,以道德为准绳管理人工智能,从而让其更好地造福世界。本文即是对研讨会中精彩讨论内容的回顾。
论坛合影
随着人工智能的快速发展,它已经渗透到我们日常生活的方方面面。
使用语音助手,人们可以与各种智能设备进行交互;
基于人脸识别,人们可以进行身份认证、安检、购物等活动;
利用推荐算法,人们可以方便地获取感兴趣的新闻和商品推荐;
通过位置共享,人们可以实现智能交通管理等。
在给我们的日常工作和生活带来巨大方便的同时,人工智能也引起了大家对用户隐私和数据安全的广泛担忧。
人工智能中有哪些独特的隐私和安全问题?
从技术的角度出发,负责任的人工智能应如何保护隐私和确保安全?
工业界和学术界应该如何更紧密地进行合作?
参会者针对这些问题进行了热烈的讨论。
与会学者一致认为,隐私和安全是一个十分严重甚至“细思极恐”的问题,它与每一个人都紧密相关。
许多手机应用都获取了用户的大量信息——除了地理位置信息,还包括通话记录、短信记录,甚至还需要麦克风、摄像头等在使用中非必要的权限。
加之监控摄像头变得无处不在,以及越来越多的可穿戴设备(如智能眼镜等),大量用户信息都被自动采集和上传。
有研究表明,有些应用和设备如某些输入法和智能音箱,会自动收集用户的输入内容和语音内容并上传,从而带来用户隐私和敏感信息泄露的隐患。
然而,用户对这些数据被如何使用和存储往往一无所知,对如何防止过度的数据采集更是无能为力。
为了保护用户的隐私和数据安全,已有许多相关技术,如同态加密、K匿名、基于硬件(例如Intel SGX)的保护等。
这些技术各有优缺点,但并不能完全满足人工智能中隐私和安全的需要。
基于人工智能的特别之处,比如为了保护模型训练中的数据隐私和安全,研究人员提出了分布式的联邦学习等。
人工智能的应用场景和与之相伴的隐私问题也值得探讨。
譬如,智慧课堂利用人工智能和大数据分析,对学生的行为和学习效果进行监督,这对于改进现有填鸭式教学、实现差异化深度课堂互动、提升教学和学习的效率有很大的促进作用。
然而,它也引发了社会上关于隐私保护和行为监控的广泛关注和讨论。
又如,在视频通话场景中,很多用户往往不希望对方或公众看到跟私人相关的环境背景,以人工智能为基础的实时视频分割技术可以很好地过滤背景,从而保护用户的隐私,微软的视频会议软件Teams已可以实现这一功能。
因此,
如何针对具体场景,在用户隐私保护和满足功能需求之间取得很好的平衡
,是一个值得深入研究的问题。
仅仅依赖技术手段来保护用户的隐私和数据安全是远远不够的,我们还需要法律。
在这方面,欧盟的 GDPR 法案因其严格的条款而广为人知。
收集个人数据的公司不仅要详细陈述如何使用用户数据,用户还权要求其删除自己的数据。
微软承诺遵守 GDPR 和各国法律以保护和实现用户隐私权。
中国也在不断完善相关法律法规的制定和实施。
在如何更好地保护用户隐私和数据安全方面,与会学者就几个基本原则达成了共识。
首先,尽量在本地进行数据处理,能不上传数据就不上传,这也是边缘计算正在受到越来越多的关注的原因之一。
其次,如果必须上传数据,一定要进行匿名化处理,将数据与个人信息解耦,使得数据能够为人工智能所用而隐私则被过滤。
另外,还要有技术手段对用户的数据进行防护,抵挡可能的攻击。
针对这些研究问题,来自微软亚洲研究院与中国科学技术大学的与会学者计划在未来围绕两个重要场景进行合作:
智能家居,自动驾驶中的智能感知。
如何能让人工智能负责任、充分保护用户隐私和数据安全,仍然是一个任重道远的挑战。
期待有兴趣在这方面开展研究工作的同仁们加入我们,一起为之努力。
近年来,人工智能的快速发展引发了人们对其可解释性的强烈关注。
在许多关键应用领域,可解释的人工智能系统有助于用户更好的理解、信任和管理它们。
中国政府在《新一代人工智能发展规划》中明确提出要“实现具备高可解释性、强泛化能力的人工智能”。
欧盟也在《一般数据保护条例》中要求人工智能算法能解释其输出原理。
在这个新兴且快速发展的领域中,有不少重要的问题需要我们深入思考:
如何定义可解释性?
可解释性的目标是什么,如何进行评测?
可解释性的主要应用场景是什么?
如何借助知识图谱及自然语言处理技术对可解释性进行强化?
在此次研讨会中,参会者就这些问题展开了热烈讨论。
大家分别结合自身研究分享了可解释性在自动驾驶、计算机视觉、推荐系统、自然语言处理等领域的应用和重要性,
提出可解释性的重要价值在于帮助理解模型、提高模型准确性、增强模型泛化能力及增加用户对于模型的接受程度等。
就现阶段而言,可解释性的定义和评测标准与具体应用场景紧密相关。
围绕可解释性的研究应最终实现算法可解释性和准确性的共同提高。
在讨论中,微软亚洲研究院主管研究员王希廷介绍了她近期在可解释性方面的研究成果。
她在 ICML 2019 的论文《Towards A Deep and Unified Understanding of Deep Neural Models in NLP》中提出一种方法,能对任何自然语言模型进行解释,同时保证对不同神经元、模型不同层以及不同模型之间解释的一致性。
她还分享了她利用知识图谱构建深度、可解释的推荐模型的方法,以及一种结合知识图谱和自然语言处理技术生成自然语言解释的可解释推荐算法。
作为研究成果落地的示例,她分享了可解释性在微软必应广告中增加广告点击率,提高了用户体验的案例。
中国科技大学特任研究员连德富分享了他对智能交通领域可解释性研究的展望。
随着深度学习的进步和城市数据的增加,深度学习已经成为智能交通领域最重要的分析建模方法。
智能交通中的主要研究问题包括路径规划、通行时间估计、交通流预测、信号灯控制、拥堵分析与预测、交通需求预测、上车点推荐等。
针对这些研究问题,基于深度卷积网络、循环神经网络、深度强化学习等的建模分析算法被提出,各类任务的预测精度被大幅提升。
然而,这些黑盒模型非常难以解释,算法预测的结果也通常难以理解,使得基于深度学习的智能交通算法在失效时无法做出准确诊断,其预测结果难以直接服务于用户。
为此,具有模型可解释性和结果可解释性的深度学习算法将是智能交通领域的一个重要研究方向。
连德富提出可以基于虚拟事实推断、知识蒸馏、重要性分析等相关技术展开智能交通算法的可解释性研究。
微软亚洲研究院首席研究员王井东则结合自己的研究领域指出,寻找合适的网络结构来解决计算机视觉任务是可解释性研究中一个重要课题。
融合人的知识,而不是把网络结构当成黑盒,来帮助设计和搜索网络架构,能有效的提升网络性能,降低网络的参数和计算复杂度,提高网络的泛化能力。
传统网络结构存在一些问题,比如分辨率的缺失在空间位置敏感的任务中会造成性能降低。
他提出的
高分辨率网络(HRNet)
通过基于知识导向,在整个网络过程保持高分辨率,能够提升分割、检测、人体姿态估计等一系列空间位置敏感任务的性能。
他指出,针对人体匹配、物体关系发现等计算机视觉任务,人类还拥有很多其它知识或者尚未很好的总结出来的知识。
如何将这些知识有效地、全面地、正确地以网络结构的形式表示并嵌入到整个的网络设计中去,将是有潜力的研究方向,能够同时提高模型的性能和可解释性。
他将其称之为
知识导向的神经网络结构设计
。
王井东预期,知识驱动的解决方法将在计算机视觉研究领域中成为一个重要的研究方向。
对大脑神经运行机制的探索和发现可以启发人工智能的研究和发展,世界上多个国家都在积极布局类脑智能的研发。
随着高分辨率成像技术的发展,生物学家可以在纳米级、微米级分辨率上对生物的脑组织进行切片成像,这就产生了巨量的图像数据。
2019 年 8 月,谷歌与霍华德•休斯医学研究所和剑桥大学合作,重建了整个果蝇的大脑。
其重建的完整果蝇大脑高达 40 万亿像素。
这样巨量的大脑数据对类脑智能的研究带来了哪些挑战?
本次研讨会围绕着类脑研究中的“高效可靠”所面临的相关挑战展开了讨论。
挑战之一,是如何对海量的脑图像数据进行高效的存储和传输。
在当前微米级分辨率的电镜成像背景下,对 0.1 立方厘米的果蝇大脑扫描成像后需要 40 万亿像素。
果蝇全脑大约有 10 万个神经元,而鼠脑的神经元个数在 1 亿左右,人的大脑神经元个数则在 10 亿左右。
在探索脑神经运行机制过程中,如何对这些数据进行高效的存储和传输,促进数据资源在领域内共享,是尤为重要的。
挑战之二,在于如何对海量脑数据进行高效的分析。
获取海量的数据之后,需要大量的图像处理和分析技术,对分片扫描的图像数据进行增强、对齐、拼接、重建,然后在突触级进行分析,包括神经元分割、神经元重建、神经元形态分析等等。
这些海量数据的处理分析不可能依靠人力解决,这为自动化的、智能化的人工智能技术提供了广阔的应用平台。
挑战之三,是类脑智能研究如何赋能人工智能。
从早期神经网络的神经元单元的设计,到脉冲神经网络,科学家们都在尝试借鉴大脑的工作机制来设计高效的人工神经网络。
近几年,
脉冲神经网络的研究吸引了广泛注意,被看作是下一代神经网络基本架构。
与会学者从脉冲神经网络在数学计算、模型性能、到硬件实现上的基本特性开展了多方位的讨论,希望探索出未来神经网络的发展趋势。
与会学者也提到,目前基于微观成像的脑与认知研究,由于其成像代价和数据规模巨大的限制,只能支持解析果蝇、小鼠、猕猴等部分模式动物的全脑或局部。
而对人脑运行机制在宏观尺度上的研究和发现,例如利用脑电、核磁共振成像等无创技术获取数据来研究人脑区域活动,对人工智能的研究也有较大的借鉴意义。
从显著度模型到注意力机制,这些人工智能技术的发展在很多时候都是受到了人脑认知机理的启发。
与会学者
一致认为在当下,
利用飞速发展的人工智能技术来对脑图像进行高效的分析和处理,对于探索脑神经的运行机制和认知机理具有非常大的意义。
高校可以充分发挥其在多学科的优势,结合微软在数据处理、计算平台等优质资源,双方进一步深入合作,推动类脑智能研究进程。