专栏名称: AI开发者
AI研习社,雷锋网旗下关注AI开发技巧及技术教程订阅号。
目录
相关文章推荐
财经网科技  ·  算力平台纷纷接入通义 ... ·  昨天  
财经网科技  ·  算力平台纷纷接入通义 ... ·  昨天  
黄建同学  ·  Manus 开发团队成员的回复:这并不复杂 ... ·  2 天前  
爱可可-爱生活  ·  【[108星]ANUS:一个开源的AI ... ·  3 天前  
51好读  ›  专栏  ›  AI开发者

AI 崛起的第九个年头,还有哪些大有可为的地方?

AI开发者  · 公众号  · AI  · 2020-02-26 18:32

正文

点击上方“蓝字”关注“AI开发者”


作者 | 蒋宝尚、丛末
编辑 | 贾伟

从2012年算起,人工智能的再次爆发已经进入了第九个年头,人们对“人工智能是什么”也从最初的懵懂、憧憬、恐惧,逐渐走向深度的认识。在2018年人们还在讨论人工智能什么时候会再次进入寒冬,但到了2019年人们对“寒冬”之说已经不再感冒,而是普遍在追寻“如何让人工智能可理解”或者“AI所引发的隐私、安全、伦理问题”。2020年,人工智能依旧在蓬勃发展,并在各行各业产生了深刻的影响。2020年还剩下10个月的时间,让我们去预期,人工智能会有哪些重要的趋势呢?
CB insights曾就此问题做了一个判断,并给出人工智能的九个重要研究和应用趋势。AI 科技评论在一定程度上认同这些判断,针对这 9 个趋势,我们将做以下分析。

一、Deepfake将改变商业模式

CB insights认为商业性质的Deepfake可能会兴起,死去的名人将会“复活”,零售业以及营销的方式也会得到改变。
前些日子,Deepfake技术现身印度选举,被候选人用于竞选拉票的宣传材料。虽然此候选人最终以惨败收场,但这意味着Deepfake点燃的AI换脸之火有逐渐升温的迹象。
虽然此技术出现在政治视频以及色情视频中会带来负面的影响,但是对于媒体、电影公司来说却是千载难逢的机会。例如好莱坞的一些电影公司正在想方设法“数字复活”五十年代中的电影人物。

在商业层面,Deepfake将会变的更加个性化,提升电子商务体验和虚拟在线试用;广告投放也会朝着超定向方向发展,例如按照需求合成视频,并配备相应的方言;创意流程也会变得自动化,例如“补拍”电影续集。

从技术层面上讲,Deepfake技术也在突飞猛进。就在近期, 北京大学联合微软研究院分别提出了FaceShifter和Face X-Ray ,前者是一种高保真度、可识别遮挡的换脸工具,后者则是能够检测伪造人脸图像的工具。
其中经过训练的FaceShifter可以无需任何手动注释,以自我监督的方式恢复异常区域,自适应地集成身份和人脸合成属性。而Face X-Ray不光能判断是否是合成图片,还能指出哪个地方是合成的,即兼备识别+解释两种功能。
这两个技术号称 AI换脸界的“利矛”和“坚盾”,在业界取得了领先的结果,另外值得注意的是其所需的数据比以前的方法少得多。
所以在Deepfake问题上,2020 年的发展趋势主要包括:
1)Deepfake在一攻一防的斗争中逐渐进步,小数据、无监督的训练方法将成为模型的主流,传统耗时耗力的计算机生成图像技术也将逐渐被取而代之。
2)Deepfake将改变商业模式,广告营销将会变得更加个性化,电影创作不再局限于真实拍摄。

二、黑客的革命: 利用 AI 来攻击 AI

传统黑客主要是通过发现系统漏洞从而进行系统侵入。但进入人工智能时代后,黑客、白客之间的攻防战争也发生巨大的变化。
随着人工智能的崛起,AI渐渐被用于自动检测和打击恶意软件,可以学习发现可疑行为,并在可能影响任何系统之前阻止网络攻击,同时使得人类避免一些不必要的工作量。
但是攻击一方也可以使用相同的技术来增强他们的攻击方法,特别是犯罪分子将之武器化,这些恶意软件甚至可以逃避最好的网络安全防御并感染计算机网络,甚至可以仅在摄像机检测到目标的人脸时发动攻击。
这意味着在2020年,未来的黑客可能在两个方面发力:1、欺骗规模上升到系统级别;2、利用AI发起更为复杂的攻击。
例如在2019年,Skylight Cyber的研究人员找到了一种方法可以发现AI模型中的固有偏见,利用这种偏见可以创建出“后门”,使得恶意软甲绕过 AI 防火墙,骗过杀毒软件。
这也就是说,如果能够理解AI模型的工作原理,基于其特定功能设计攻击武器,就能够愚弄系统。
随着Skylight Cyber这种AI公司越来越多,消费者和企业保护的级别固然会上升,但是针对AI特有弱点的新一批黑客和软件也会随着出现。
另一方面,黑客也可能会从数据的角度来愚弄AI,即破坏AI算法的训练数据,使得AI产生偏见,影响其对网络中正常行为和恶意行为的区分。
利用语音合成的犯罪案件
当网络安全研究员越来越多的使用AI防御攻击时,AI本身也会被用来制造更加复杂,更有针对性的网络攻击。例如Deepfake生成的语音和合成的语音越来越逼真。在欧洲,已经发生了一些黑客利用AI模仿公司CEO给员工打电话然后让其转账的案件。
虽然在现实世界中利用AI来攻击的犯罪案件尚未有报道,但是早在2018年,IBM就开发了一种名为Deeplocker的深度学习驱动的恶意软件,可以绕过网络安全保护来进行攻击。该软件被描述为“一种由AI驱动的具有高度针对性和规避性攻击工具的新型恶意软件”,目的是了解现有的AI模型是如何与恶意软件技术相结合,从而创造出一种新的攻击类型。
此技术将黑盒AI的传统弱点变成了一种优势,在目标物未出现之前,可以隐藏在普通的应用软件中,感染掉上百万的系统也不会被察觉。这个 AI 模型只有在识别出特定的标准时,才会“解锁”并开始攻击。
当然,除了AI型的黑客,使用量子计算资源的量子黑客、利用大数据进行分析的大数据黑客等也将逐渐浮出水面。
所以在技术层面,2020 年黑客发展趋势主要包括:
1)AI本身也会被用来制造更加复杂,更有针对性的网络攻击。
2)由于AI的黑盒性质,网络攻击将会变得更加隐蔽和猛烈。


三、AI 技术日益普及化和平民化,AutoML将大显身手

AutoML 作为一套自动化设计和训练神经网络的工具,能够降低企业的进入门槛,使得技术更加“平民化”。
从数千个特定任务中设计或搜索正确的神经网络框架整个过程非常耗时,尤其是在为更加复杂的场景(例如自动驾驶,需要兼具速度和准确率)设计AI 架构时,就更非易事。
对此,神经架构搜索(NAS)应运而生,可自动化为给定任务找到最佳 AI 设计的过程。2017年,谷歌正式将其命名为“AutoML”。谷歌在当时便指出, AutoML 将启发新型神经网络的诞生 ,并且还能够让非专家也能够根据他们的特殊需求创建相应的神经网络。
自此之后,AutoML 的应用越发广泛,在数据准备、训练、模型搜索、特征工程等 AI 设计中都发挥着巨大的作用,极大地推动了 AI 技术的普及化。
总体而言,AutoML 主要具备两个主要优势:
1)可缓解人才短缺问题:目前 AI 专家还是处于非常短缺的状态,而AutoML 则会极大地降低非专家以及企业的技术使用门槛,从而推动 AI 技术的普及和推广。
2)可节省成本和降低复杂性:即便对于专家而言,设计神经网络都是一个费时费力的过程。AutoML 在降低计算和试错成本的同时,开发的解决方案也更胜一筹。
随着 AI 技术越发普及化和平民化,AutoML将继续大显身手。
而在未来的研究方向上,主要可以从算法方向和理论方向着手:
1)在AutoML算法上,未来的工作如果能在效率提升、泛化性、全流程的优化、面对开放世界、安全性和可解释性这 5 个方向上取得突破,将会有较大的价值。
2)在AutoML理论研究上,目前相关的研究还较少,对自动机器学习的泛化能力及适用性也不是很清楚。因而,一方面要回答目前自动机器学习算法的适用性和泛化能力,另一方面也要回答哪些问题类存在通用的机器学习算法上和更广泛问题空间上的自动机器学习算法的可行性。

四、联邦学习将带来新的数据共享范式

联邦学习的概念最初是由Blaise等人于2017年在Google AI Blog上发表的一篇博文中首次提出。 自提出至今,相关研究甚嚣尘上。
联邦学习之所以能够在如此短的时间里迅速由一个构想变为一门学科, 主要原因在于联邦学习技术作为一种学习范式,能够在确保用户数据隐私的同时解决“数据孤岛”问题。
无需数据收集,即可改进AI模型
相对于传统的AI模型,联邦学习更像针对当前人工智能发展所面临的困境的新范式,例如:
1、在联邦学习的框架下,各参与者地位对等,能够实现公平合作;
2、数据保留在本地,避免数据泄露,满足用户隐私保护和数据安全的需求;
3、能够保证参与各方在保持独立性的情况下,进行信息与模型参数的加密交换,并同时获得成长;
4、建模效果与传统深度学习算法建模效果相差不大;
5、联邦学习是一个闭环的学习机制,模型效果取决于数据提供方的贡献。
以上优点显然给解决数据隐私和安全问题提供了一种新的路径,而在具体应用层面,英伟达的医疗硬件和软件框架Clara已经能够支持联邦学习,当前已经有美国放射学院、MGH、BWH临床数据科学中心以及UCLA Health 在平台上训练相关算法。
所以,在技术上,确实可以保证合法的进行联邦学习,并且是有效果的。 因此联邦学习像一个操作系统,它的特点是多方合作,只有多方都认可才能发挥其威力






请到「今天看啥」查看全文