专栏名称: AI数据派
THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。
目录
相关文章推荐
高分子科学前沿  ·  浙理工尹鑫、熊杰/上大吴振跃/港理工夏书会、 ... ·  昨天  
高分子科学前沿  ·  天津大学胡文平团队,最新Nature ... ·  2 天前  
艾邦高分子  ·  高分子材料在3D打印鞋类中的应用 ·  3 天前  
高分子科技  ·  武汉纺织大学任学宏教授团队 ... ·  6 天前  
51好读  ›  专栏  ›  AI数据派

不要再用Python了!Yann LeCun:深度学习需要一种新的编程语言

AI数据派  · 公众号  ·  · 2019-02-22 07:30

正文

来源:AI前线

本文 约2100字 建议阅读 5 分钟。

本文为你分享“卷积神经网络之父”Yann LeCun对于人工智能的发展提出的一些新的看法。


[导 读] 当地时间 2 月 18 日,Facebook 首席人工智能科学家、卷积神经网络之父 Yann LeCun 在旧金山的国际固态电路大会上发表了一篇论文,分享了他关于人工智能发展的一些看法,同时也谈到自己对于芯片和硬件发展的关注和研究。在这其中,诸如“深度学习可能需要一种新的编程语言”等说法引起了热烈讨论。

“深度学习需要一种新的编程语言”


自 20 世纪 80 年代以来,LeCun 就一直致力于神经网络研究。由于他本人对于神经网络发展的贡献,所以被冠以 “卷积神经网络之父” 的称号。


在当天的演讲中,LeCun 对于人工智能的发展提出了一些新的看法:


“在谷歌、Facebook 和其他地方有几个项目旨在设计这样一种编译语言,这种语言可以有效地进行深度学习,但社区是否会跟进还不清楚,因为人们只想使用 Python。但现在的问题是:Python 真的是最好的解决方案吗?”


LeCun 认为, 深度学习可能需要一种比 Python 更灵活,更易于使用的新编程语言。 目前尚不清楚这种语言是否必要,但 LeCun 表示,这种可能性与研究人员和工程师非常根深蒂固的愿望背道而驰,很有可能带来颠覆性的变革。


根据 GitHub 最近的一份报告显示:Python 目前是机器学习项目的开发人员最常使用的语言,该语言同时也是构成 Facebook 的 PyTorch 和 Google 的 TensorFlow 框架的基础。


但是,随着代码越来越复杂,开发人员对于编程语言的要求也更高了,就连图灵奖得主大卫·帕特森也曾表示:是时候创造新的编程语言了。


与此同时,一些之前名不见经传的小众编程语言也逐渐成为一些开发者的新宠。最能说明问题的就是去年 8 月才正式发布 1.0 版本的 Julia,从 2012 年到现在,Julia 1.0 在编程界已经打出了自己的一片“小天地”,在 Github 上已经获得了 12293 颗星星。


与其他语言相比,Julia 易于使用,大幅减少了需要写的代码行数;并且能够很容易地部署于云容器,有更多的工具包和库,并且结合了多种语言的优势。据 Julia Computing 的宣传,在七项基础算法的测试中,Julia 比 Python 快 20 倍,比 R 快 100 倍,比 Matlab 快 93 倍。 除了 Julia,Swift 也成为了数据科学家们的新朋友。


“未来十年,硬件将左右 AI 的发展方向”


在演讲中,Yann LeCun 还专门谈到自己对于芯片和硬件发展的看法。


人工智能已有 50 多年的历史,但它目前的崛起与计算机芯片和其他硬件提供的计算能力的增长密切相关。


“更好的硬件催生出更好的算法以及更好的性能,更多的人才可以制造出更好的硬件,这样的良性循环只有几年的历史了。”LeCun 表示,20 世纪 80 年代他在贝尔实验室工作,并已经能够使用 ConvNet (CNN) AI 读取邮政信封和银行支票上的邮政编码。


21 世纪初,在离开贝尔实验室加入纽约大学后,LeCun 与该领域的其他知名人士合作,比如 Yoshu Bengio 和 Geoffrey Hinton,开展了一项研究,以恢复人们对神经网络的兴趣,并让深度学习变得更受欢迎。


近年来,硬件方面的进步——如现场可编程门阵列 (FPGA)、谷歌的张量处理单元 (TPU) 和图形处理单元 (GPU) 等,在该行业的增长中发挥了重要作用。据了解,Facebook 也在开发自己的半导体。


LeCun 在演讲中说:“现有的硬件对人们所做的研究有很大的影响,因此 未来十年左右,人工智能的发展方向将很大程度上受到现有硬件的影响。 这对计算机科学家来说是件很丢脸的事,因为我们喜欢抽象地认为,我们的发展不受硬件限制的限制,但实际上我们是很受限制的。”


LeCun 强调了未来几年硬件制造商应该考虑的一些 AI 趋势,并就近期所需的架构提出了建议,建议考虑不断增长的深度学习系统的规模。


他还谈到需要专门为深度学习设计的硬件,以及能够处理一批训练样本的硬件,而不是像现行标准那样,需要批量处理多个训练样本才能有效运行神经网络,他说:“如果你运行一个单一的图像,不可能利用所有的算力,这样的行为会造成资源浪费,所以批量生产迫使人们思考训练神经网络的新方法。”


他还建议使用动态网络和硬件,这些网络和硬件可以灵活调整,只利用完成任务所需的神经元。


在这篇论文中,LeCun 重申了他的理念:即 自监督学习将在推进人工智能的发展中发挥重要作用。


LeCun 在论文中写道:“如果自监督的学习最终允许机器通过观察学习关于世界如何运作的大量背景知识,那么可以假设某种形式的机器常识可能出现。”


LeCun 认为,未来的深度学习系统将在很大程度上使用自监督学习进行训练,并且需要新的高性能硬件来支持这种自监督学习。他表示,Facebook 正致力于尽其所能做的一切,降低功耗并改善延迟问题,以加快处理速度。LeCun 补充说,实时监控网站上的视频所带来的巨大需求,使得研发团队需要进行新的神经网络设计。







请到「今天看啥」查看全文