专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
目录
相关文章推荐
黄建同学  ·  其实是创建了一个我自己用的应用,Replit ... ·  14 小时前  
爱可可-爱生活  ·  【五个Jupyter实用技巧】1. ... ·  昨天  
宝玉xp  ·  Anthropic 并不鼓励用 AI ... ·  昨天  
新机器视觉  ·  DeepSeek R1 ... ·  5 天前  
新机器视觉  ·  DeepSeek R1 ... ·  5 天前  
51好读  ›  专栏  ›  机器学习研究会

【AIDL专栏】纪荣嵘:深度神经网络压缩及应用

机器学习研究会  · 公众号  · AI  · 2018-03-15 22:44

正文

                                                                                                                                                                             
点击上方“机器学习研究会”可以订阅
摘要
 

转自:人工智能前沿讲习班

一、深度神经网络压缩领域的研究现状

深度神经网络(DNN)起源于人工神经网络(ANN),传统的ANN虽然有很多科研成果,但是距离实际应用很远。DNN是ANN的扩展,基本想法是把ANN做的更深,使模型具有更强的表现力。由于数据集成指数级别增长,并且有越来越多类似GPU的设备应用,使DNN的运算能力爆发式增长,得以广泛应用。

为了挖掘模型潜力,模型被做得更深(如从VGGNet的16层到ResNet的19层),网络的深度和每层节点的个数也必须增加以提高性能(如GoogleNet)。在某种意义上,DNN并不是越深越好,有些深度模型在两三千次迭代训练之后会出现梯度消失、不收敛等问题。

DNN在许多问题上取得了突破,但是有一些应用问题并未得到有效解决:

1、小样本集训练(Small training set)。DNN有上千万的参数,需要大量的样本训练,但却难以在少量样本的情况下训练模型。而小样本训练问题在现实生活中很常见。

2、非均衡样本集训练(Biased training distribution)。大多数的模型都假设训练样本是均衡的,面对少量的、非均匀的样本,现有的训练方式就会失效。

3、在线/增量学习(Online/incremental Learning)。训练模型对于解决固定格式的数据问题是有效的,但是如果数据类别发生变化,以至于改变了整个模型结构,如何灵活应对增量的、在线的数据?





请到「今天看啥」查看全文