旷视研究院联合北京大学数学科学学院机器学习实验室开设的《深度学习实践》全套课程(视频+PPT,共计28课时)今日在AI研习社正式全面上线,让你足不出户也能享有高水平的教学资源。
“与其疫情宅家玩游戏,不如家里蹲大学把课上。”疫情期间,我们每日听到的最多的信息之一可能就是号召大家在线坚持学习。不过,在左有“名师授课”、右有“速成深度学习”,多重信息的围攻之下,大部分人最终还是选择了那条无数“英雄”选择的道路——“收藏+下次一定”,重回电子虚拟世界,麻痹自己,蹉跎人生。
怎么办?旷视研究院为你支招!
今日,旷视研究院联合北京大学数学科学学院机器学习实验室开设的《深度学习实践》全套课程(视频+PPT,共计28课时)全面向社会免费开放!从深度学习基础理论到计算机视觉实践,由旷视首席科学家兼研究院长孙剑,及身经百战的研发总监、资深研究员亲身授课,真正将高水平深度学习课程带给大家。知识全面、循循善诱、透彻又不枯燥是本课程最大的特点。
《深度学习实践》是旷视研究院联合顶尖高校开设的系列深度学习精品课程之一。作为旷视的研发中心,旷视研究院一直基于自研的人工智能算法平台Brain++和深度学习框架MegEngine开展最前沿学术、产业技术研究、交流,累计收获27项世界冠军;并实现在个人物联网、城市物联网、供应链物联网三大领域的应用落地。值得一提的是,旷视后续将对Brain++及其核心框架、平台进行开源、开放,强大的算力、SOTA模型、框架资源任你用,敬请期待~
此次课程录制于2017年秋季旷视研究院在北京大学授课期间,已连续开设3年,后续将开放更多精彩课程供同学们学习、研究。
课程大纲
Lecture 1(Intro of CV and DL)
本节课是一堂入门性的概述课程,主要通过向学生介绍计算机视觉的含义,计算机视觉的主要应用场景,以及计算机视觉从经典方法发展到现在基于深度学习的方法的理路变迁来引导学生获得对该领域的一个全局性的理解。
Lecture 2(Math In DL)
本节课着重介绍深度学习技术中使用的数学知识。
与其它课程、书籍不同,本课程忽略了很多过分抽象、复杂且使用频率不高的内容,以便同学们能够较为容易地对深度学习涉及到的核心数学知识有良好掌握。
Lecture 3(Network Basics & Architecture Design)
本节开始正式介绍深度神经网络相关的基础知识。
在神经网络基础介绍中,讲者从视觉识别的困难切入,逐步深入分析了神经网络架构的特点以及训练优化方法。
进一步,课程还介绍了网络架构设计的具体细节。
Lecture 4(Computation Technology)
本课程介绍深度学习涉及的计算技术,包含人们常用的深度学习框架背后实现的思想与原理;
如何在现有如CPU、GPU的构架下,实现快速数学计算;
以及在分布式深度学习中的通信与优化技术。
Lecture 5(Neural Network Approximation)
本课程介绍神经网络压缩技术。
众所周知,一个真正有效地神经网络在训练和推理过程中往往需要消耗高额的计算成本,如何更快、更高效地让其进行工作就成了技术落地的关键。
本课程从三个方面:
低质、稀疏与量化逐一介绍了神经网络压缩技术。
Lecture 6(Modern Object Detection)
本课程介绍基于深度学习的物体检测技术。
物体检测技术不要求系统精准识别某个物体的具体属性,例如这辆车是保时捷 911,而是让系统能够在画面中识别出所有被称为车的物体,即(Category-level Recognition,而非Instance-level Recognition),本课将对此展开介绍。
Lecture 7(Text Detection and Recognition)
本课程介绍了近年来场景文字检测与识别中的进展,以及旷视在该领域的工作与成果。
具体而言,分为文字识别任务的背景与经典方法回顾、近来基于深度学习的技术进展。
需要强调的是在第三部分。
课程重点介绍了文字识别任务的数据集与比赛。
Lecture 8(Image Segmentation)
当前,越来越多的应用场景需要精确且高效的图像理解能力,如自动驾驶、室内导航、甚至虚拟现实与增强现实等,图像分割技术就是实现这一切的关键技术之一。
本课程介绍了图像分割中语义分割与实例分割技术的具体细节。
Lecture 9(Recurrent Neural Networks)
本课程从循环神经网络(RNN)的基础到前言应用进行了介绍。
作为图灵完备的模型,循环神经网络相较于卷积神经网络能够做更复杂的工作。
从课程设置来看,在介绍了RNN基础之后,课程会讨论部分经典RNN架构,如LSTM、有Attention的RNN和有External Memory的RNN。