本文约
1000
字,
建议阅读
5
分钟。
本课程内容涵盖了深度学习的基础内容,以及较新的强化学习、GAN等。
[ 导读 ]
CMU深度学习秋季课程开课了!课程的主讲老师是深度学习大牛、CMU计算机学院的Bhiksha Raj,课程内容涵盖了深度学习的基础内容,以及较新的强化学习、GAN等。
在深度学习研究领域CMU一直走在世界前列,其课程几乎是入门首选材料,
课程的slides和video将随着课程进度陆续公开
,想要系统地学习并掌握深度学习的读者千万不要错过。
以深度神经网络为代表的“深度学习”系统越来越多地在各种AI任务中大显神威,包括语言理解、语音和图像识别、机器翻译、规划、甚至游戏和自动驾驶。因此,掌握深度学习方面的专业知识已经逐渐从高深莫测转变为现在许多高级学术问题中必须掌握的背景知识,并且深度学习人才在就业市场中也有很大的优势。
在这个课程中,我们将学习深度神经网络的基础知识,以及它们在各种AI任务中的应用。
在课程结束后,学生将对课程主题有足够的了解,并能够将深度学习应用于各种任务。学生还将阅读当前关于该领域的大量文献,并通过进一步的研究扩展自己的专业知识。
这门课程涉及的概念很全面。它将帮助学生理解深度学习的基础。课程从MLP(多层感知器)讲始,逐步深入到更复杂的概念,例如注意力模型和sequence-to-sequence模型。学生需要完全掌握PyTorch,这对于实现深度学习模型非常重要。
作为学生,你将学习构建深度学习模型所需的各种工具。作业通常有两个部分,即
Autolab和Kaggle
。Kaggle部分允许我们探索多种架构,并了解如何调优并持续改进模型。所有作业的任务都是相似的,学习如何使用多种深度学习方法解决相同的任务是很有趣的。总的来说,在本课程结束时,你将有足够的信心构建和调优深度学习模型。
课程导师:
Bhiksha Raj([email protected])
助教:
Ryan Brigden ([email protected])
Raphael Franck Olivier ([email protected])
Sai Nihar Tadichetty ([email protected])
Shubham Tripathi ([email protected])
Soham Ghosh ([email protected])
Madhura Das ([email protected])
Ipsita Prakash ([email protected])
Dhruv Shah ([email protected])
Shaden Shaar ([email protected])
David Zhang ([email protected])
Anushree Prasanna Kumar ([email protected])
Ahmed Shah ([email protected])
Jiawei Yang ([email protected])
Omar Khattab for Doha ([email protected])
Nebiyou Yismaw for Kigali ([email protected])
1. 我们将使用一个主流的工具包中(主要是PyTorch)。工具包主要用
Python
编程。你需要能够使用至少一种语言进行编程。或者,你可以使用熟悉的语言进行编程,但必须自行查找和学习对应的工具包。
2. 你需要熟悉基本的
微积分(微分,链式法则),线性代数
和
基本概率知识
。
这门课程不会按照某一本教材来进行,而是会选择许多资料。我们列出相关书目,并且会为每个单元提供相关阅读资料的链接。学生需要在上课前熟悉这些材料。阅读材料有时会晦涩难懂;但是不用担心,我们会在课堂上给出更简单的解释。
相关书目
-
Deep Learning By Ian Goodfellow, Yoshua Bengio, Aaron Courville Online book, 2017
-
Neural Networks and DeepLearning By Michael Nielsen Online book, 2016
-
Deep Learning with PythonBy J. Brownlee
-
Deep Learning Step by Step with Python: A Very Gentle Introduction to Deep Neural Networks for Practical Data Science By N. D. Lewis
-
Parallel Distributed Processing By Rumelhart and McClelland Out of print, 1986
第 1 讲(8.29):
-
深度学习简介
-
课程安排
-
神经计算的历史和认知基础
-
感知机和多层感知机
Slides:
http://deeplearning.cs.cmu.edu/slides/lec1.intro.pdf
Video:
https://www.youtube.com/watch?v=aPY-KC6zeeI
第 2 讲(8.31):
Slides:
http://deeplearning.cs.cmu.edu/slides/lec2.universal.pdf
第 3 讲(9.5):
-
训练一个神经网络
-
感知器学习法则
-
经验风险最小化
-
利用梯度下降法进行优化
第 4 讲(9.10):
第 5 讲(9.12):
第 6 讲(9.17):
第 7 讲(9.19):
第 8 讲(9.24):
第 9 讲(9.26):
-
卷积神经网络(CNNs)
-
Weights as templates
-
平移不变性
-
使用参数共享进行训练
第 10 讲(10.1):
-
视觉模型
-
神经认知机(Neocognitron)
-
CNN 的数学细节
-
Alexnet,Inception,VGG
第 11 讲(10.3):
-
循环神经网络(RNNs)
-
序列建模
-
通过时间反向传播
-
双向 RNN
第 12 讲(10.8):
-
模型稳定性
-
梯度爆炸 / 消失
-
长短期记忆单元(LSTM)及其变种
-
Resnets
第 13 讲(10.10):
第 14 讲(10.15):
第 15 讲(10.17):
第 16 讲(10.22):
第 17 讲(10.24):
第 18 讲(10.29):
第 18 讲(10.31):
第 19 讲(11.5):
第 20 讲(11.7):
-
训练 Hopfield 网络
-
随机 Hopfield 网络
第 21 讲(11.12):
第 22 讲(11.14):
第 23 讲(11.19):
第 24 讲(11.21):
第 25 讲(11.26):
第 26 讲(11.28):
第 27 讲(12.3):
第 28 讲(12.5):
更多资料请查看官网:
http://deeplearning.cs.cmu.edu/