加入AI行业拿到高薪仅仅是职业生涯的开始。现阶段AI人才结构在不断升级,对AI人才的要求也不断升高,如果对自己没有很高的要求,其实很容易被快速发展的趋势所淘汰。
为了迎合时代的需求,我们去年推出了
《机器学习高端训练营》
班,由学院创始团队亲自授课,受到了广大学员的好评。
在本期训练营(第四期)中我们对内容做了大幅度的更新,一方面新增了对前沿主题的讲解如
图神经网络
,另外一方面对核心部分(如凸优化、强化学习)加大了对
理论层面上的深度
。
目前在全网上应该找不到类似体系化的课程。
课程仍然采用
全程直播
授课模式。
那什么样的人适合来参加高阶班呢?
-
从事AI行业多年,但技术上总感觉不够深入,感觉在技术上
遇到了瓶颈
;
-
停留在使用模型/工具上,很难基于业务场景来
提出新的模型
;
-
对于机器学习背后的优化理论、前沿的技术不够深入;
-
计划从事尖端的科研、研究工作、申请AI领域研究生、博士生;
-
打算进入最顶尖的AI公司比如Google,Facebook,Amazon, 阿里,头条等;
-
读ICML,IJCAI等会议文章比较吃力,似懂非懂感觉,
无法把每个细节理解透;
-
从优化角度理解机器学习
-
优化技术的重要性
-
常见的凸优化问题
-
线性规划以及Simplex Method
-
Two-Stage LP
-
案例:运输问题讲解
-
拉格朗日对偶函数
-
对偶的几何意义
-
Weak and Strong Duality
-
KKT条件
-
LP, QP, SDP的对偶问题
-
案例:经典模型的对偶推导及实现
-
对偶的其他应用
-
向量空间和图论基础
-
Inner Product, Hilbert Space
-
Eigenfunctions, Eigenvalue
-
傅里叶变化
-
卷积操作
-
Time Domain, Spectral Domain
-
Laplacian, Graph Laplacian
-
卷积神经网络回归
-
卷积操作的数学意义
-
Graph Convolution
-
Graph Filter
-
ChebNet
-
CayleyNet
-
GCN
-
Graph Pooling
-
案例:基于GCN的推荐
-
Markov Decision Process
-
Bellman Equation
-
三种方法:Value,Policy,Model-Based
-
Value-Based Approach: Q-learning
-
Policy-Based Approach: SARSA
第十一周:Multi-A
rmed Bandits
-
Monte-Carlo Tree Search
-
N-step learning
-
Approximation
-
Reward Shaping
-
结合深度学习:Deep RL
-
项目作业:强化学习在游戏中的应用案例
第十四周:贝叶斯方法论简介
第十五周:主题模型
-
Detailed Balance
-
对于LDA的吉布斯采样
-
对于LDA的Collapsed吉布斯采样
-
Metropolis Hasting
-
Importance Sampling
-
Rejection Sampling
-
大规模分布式MCMC
-
大数据与SGLD
-
案例:基于分布式的LDA训练
第十七周:变分法(Variational Method)
运输优化问题
:
在运筹学以及优化领域最为经典的问题之一,类似的思想广泛应用在仓库优化,匹配等问题上。
-
线性回归以及优化实现
-
Two-Stage随机线性规划一下优化实现
打车中的路径规划问题
:我们几乎每天都在使用打车软件或者外卖软件。对于这些应用来讲,核心算法应用就是乘客和车辆的匹配。
经典机器学习模型的对偶推导及实现:
通过此练习,更深入理解机器学习模型以及对偶的作用。
基于图神经网络的文本分类
:当使用语法分析工具处理文本之后,一段文本便可以成为一个图,接下来就可以使用图卷积神经网络来做后续的分类工作
基于图神经网络的阅读理解
:
一般的阅读需要让机器阅读多个文章并对提出的问题给出答案。在阅读理解中抽取关键的实体和关系变得很重要,这些实体和关系可以用来构造一个图。
-
命名识别,
关系抽取
-
图神经网络
-
Heterogeneous Graph
Bandits在推荐系统的应用案例
:Bandits应用在顺序决策问题的应用中有易于实现、计算效率高、解决冷启动问题、数据标注相对要求不高(一般只需部分标注作为reward,如用户点击)等优点。本案例讲解bandits如何应用在新闻推荐的系统中做基于内容的推荐。