去年秋季招聘中,算法工程师岗位的竞争异常激烈,据知乎和脉脉上的HR分享的数据,录取比例高达100:1,CV岗位尤其如此。
究其原因,随着深度学习的框架越来越便利,开源代码越来越丰富,
计算机视觉的入门门槛低得可怕
(不论是
计算机、自动化、数学等理工科专业的同学,还是经管类、商科类专业的同学,多多少少都跑过深度学习模型)。
人工智能行业的高薪资成为了大家竞相转行的最大动力。
之前我们总是想尽办法追求算法能达到多少准召率,但在实际落地时却发现这些SOTA推理太慢,压根不符合实际,比如自动驾驶中希望图像或点云感知算法能达到100-200Hz,但大部分算法只能达到30-50Hz。这时
算法部署工程师派上极大用场!
顾名思义,就是将算法在嵌入式设备端或者服务器端进行推理部署,尽可能对算法进行优化和加速以满足实时性需求。
部署岗位通常要求的技能点为熟悉CUDA开发与TensorRT部署。
CUDA是NVIDIA推出的运算平台
,TensorRT是NVIDIA推出的高性能的深度学习推理(Inference)优化器,是目前应用最广泛的推理框架之一,在超大规模数据中心、嵌入式平台、自动驾驶平台等应用十分广泛。
虽然NVIDIA有官方的TensorRT文档以及案例库,但英文的材料对初学者入门并不友好。为此,深蓝学院与腾讯高级研究员一起研发了
《
深
度神经网络加速:cuDNN 与 TensorRT
》
的课程,
面向就业
,细致讲解CUDA运算的理论支撑与实践,以及cuDNN、TensorRT这两个当下最热门的深度神经网络加速的工具。
毕业后一直在腾讯从事语音领域深度学习加速上线工作。近10年
CUDA
开发经验,
近5年
TensorRT
开发经验;
Github TensorRT_Tutorial
作者。
主要方向为自然语言处理、智能语音及其在端侧的部署。博士毕业于清华大学,在各类国际AI会议和刊物中发表论文10篇以上,多次获得NIST主办的国际比赛top 2成绩。近年来主要研究方向为AI在场景中的落地应用。
1.
内容精简:
主讲CUDA核心的并行运算操作
2
.
知识前沿:
本期课程涵盖当下主流的深度学习模型加速工具