《聊天机器人Chatbot》第一期
郭栋, 美国南加州大学 计算机系博士
本科就读于中国科技大学物理系;在TRB, ICASSP, TKDE 发表过数篇会议与期刊文章,并有一篇JMLR文章在审;曾在Google Machine Intelligence实习工作,实习期间从事对聊天机器人系统的实践,对Chatbot和问答系统中的机器学习方法有着丰富的领域知识。
这是一门目前最专业的聊天机器人实践课程,本次课程主要讲授与聊天机器人系统相关的深度学习方法。内容包括三个部分:
第一部分介绍以词向量 (word vector) 和循环神经网络 (RNN) 为代表的自然语言处理 (NLP) 知识基础;
第二部分介绍基于 RNN 的封闭与开放领域内的聊天机器人模型;
第三部分以工业界的前沿研究为例介绍如何使聊天机器人返回有意义的信息。
通过本课程的学习,学员将会收获:
1. 了解如何使用机器学习、深度学习方法建模和解决多种自然语言处理任务
2. 理解聊天和问答系统的工作原理并动手实现
3. 深入理解聊天机器人的核心技术领域和前沿实践。
2017年7月8日
在线直播,共9次
每周2次(周六、周日晚20:00-22:00)
直播后提供录制回放视频
可在线反复观看,有效期1年
第一部分:语言模型
第一课 自然语言处理(NLP)的统计方法和特征工程
1. 从fasttext出发了解基于词频的NLP特征与任务
2. 从NN到RNN:使用循环神经网络(RNN)获得NLP数据中的时序信息
3. 实践案例:训练cbow 和 skip-gram 词向量模型并熟悉 tensorflow; 在简易合成数据上运行RNN模型
第二课 基于RNN的语言模型
1. 使用RNN生成语法正确的文本文档
2. LSTM:优化RNN cell的短期记忆能力
3. 实践案例:使用RNN拟合和生成程序代码和中英文文档
第二部分:聊天模型
第三课 封闭领域的聊天机器人模型
1. 基于深度特征学习和信息检索的对话模型
2. 以自动邮件回复为例,了解深度检索模型的实际应用
3. 实践案例:在(1)英文技术类对话 (Ubuntu Dialogue Corpus) 和(2) 中文影视对白两类数据集上训练,比较使用三种不同特征的检索对话模型
第四课 开放领域的聊天机器人模型
1. seq2seq结构的generative对话模型
2. generative对话模型的训练与测试
3. 实践案例:使用第三节课的数据集,训练generative对话模型; 演示产生答话时的beam search 方法
第五课 优化对话模型的记忆能力
1. 从记忆单词到记忆单句:使用分层RNN结构模拟多轮对话
2. 从单个到多个RNN单元的联合记忆:attention原理在多种NLP任务中的应用
3. 实践案例:在第四节课的基础上添加多层RNN 结构和attention 选项;演示使用attention原理的文档总结模型
第三部分:知识模型
第六课 Facebook和MetaMind的记忆网络
1. 记忆网络:一个面向QA问题的模型框架
2. 端对端记忆网络和动态记忆网络
3. 实践案例:记忆网络在bAbI QA任务上的应用
第七课 DeepMind的神经图灵机
1. 对长期记忆建模:机器学习模型+外部记忆体方案
2. 神经图灵机(NTM)与可微分神经计算机(DNC)模型
3. 实践案例:NTM和DNC在sort 和bAbI QA任务上的应用
第八课 AllenAI的考试机器人
1. 如何训练机器回答自然科学考试题:AllenAI 的Kaggle比赛
2. AllenAI研究所的解决方案与前沿进展
3. 实践案例:通过对开放数据的检索与深度学习推理寻找自然科学考试题的答案
第九课 对话系统从原理到应用
1. 从餐馆推荐模型出发,了解对话系统的端对端设计与强化学习
2. 实践案例:以wit.ai和slack.ai为例,了解工业界的bot产品,建立简单的bot应用