介绍:本项目是作者们根据个人面试和经验总结出的自然语言处理(NLP)面试准备的学习笔记与资料,该资料目前包含 自然语言处理各领域的 面试题积累。
Github 地址:https://github.com/km1994/NLP-Interview-Notes
NLP 面无不过 面试交流群 (注:人满 可 添加 小编wx:yzyykm666 加群!)
四、NLP 学习算法 常见面试篇
4.1 信息抽取 常见面试篇
4.1.1 命名实体识别 常见面试篇
隐马尔科夫算法 HMM 常见面试篇
一、基础信息 介绍篇
1.1 什么是概率图模型?
1.2 什么是 随机场?
二、马尔可夫过程 介绍篇
2.1 什么是 马尔可夫过程?
2.2 马尔可夫过程 的核心思想 是什么?
三、隐马尔科夫算法 篇
3.1 隐马尔科夫算法 介绍篇
3.1.1 隐马尔科夫算法 是什么?
3.1.2 隐马尔科夫算法 中 两个序列 是什么?
3.1.3 隐马尔科夫算法 中 三个矩阵 是什么?
3.1.4 隐马尔科夫算法 中 两个假设 是什么?
3.1.5 隐马尔科夫算法 中 工作流程 是什么?
3.2 隐马尔科夫算法 模型计算过程篇
3.2.1 隐马尔科夫算法 学习训练过程 是什么样的?
3.2.2 隐马尔科夫算法 序列标注(解码)过程 是什么样的?
3.2.3 隐马尔科夫算法 序列概率过程 是什么样的?
3.3 隐马尔科夫算法 问题篇
点击查看答案
最大熵马尔科夫模型 MEMM 常见面试篇
四、最大熵马尔科夫模型(MEMM)篇
4.1 最大熵马尔科夫模型(MEMM)动机篇
4.2 最大熵马尔科夫模型(MEMM)介绍篇
4.3 最大熵马尔科夫模型(MEMM)问题篇
点击查看答案
条件随机场(CRF) 常见面试篇
五、条件随机场(CRF)篇
5.1 CRF 动机篇
5.2 CRF 介绍篇
5.2.1 什么是 CRF?
5.2.2 CRF 的 主要思想是什么?
5.2.3 CRF 的定义是什么?
5.2.4 CRF 的 流程是什么?
5.3 CRF 优缺点篇
5.3.1 CRF 的 优点在哪里?
5.3.2 CRF 的 缺点在哪里?
5.4 CRF 复现?
六、对比篇
点击查看答案
DNN-CRF 常见面试篇
一、基本信息
二、传统的命名实体识别方法
三、基于深度学习的命名实体识别方法
四、对比 篇
点击查看答案
中文领域 NER 常见面试篇
一、动机篇
二、词汇增强篇
三、词汇/实体类型信息增强篇
点击查看答案
命名实体识别 trick 常见面试篇
trick 1:领域词典匹配
trick 2:规则抽取
trick 3:词向量选取:词向量 or 字向量?
trick 4:特征提取器 如何选择?
trick 5:专有名称 怎么 处理?
trick 6:标注数据 不足怎么处理?
trick 7:嵌套命名实体识别怎么处理
7.1 什么是实体嵌套?
7.2 与 传统命名实体识别任务的区别
7.3 解决方法:
7.3.1 方法一:序列标注
7.3.2 方法二:指针标注
7.3.3 方法三:多头标注
7.3.4 方法四:片段排列
trick 8:为什么说 「词汇增强」 方法对于中文 NER 任务有效?
trick 9:NER实体span过长怎么办?
trick 10: NER 标注数据噪声问题?
trick 11:给定两个命名实体识别任务,一个任务数据量足够,另外一个数据量很少,可以怎么做?
trick 12:NER 标注数据不均衡问题?
点击查看答案
4.1.2 关系抽取 常见面试篇
关系抽取 常见面试篇
一、动机篇
1.1 什么是关系抽取?
1.2 关系抽取技术有哪些类型?
1.3 常见的关系抽取流程是怎么做的?
二、经典关系抽取篇
三、文档级关系抽取篇
点击查看答案
4.1.3 事件抽取 常见面试篇
事件抽取 常见面试篇
一、原理篇
二、基本任务篇
2.1 触发词检测
2.1.1 什么是触发词检测?
2.1.2 触发词检测有哪些方法?
2.2 类型识别
2.2.1 什么是类型识别?
2.2.2 类型识别有哪些方法?
2.3 角色识别
2.3.1 什么是角色识别?
2.3.2 角色识别有哪些方法?
2.4 论元检测
2.4.1 什么是论元检测?
2.4.2 论元检测有哪些方法?
三、常见方法篇
3.1 模式匹配方法怎么用在事件抽取中?
3.2 统计机器学习方法怎么用在事件抽取中?
3.3 深度学习方法怎么用在事件抽取中?
四、数据集及评价指标篇
4.1 事件抽取中常见的英文数据集有哪些?
4.2 事件抽取中常见的中文数据集有哪些?
4.3 事件抽取的评价指标是什么?怎么计算的?
五、对比篇
六、应用篇
七、拓展篇
4.2 NLP 预训练算法 常见面试篇
【关于TF-idf】那些你不知道的事
一、one-hot 篇
1.1 为什么有 one-hot ?
1.2 one-hot 是什么?
1.3 one-hot 有什么特点?
1.4 one-hot 存在哪些问题?
二、TF-IDF 篇
2.1 什么是 TF-IDF?
2.2 TF-IDF 如何评估词的重要程度?
2.3 TF-IDF 的思想是什么?
2.4 TF-IDF 的计算公式是什么?
2.5 TF-IDF 怎么描述?
2.6 TF-IDF 的优点是什么?
2.7 TF-IDF 的缺点是什么?
2.8 TF-IDF 的应用?
点击查看答案
【关于word2vec】那些你不知道的事
一、Wordvec 介绍篇
二、Wordvec 优化篇
2.1 Word2vec 中 霍夫曼树 是什么?
2.2 Word2vec 中 为什么要使用 霍夫曼树?
2.3 Word2vec 中使用 霍夫曼树 的好处?
2.4 为什么 Word2vec 中会用到 负采样?
2.5 Word2vec 中会用到 负采样 是什么样?
2.6 Word2vec 中 负采样 的采样方式?
三、Wordvec 对比篇
四、word2vec 实战篇
点击查看答案
点击查看答案
【关于Elmo】那些你不知道的事
一、Elmo 动机篇
二、Elmo 介绍篇
2.1 Elmo 的 特点?
2.2 Elmo 的 思想是什么?
三、Elmo 问题篇
点击查看答案
4.3 Bert 常见面试篇
Bert 常见面试篇
一、动机篇
1.1 【演变史】one-hot 存在问题?
1.2【演变史】wordvec 存在问题?
1.3【演变史】fastText 存在问题?
1.4【演变史】elmo 存在问题?
二、Bert 篇
三、 对比篇?
点击查看答案
【关于 Bert 源码解析I 之 主体篇】那些你不知道的事
【关于 Bert 源码解析II 之 预训练篇】那些你不知道的事
【关于 Bert 源码解析III 之 微调篇】那些你不知道的事
【关于 Bert 源码解析IV 之 句向量生成篇】那些你不知道的事
【关于 Bert 源码解析V 之 文本相似度篇】那些你不知道的事
4.3.1 Bert 模型压缩 常见面试篇
Bert 模型压缩 常见面试篇
一、Bert 模型压缩 动机篇
二、Bert 模型压缩对比表
三、 Bert 模型压缩方法介绍
四、模型压缩存在问题?
点击查看答案
4.3.2 Bert 模型系列 常见面试篇
认识 XLNet 么?能不能讲一下?和 Bert 的 区别在哪里?
认识 RoBERTa 么?能不能讲一下?和 Bert 的 区别在哪里?
认识 SpanBERT 么?能不能讲一下?和 Bert 的 区别在哪里?
认识 MASS 么?能不能讲一下?和 Bert 的 区别在哪里?
点击查看答案
4.4 文本分类 常见面试篇
文本分类 常见面试篇
一、 抽象命题
二、数据预处理
三、特征提取
四、模型篇
4.1 fastText 篇
4.1.1 fastText的分类过程?
4.1.2 fastText的优点?
4.2 TextCNN 篇
4.2.1 TextCNN进行文本分类的过程?
4.2.2 TextCNN可以调整哪些参数?
4.2.3 使用CNN作为文本分类器时,不同通道channels对应着文本的什么信息?
4.2.4 TextCNN中卷积核的长与宽代表了什么?
4.2.5 在TextCNN中的pooling操作与一般CNN的pooling操作有何不同?
4.2.6 TextCNN的局限性?
4.3 DPCNN 篇
4.4 TextRCNN 篇
4.5 RNN+Attention 篇
4.6 GNN 图神经网络篇
4.7 Transformer 篇
4.8 预训练模型 篇
五、损失函数
5.1 激活函数sigmoid篇
5.2 激活函数softmax篇
5.2.1 softmax函数是什么?
5.2.2 softmax函数怎么求导?
5.3 分类问题使用的损失函数还有有哪些?
六、模型评估和算法比较
6.1 文本分类任务使用的评估算法和指标有哪些?
6.2 简单介绍混淆矩阵和kappa?
点击查看答案
文本分类 trick 常见面试篇
一、文本分类数据预处理 如何做?
二、文本分类 预训练模型 如何选择?
三、文本分类 参数 如何优化?
四、文本分类 有哪些棘手任务?
五、文本分类 标签体系构建?
六、文本分类 策略构建?
点击查看答案
用检索的方式做文本分类 常见面试篇
为什么需要用检索的方式做文本分类?
基于检索的方法做文本分类思路?
检索的方法的召回库如何构建?
检索的方法 的 训练阶段 如何做?
检索的方法 的 预测阶段 如何做?
用检索的方式做文本分类 方法 适用场景有哪些?
点击查看答案
4.5 文本匹配 常见面试篇
点击查看答案
点击查看答案
4.6 问答系统 常见面试篇
4.6.1 FAQ 检索式问答系统 常见面试篇
一、动机
1.1 问答系统的动机?
1.2 问答系统 是什么?
二、FAQ 检索式问答系统介绍篇
三、FAQ 检索式问答系统 方案篇
四、FAQ 标准问题库构建篇
4.1 如何发现 FAQ 中标准问题?
4.2 FAQ 如何做拆分?
4.3 FAQ 如何做合并?
4.4 FAQ 标准库如何实时更新?
五、FAQ 标准问题库答案优化篇
4.6.2 问答系统工具篇 常见面试篇
Faiss 常见面试篇
一、动机篇
二、介绍篇
2.1 什么是 Faiss ?
2.2 Faiss 如何使用?
2.3 Faiss原理与核心算法
三、Faiss 实战篇
3.1 Faiss 如何安装?
3.2 Faiss 的索引Index有哪些?
3.3 Faiss 的索引Index都怎么用?
3.3.1 数据预备
3.3.2 暴力美学 IndexFlatL2
3.3.3 闪电侠 IndexIVFFlat
3.3.4 内存管家 IndexIVFPQ
3.4 Faiss 然后使用 GPU?
四、 Faiss 对比篇
4.7 对话系统 常见面试篇
对话系统 常见面试篇
一、对话系统 介绍篇
1.1 对话系统有哪几种?
1.2 这几种对话系统的区别?
二、多轮对话系统 介绍篇
2.1 为什么要用 多轮对话系统?
2.2 常见的多轮对话系统解决方案是什么?
三、任务型对话系统 介绍篇
3.1 什么是任务型对话系统?
3.2 任务型对话系统的流程是怎么样?
3.3 任务型对话系统 语言理解(SLU)篇
3.4 任务型对话系统 DST(对话状态跟踪)篇
3.4.1 什么是 DST(对话状态跟踪)?
3.4.2 DST(对话状态跟踪)的输入输出是什么?
3.4.3 DST(对话状态跟踪)存在问题和解决方法?
3.4.4 DST(对话状态跟踪)实现方式是什么?
3.5 任务型对话系统 DPO(对话策略学习)篇
3.6 任务型对话系统 NLG(自然语言生成)篇
点击查看答案
4.8 知识图谱 常见面试篇
4.8.1 知识图谱 常见面试篇
一、知识图谱简介
1.1 引言
1.2 什么是知识图谱呢?
1.2.1 什么是图(Graph)呢?
1.2.2 什么是 Schema 呢?
1.3 知识图谱的类别有哪些?
1.4 知识图谱的价值在哪呢?
二、怎么构建知识图谱呢?
2.1 知识图谱的数据来源于哪里?
2.2 信息抽取的难点在哪里?
2.3 构建知识图谱所涉及的技术?
2.4、知识图谱的具体构建技术是什么?
2.4.1 实体命名识别(Named Entity Recognition)
2.4.2 关系抽取(Relation Extraction)
2.4.3 实体统一(Entity Resolution)
2.4.4 指代消解(Disambiguation)
三、知识图谱怎么存储?
四、知识图谱可以做什么?
点击查看答案
4.8.2 KBQA 常见面试篇
一、基于词典和规则的方法
基于词典和规则的方法 实现 KBQA?
基于词典和规则的方法 实现 KBQA 流程?
二、基于信息抽取的方法
点击查看答案
4.8.3 Neo4j 常见面试篇
点击查看答案
4.9 文本摘要 常见面试篇
一、动机篇
1.1 什么是文本摘要?
1.2 文本摘要技术有哪些类型?
二、抽取式摘要篇
2.1 抽取式摘要是怎么做的?
2.2 抽取式摘要的可读性问题是什么?
三、压缩式摘要篇
四、生成式摘要篇
五、摘要质量评估方法
5.1 摘要质量的评估方法有哪些类型?
5.2 什么是ROUGE?
5.3 几种ROUGE指标之间的区别是什么?
5.4 BLEU和ROUGE有什么不同?
点击查看答案
4.10 文本纠错篇 常见面试篇
一、介绍篇
1.1 什么是文本纠错?
1.2 常见的文本错误类型?
1.3 文本纠错 常用方法?
二、pipeline 方法 介绍篇
点击查看答案
4.11 文本摘要 常见面试篇
一、动机篇
1.1 什么是文本摘要?
1.2 文本摘要技术有哪些类型?
二、抽取式摘要篇
2.1 抽取式摘要是怎么做的?
2.2 抽取式摘要的可读性问题是什么?
三、压缩式摘要篇
四、生成式摘要篇
五、摘要质量评估方法
5.1 摘要质量的评估方法有哪些类型?
5.2 什么是ROUGE?
5.3 几种ROUGE指标之间的区别是什么?
5.4 BLEU和ROUGE有什么不同?
点击查看答案
4.12 文本生成 常见面试篇
生成模型的解码方法 常见面试篇
什么是生成模型?
介绍一下 基于搜索的解码方法?
介绍一下 基于采样的解码方法?
点击查看答案
三、深度学习算法篇 常见面试篇
CNN 常见面试篇
一、动机篇
二、CNN 卷积层篇
2.1 卷积层的本质是什么?
2.2 CNN 卷积层与全连接层的联系?
2.3 channel的含义是什么?
三、CNN 池化层篇
四、CNN 整体篇
4.1 CNN 的流程是什么?
4.2 CNN 的特点是什么?
4.3 卷积神经网络为什么会具有平移不变性?
4.4 卷积神经网络中im2col是如何实现的?
4.5 CNN 的局限性是什么?
五、Iterated Dilated CNN 篇
六、反卷积 篇
点击查看答案
点击查看答案
Attention 常见面试篇
一、seq2seq 篇
1.1 seq2seq (Encoder-Decoder)是什么?
1.2 seq2seq 中 的 Encoder 怎么样?
1.3 seq2seq 中 的 Decoder 怎么样?
1.4 在 数学角度上 的 seq2seq ,你知道么?
1.5 seq2seq 存在 什么 问题?
二、Attention 篇
2.1 什么是 Attention?
2.2 为什么引入 Attention机制?
2.3 Attention 有什么作用?
2.4 Attention 流程是怎么样?
2.5 Attention 的应用领域有哪些?
三、Attention 变体篇
点击查看答案
生成对抗网络 GAN 常见面试篇
一、动机
二、介绍篇
2.1 GAN 的基本思想
2.2 GAN 基本介绍
2.2.1 GAN 的基本结构
2.2.2 GAN 的基本思想
三、训练篇
3.1 生成器介绍
3.2 判别器介绍
3.3 训练过程
3.4 训练所涉及相关理论基础
四、总结
点击查看答案
3.1 Transformer 常见面试篇
Transformer 常见面试篇
一、动机篇
1.1 为什么要有 Transformer?
1.2 Transformer 作用是什么?
二、整体结构篇
2.1 Transformer 整体结构是怎么样?
2.2 Transformer-encoder 结构怎么样?
2.3 Transformer-decoder 结构怎么样?
三、模块篇
3.1 self-attention 模块
3.1.1 传统 attention 是什么?
3.1.2 为什么 会有self-attention?
3.1.3 self-attention 的核心思想是什么?
3.1.4 self-attention 的目的是什么?
3.1.5 self-attention 的怎么计算的?
3.1.6 self-attention 为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘?
3.1.7 为什么采用点积模型的 self-attention 而不采用加性模型?
3.1.8 Transformer 中在计算 self-attention 时为什么要除以 �d?
3.1.9 self-attention 如何解决长距离依赖问题?
3.1.10 self-attention 如何并行化?
3.2 multi-head attention 模块
3.2.1 multi-head attention 的思路是什么样?
3.2.2 multi-head attention 的步骤是什么样?
3.2.3 Transformer为何使用多头注意力机制?(为什么不使用一个头)
3.2.4 为什么在进行多头注意力的时候需要对每个head进行降维?
3.2.5 multi-head attention 代码介绍
3.3 位置编码(Position encoding)模块
3.3.1 为什么要 加入 位置编码(Position encoding) ?
3.3.2 位置编码(Position encoding)的思路是什么 ?
3.3.3 位置编码(Position encoding)的作用是什么 ?
3.3.4 位置编码(Position encoding)的步骤是什么 ?
3.3.5 Position encoding为什么选择相加而不是拼接呢?
3.3.6 Position encoding和 Position embedding的区别?
3.3.7 为何17年提出Transformer时采用的是 Position Encoder 而不是Position Embedding?而Bert却采用的是 Position Embedding ?
3.3.8 位置编码(Position encoding)的代码介绍
3.4 残差模块模块
3.5 Layer normalization 模块
3.5.1 为什么要 加入 Layer normalization 模块?
3.5.2 Layer normalization 模块的是什么?
3.5.3 Batch normalization 和 Layer normalization 的区别?
3.5.4 Transformer 中为什么要舍弃 Batch normalization 改用 Layer normalization 呢?
3.5.5 Layer normalization 模块代码介绍
3.6 Mask 模块
点击查看答案
五、NLP 技巧面
5.1 少样本问题面
5.1.1 数据增强(EDA) 面试篇
一、动机篇
1.1 什么是 数据增强?
1.2 为什么需要 数据增强?
二、常见的数据增强方法篇
2.1 词汇替换篇
2.1.1 什么是基于词典的替换方法?
2.1.2 什么是基于词向量的替换方法?
2.1.3 什么是基于 MLM 的替换方法?
2.1.4 什么是基于 TF-IDF 的词替换?
2.2 词汇插入篇
2.3 词汇交换篇
2.4 词汇删除篇
2.5 回译篇
2.6 交叉增强篇
2.7 语法树篇
2.8 对抗增强篇
点击查看答案
5.1.2 主动学习 面试篇
一、动机篇
1.1 主动学习是什么?
1.2 为什么需要主动学习?
二、主动学习篇
2.1 主动学习的思路是什么?
2.2 主动学习方法 的价值点在哪里?
三、样本选取策略篇
3.1 以未标记样本的获取方式的差别进行划分
3.2 测试集内选取“信息”量最大的数据标记
点击查看答案
5.1.3 数据增强 之 对抗训练 面试篇
一、介绍篇
1.1 什么是 对抗训练 ?
1.2 为什么 对抗训练 能够 提高模型效果?
1.3 对抗训练 有什么特点?
1.4 对抗训练 的作用?
二、概念篇
2.1 对抗训练的基本概念?
2.2 如何计算扰动?
2.3 如何优化?
三、实战篇
点击查看答案
5.2 “脏数据”处理 面试篇
一、动机
1.1 何为“脏数据”?
1.2 “脏数据” 会带来什么后果?
二、“脏数据” 处理篇
2.1 “脏数据” 怎么处理呢?
2.2 置信学习方法篇
点击查看答案
5.3 batch_size设置 面试篇
点击查看答案
5.4 早停法 EarlyStopping 面试篇
点击查看答案
5.5 标签平滑法 LabelSmoothing 面试篇
点击查看答案
5.6 Bert Trick 面试篇
5.6.1 Bert 未登录词处理 面试篇
什么是 Bert 未登录词?
Bert 未登录词 如何处理?
Bert 未登录词各种处理方法 有哪些优缺点?
点击查看答案
5.6.2 BERT在输入层引入额外特征 面试篇
点击查看答案
5.6.3 关于BERT 继续预训练 面试篇
什么是 继续预训练?
为什么会存在 【数据分布/领域差异】大 问题?
如何进行 继续预训练?
还有哪些待解决问题?
训练数据问题解决方案?
知识缺乏问题解决方案?
知识理解缺乏问题解决方案?
点击查看答案
5.6.4 BERT如何处理篇章级长文本 面试篇
为什么 Bert 不能 处理 长文本?
BERT 有哪些处理篇章级长文本?
点击查看答案
六、 Prompt Tuning 面试篇
6.1 Prompt 面试篇
什么是prompt?
如何设计prompt?
prompt进阶——如何自动学习prompt?
Prompt 有哪些关键要点?
Prompt 如何实现?
点击查看答案
6.2 Prompt 文本生成 面试篇
Prompt之文本生成评估手段有哪些?
Prompt文本生成具体任务有哪些?
点击查看答案
6.3 LoRA 面试篇
什么是lora?
lora 是 怎么做的呢?
lora 为什么可以这样做?
用一句话描述 lora?
lora 优点是什么?
lora 缺点是什么?
lora 如何实现?
点击查看答案
6.4 PEFT(State-of-the-art Parameter-Efficient Fine-Tuning)面试篇
点击查看答案
七、LLMs 面试篇
7.1 【现在达模型LLM,微调方式有哪些?各有什么优缺点?
点击查看答案
7.2 GLM:ChatGLM的基座模型 常见面试题
点击查看答案
一、基础算法 常见面试篇
点击查看答案
点击查看答案
激活函数 常见面试篇
一、动机篇
二、激活函数介绍篇
2.1 sigmoid 函数篇
2.2 tanh 函数篇
2.3 relu 函数篇
三、激活函数选择篇
正则化常见面试篇
一、L0,L1,L2正则化 篇
二、对比篇
三、dropout 篇
点击查看答案
优化算法及函数 常见面试篇
一、动机篇
1.1 为什么需要 优化函数?
1.2 优化函数的基本框架是什么?
二、优化函数介绍篇
三、优化函数学霸笔记篇
点击查看答案
归一化 常见面试篇
一、动机篇
二、介绍篇
2.1 归一化 有 哪些方法?
2.2 归一化 各方法 特点?
2.3 归一化 的 意义?
三、应用篇
3.1 哪些机器学习算法 需要做 归一化?
3.2 哪些机器学习算法 不需要做 归一化?
点击查看答案
点击查看答案
二、机器学习算法篇 常见面试篇
点击查看答案
支持向量机 常见面试篇
一、原理篇
1.1 什么是SVM?
1.2 SVM怎么发展的?
1.3 SVM存在什么问题?
二、算法篇
2.1 什么是块算法?
2.2 什么是分解算法?
2.3 什么是序列最小优化算法?
2.4 什么是增量算法?
三、其他SVM篇
3.1 什么是最小二次支持向量机?
3.2 什么是模糊支持向量机?
3.3 什么是粒度支持向量机?
3.4 什么是多类训练算法?
3.5 什么是孪生支持向量机?
3.6 什么是排序支持向量机?
四、应用篇
4.1 模式识别
4.2 网页分类
4.3 系统建模与系统辨识
4.4 其他
五、对比篇
六、拓展篇
点击查看答案
集成学习 常见面试篇
一、动机
二、集成学习介绍篇
2.1 介绍篇
2.1.1 集成学习的基本思想是什么?
2.1.2 集成学习为什么有效?
三、 Boosting 篇
3.1 用一句话概括 Boosting?
3.2 Boosting 的特点是什么?
3.3 Boosting 的基本思想是什么?
3.4 Boosting 的特点是什么?
3.5 GBDT 是什么?
3.6 Xgboost 是什么?
四、Bagging 篇
4.1 用一句话概括 Bagging?
4.2 Bagging 的特点是什么?
4.3 Bagging 的基本思想是什么?
4.4 Bagging 的基分类器如何选择?
4.5 Bagging 的优点 是什么?
4.6 Bagging 的特点是什么?
4.7 随机森林 是什么?
五、 Stacking 篇
5.1 用一句话概括 Stacking ?
5.2 Stacking 的特点是什么?
5.3 Stacking 的基本思路是什么?
六、常见问题篇
七、对比篇
点击查看答案
九、【关于 Python 】那些你不知道的事
十、【关于 Tensorflow 】那些你不知道的事