来源:投稿 作者:LSC
编辑:学姐
unset
unset
一面 70min
unset
unset
1.自我介绍
我说的比较详细,5分钟
2.项目介绍
过往项目的介绍,后面是针对项目的分散性提问
面试官人很好,没有因为项目太简单diss我
3.大量无标签数据怎么用于加强模型训练效果,有哪些方法?
对比学习;主动学习;借助chatgpt等大模型,因为其内置了强化学习、zero shot等方法;还要注重对hard样本、稀缺样本进行采样,验证效果
4.怎么解决小目标分类问题?
(1)转化为小目标检测问题
(2)使用transformer等模型学习更全面的特征信息
(3)加入SE-block等增强特征信息的模块
(4)数据增强
5.介绍模型量化
6.不改动模型结构的前提下,检测小目标的方法
数据增强、多尺度特征融合、锚框(anchor boxes)调整、改进损失函数、集成学习、增大图像尺寸
7.Mosaic数据增强,以及其作用
增强数据多样性,提升模型泛化能力
可以减少batch_size,降低显存,还能加快模型训练速度
8.mAP的计算过程,以及mAP有什么不足
不足:
(1)对类不平衡问题敏感:
mAP在处理类别不平衡时,容易受到长尾效应的影响。某些少见类别的AP可能很低,从而影响整体的mAP。
(2)IoU阈值的设定问题:
通常mAP计算时采用固定的IoU阈值(如0.5),这种固定值可能无法全面反映模型的检测性能。对于不同的应用场景,不同的IoU阈值可能更合适。
(3)对极端预测的敏感性:
mAP对预测结果中置信度极高但不准确的情况较为敏感,这些错误的高置信度预测会显著降低精度。
(4)忽略定位误差:
mAP主要关注检测框的数量和位置是否正确匹配,忽略了检测框的定位精度。即使检测框的IoU稍微低于阈值,也会被视为FP。
(5)计算复杂度高:
对于大型数据集和高分辨率图像,mAP计算过程复杂且耗时,特别是在需要多次评估和调试模型时。
改进方向:
(1)改进IoU阈值策略:
使用多个IoU阈值(如COCO评测中的mAP@[.5:.95])来更全面地评估模型性能,反映不同IoU下的检测效果。
(2)采用Focal Loss等方法
减少对类不平衡的敏感性,提高少数类的检测性能。
(3)其他评估指标:
引入更多评估指标,如Precision@k、Recall@k、F1-score等,结合使用以获得更全面的性能评估。
9.Yolov4对IOU loss的改进
GIOU、DIOU、CIOU
10.对aigc的了解
11.反问,业务,技术栈
腾讯云CSIS存储,业务对图片、视频、音频、文本的处理,涉及cv、nlp、多模态、aigc,识别、检测、分割 分类、以文搜图等
unset
unset
被捞,数据科学 一面
unset
unset
1.自我介绍
2.是否了解NLP基础知识
3.Coding
给你一个字符串数组,请你将字母异位词组合在起。可以按任意顺序返回结果列表,字母异位词是由重新排列源单词的所有字母得到的个新单词。
示例1: