专栏名称: 深度之眼
入行人工智能,学算法公式,写毕业论文,看经典书籍,刷全球公开课,就来深度之眼
目录
相关文章推荐
汽车金融大全APP  ·  被骗了,6.98 万海鸥没有智驾天神之眼 ·  昨天  
51好读  ›  专栏  ›  深度之眼

深度学习论文被评“创新性不足、工作量不够”怎么办?

深度之眼  · 公众号  ·  · 2024-09-05 19:49

正文

投稿时遇到审稿人提出文章创新性不足、工作量不够,该怎么办?

今天我就来分享三种应对方法: 下采样策略、归一化策略、改进网络模型。

改进网络模型

增加创新性:

从模型架构和训练策略这两方面入手:

模型架构创新: 常见的方法有 缝合其他网络、引入注意力、轻量化 等, 缝合网络加注意力在我之前的文章里详细说过 ,这边就不多说了。

轻量化策略就是对网络架构的重新设计或优化,比如深度可分离替换一般的3*3卷积,前提是精度不能损失太多,而且模型大小或者推理速度能显著提高。

训练策略创新: 通过优化训练策略来提升模型性能也能增加创新性,我们可以选择 多任务学习、添加辅助损失

多任务学习能同时学习多个相关任务,在训练过程中直接应用。比如CV方向如果做的是检测,就可以加个分割任务,用分割促检测,具体点就是将分割网络与检测网络共享主干网络,让网络前面部分的参数提前得到有效训练。

这部分如果细说可以有15种方法,不过我建议大家直接看论文,如果 不想花时间找可以直接拿我已经整理好了,15种 多任务学习 方法共84篇参考论文。

需要的同学扫码添加小享

回复【 创新工作 】无偿获取



辅助损失可以作为正则化项,帮助模型在训练过程中保持稳定的梯度流,同时迫使中间层学习有用的特征表示,比如深度监督,参考yolov9相对yolov7的改进。

增加工作量:

既然要设计新的模型,那现有方法的优缺点得了解吧,还有新模型的实现细节,比如选择合适的模块、确定模块之间的连接方式、设计损失函数等。

再加上在不同数据集上的测试、与现有方法的对比以及消融实验等。另外还需要根据实验结果对模型参数进行调优,找到最优,这个过程基本都要反复多次。

下采样

增加创新性:

可以考虑新的下采样策略,比如 自适应下采样、金字塔池化 ,这类方法能减少特征图的尺寸和计算量,保留更多的有用信息,比平均池化等老方法更有创新性。

另外还可以考虑拓展新的下采样方法的应用场景,比如图像分类、目标检测之类,通过跨领域的应用来增加创新点。

只看文字可能有些难get,大家可以搭配我准备好的 下采样高质量paper合集 来理解,这些论文 都可以直接参考,而且 全都有代码 ,复现搞起。

需要的同学扫码添加小享

回复【 创新工作 】无偿获取

举其中一篇论文案例:

AutoFocusFormer: Image Segmentation off the Grid

采用自适应下采样和局部注意力机制,专注于图像中更重要的区域,以提高分割任务的性能。

增加工作量:

现有下采样模块的优缺点,还有新方法的实现细节,比如合适的卷积核大小、步长、池化方式等参数,另外还要有大量的实验来验证效果,工作量这不就来了。

还有评估,引入新的下采样后,需要全面评估它的性能,比如在不同数据集上的测试、与现有方法的比较还有消融实验。

归一化

增加创新性:







请到「今天看啥」查看全文