专栏名称: 小白学视觉
本公众号主要介绍机器视觉基础知识和新闻,以及在学习机器视觉时遇到的各种纠结和坑的心路历程。
目录
相关文章推荐
直播海南  ·  戴手套!戴手套!致死率或达100% ·  21 小时前  
直播海南  ·  中国印钞造币集团严正声明 ·  昨天  
直播海南  ·  女歌手全国巡回演唱会后被抓! ·  昨天  
直播海南  ·  知名连锁餐饮通报:即刻停业!永久关店! ·  2 天前  
51好读  ›  专栏  ›  小白学视觉

再度封神!连发3篇国际顶刊,审稿人直夸没问题!计算机视觉领域迎来史上重大突破!

小白学视觉  · 公众号  ·  · 2025-02-27 09:00

正文


随着深度学习技术的迅速发展,计算机视觉技术领域迎来了新的机遇。传统的成像系统受限于硬件能力和物理法则,往往难以在高分辨率和高速成像之间找到平衡。然而,深度学习凭借其强大的数据处理能力和模式识别优势,正逐步突破这些瓶颈。在基于深度学习的计算机视觉技术中,神经网络能够有效建模和分析复杂数据,从而实现超分辨率成像、快速成像和高精度成像等多项挑战性任务。这一技术不仅提升了成像质量,而且显著缩短了数据处理时间,极大地扩展了其在各领域的应用范围。特别是在医学影像、材料科学和工业检测等领域,深度学习驱动的计算机视觉技术展现出巨大的潜力和优势。通过深度学习算法的优化,计算机视觉系统能够更高效地捕捉和解析图像,推动相关技术向更高水平发展。

深度学习在计算机视觉技术中的应用极为广泛,包括但不限于:

1、深度光学设计:结合深度学习技术设计光学系统的参数与配置,从而实现高性能的成像任务。

2、医学成像:深度学习广泛应用于医学图像的分析和重建,如MRI和CT扫描图像的处理。

3、超分辨率重建与去模糊:利用深度学习技术提升图像的空间分辨率。

4、图像去噪:对模糊图像进行恢复与去噪,从而改善成像质量。

5、语义分割:义分割是计算机视觉任务,通过将图像中的每个像素分类为预定义的类别,来实现图像的像素级别标注和区域划分。

6、深度估计:深度估计是计算机视觉任务,旨在从单张图像或图像对中推测场景中物体的距离信息,从而生成深度图或三维空间结构。


随着深度学习技术的迅速发展,计算光学成像领域迎来了新的机遇。传统光学成像系统受限于硬件能力和物理法则,难以在高分辨率和高速成像间取得平衡。而深度学习以其强大的数据处理和模式识别能力,正在突破这一瓶颈。基于深度学习的计算光学成像通过神经网络对复杂数据进行建模与分析,实现了超分辨率成像、快速成像和高精度成像等多种高难度任务。这种技术不仅提升了成像质量,还显著减少了数据处理时间,极大拓展了光学成像的应用范围。尤其在医学影像、材料科学和工业检测等领域,深度学习驱动的计算光学成像正展示出强大的潜力与优势。通过深度学习算法优化光学系统,研究人员能够更高效地捕获和解析图像,推动成像技术向更高水平发展。深度学习在计算光学成像的应用领域非常广泛,包括但不限于:
超分辨率成像:通过深度学习技术提高图像的空间分辨率。
图像重建和去模糊:处理模糊图像或降噪,改善成像质量。
光学逆问题求解:利用神经网络处理复杂的光学逆问题,如光学成像系统中的反演。利用深度学习模型对光学成像过程进行优化和控制,实现更高效的成像方法。
深度光学:利用深度学习设计光学系统的参数和配置,实现高性能成像。
医学成像:应用于MRI、CT扫描等医学图像的分析和重建。
遥感和地球观测:处理和分析遥感图像,提取地表特征和环境信息。
工业视觉:在自动化和质检领域中,利用深度学习技术进行视觉检测和分析。
这些应用展示了深度学习在改进成像质量、优化光学系统设计以及推动各种领域的创新应用中的潜力。


光学设计作为连接物理理论与工程应用的核心领域,长期以来受限于高维参数空间搜索与复杂物理场耦合的挑战。深度学习技术的引入为这一传统领域注入了新的活力:通过构建数据驱动的智能模型,能够高效解决从纳米光子器件到宏观光学系统的设计难题。在超表面光学领域,深度学习实现了宽带消色差透镜、多功能超构表面的逆向设计,突破了传统方法的性能极限;在成像系统优化中,基于神经网络的端到端设计框架显著提升了像差校正与分辨率增强的效率;而在复杂光场调控方面,深度学习为全息显示、量子光学等前沿方向提供了全新的设计工具。特别值得关注的是,物理约束深度学习(如PINN)的兴起,进一步将麦克斯韦方程等物理规律融入网络架构,为光学设计赋予了更高的可解释性与可靠性。随着算法创新与计算能力的持续突破,深度学习正推动光学设计从“经验驱动”向“智能驱动”跨越,为下一代光学技术与应用开辟了广阔前景。

2025

学术热点

图片


图片

专题一: 深度学习计算机视觉

图片

专题二:深度学习计算光学成像

图片

专题三: 深度学习光学设计






学习目标

图片

图片

专题一:深度学习计算机视觉

1.掌握深度学习算法的原理与应用,深入分析计算机视觉技术的主流研究方向及相关的统一计算范式,能够运用深度学习技术进行计算机视觉系统的创新设计与优化。

2.掌握从成像设备优化设计到典型计算机视觉任务的认知框架,理解深度学习在计算机视觉任务中的应用,全面了解当前计算机视觉技术的发展现状和任务执行能力。 (分享课程涉及的所有数据集、代码)

3.通过复现顶级期刊论文并进行实操指导,帮助学员深入理解学术论文的写作思路与技术细节。 (分享课程涉及的所有数据集、代码)

4.通过多个案例的讲解,帮助学员熟练掌握并独立开展科研项目。 (分享课程涉及的所有数据集、代码)


图片

专题二:深度学习计算光学成像

1.掌握深度学习算法的原理和应用,剖析计算成像主流研究范围及关联的统一计算范式,能够运用深度学习技术对光学成像系统进行创新设计和优化。

2.掌握利用深度学习从成像设备优化设计、典型计算成像任务以及后端的计算机视觉任务的认知框架,并掌握对相应计算成像技术发展现状和任务执行能力。 (分享课程涉及的所有数据集、代码)
3.通过顶刊论文复现带着学员手把手操作,让学员详细的学会顶刊写作思路。 (分享课程涉及的所有数据集、代码)
4.通过多个案例的讲解,让学员能够熟练的做自己的科研项目。 (分享课程涉及的所有数据集、代码)
图片

专题三:深度学习光学设计

1.基于深度学习的光网络的培养目标主要集中在培养具备现代光学理论基础和深度学习技术知识的高级专业人才。他们不仅需要熟悉现代光学的原理,还需要掌握深度学习算法的原理和应用,能够结合深度学习和现代光学原理设计出具有光学加速功能的器件。

2. 初步掌握构建深度学习模型所需的使用的工具,学会搭建深度学习开发环境。让初学者能够使用深度学习框架搭建常用神经网络模型,了解模型训练过程中出现的问题并掌握常用的解决办法。
3. 熟悉超材料的发展现状,基本掌握多物理场仿真软件,并能够使用该软件计算光子晶体 的能带并对仿真结果做后处理。了解超表面在光学以及量子领域方面的应用,学会使用仿真软件对超表面结构进行仿真以及后续的结果分析。
4. 知道MATLAB与COMSOL以及Python间的交互方式,学会使用 Python处理COMSOL导出的数据,了解如何使用 MATLAB 将 COMSOL 的数据导出并处理为 Python 能读取的数据。
5. 了解硅基光网络的发展现状,知道矩阵分解的原理,学会使用深度学习框架去搭建一个基于MZI的模型框架并将其应用在深度学习实例上。
6. 未来利用光的加速功能,基于片上的光网络可以设计出具有加速功能的光芯片。基于衍射网络,则可以在自由空间上设计出快速成像系统,加速自动驾驶的图像识别。
7. 利用深度学习模型,可以克服传统基于全波模拟的设计方法的劣势,可以快速给出给定 结构的目标响应,加速光学设计的过程。

讲师介绍

图片
深度学习光学成像与深度学习计算机视觉: 主讲老师毕业于国家“双一流”建设高校 、 “985 工程”“211 工程”重点高校。目前在国外光学顶尖高校,擅长计算机视觉与深度学习成像研究。近年来发表TCI、TMM、TCSVT、CVPR以及NIPS SCI等论文15余篇 ,授权三项发明专利。研究方向包括:图像处理与计算机视觉、深度学习方法、物理驱动的光学成像、跨模态成像研究等。担任TCSVT、TCI、SIVP等多个国际期刊审稿人。
深度学习光学设计: 讲老师团队来自全国重点大学、国家“985工程”物理与信息交叉学科专业,有多年的机器学习和课题组科研经历!研究方向涉及光学设计与物理学,深度学习,机器学习等交叉领域。有着丰富知识积累和实战经验。参与国自然科学基金项目多项等,包括发表SCI论文十余篇,国家发明专利一项!担任过MDPI旗下等多个期刊的审稿人。

01


专题一:深度学习计算机视觉




SIMPLE STYLE

第一天:ISP技术及其实践

1. 引言

1.1ISP简介

定义:图像信号处理器(Image Signal Processor,ISP)是专门用于图像数据处理的硬件或软件组件,主要处理从传感器获取的RAW图像信号,最终输出高质量的图像。

ISP的作用:提高图像质量,减小噪声,增强细节,校正色彩,执行图像锐化等。ISP广泛应用于消费电子、汽车视觉、医疗影像等领域。

1.2 ISP技术的应用领域

智能手机:拍照质量提升、视频处理与后期优化。

数字相机:高性能成像与快速处理。

汽车驾驶辅助:自动驾驶、车道偏离检测、行人识别。

安防监控:实时视频监控、动态范围扩展、低光照增强。

工业视觉:质量检测、图像识别、自动化检测。

2. ISP工作原理

2.1图像信号链

传感器输入(RAW图像):从图像传感器(如CMOS、CCD)获取未经处理的原始图像数据(RAW格式),此数据通常包含噪声与色彩失真,需要进一步处理。

核心ISP处理步骤:包括去噪、白平衡、自动曝光、自动对焦、色彩校正、锐化等多个环节。

输出(RGB图像):经过ISP处理后,图像信号转化为清晰、高质量的RGB图像,适合于显示或后续分析。

2.2 ISP关键技术步骤

去噪(Denoising):使用滤波器(如中值滤波、均值滤波、双边滤波)去除原始图像中的噪声,提高图像质量。

白平衡(White Balance):调整图像的色温,使白色物体呈现为白色,避免色彩失真。

自动曝光(Auto Exposure, AE):根据场景的亮度动态调整相机的曝光设置(如快门速度、增益等)以确保图像的曝光恰当。

自动对焦(Auto Focus, AF):根据图像内容调整镜头焦距,确保图像的清晰度。

色彩校正(Color Correction):将RAW图像的颜色信息进行转化和校正,调整色调和饱和度,使颜色尽可能真实。

图像增强(Image Enhancement):改善图像的清晰度、对比度和细节,通常用于低光照环境或运动模糊场景中。

3. 关键技术细节及实践(实操环节)

3.1 RAW图像处理及实践

RAW格式与存储:常见的RAW图像格式包括YUV、RGB等,存储方式包括压缩与未压缩。

传感器输出的数据格式:每个传感器的数据格式不同(如8-bit、10-bit或12-bit),这影响图像处理时的动态范围和色深。

RAW到RGB的转换:从RAW数据中提取颜色信息,经过去噪、白平衡、色彩校正等处理后,转换为RGB图像进行显示。

3.2去噪算法及实践

空间域去噪:常用的算法有均值滤波、中值滤波、双边滤波,这些方法对图像中的噪声有良好的去除效果,但可能会模糊图像细节。

频域去噪:使用傅里叶变换或小波变换对图像进行频域处理,去除高频噪声,提高图像质量。

基于深度学习的去噪:使用卷积神经网络(CNN)或生成对抗网络(GAN)来去除噪声,同时保持图像的细节和结构。

3.3自动白平衡(AWB)及实践

灰世界假设:通过假设图像中大部分像素的平均色彩应该是灰色,来推测正确的白平衡设置。

色温校正:根据场景的光照类型(如日光、白炽灯等)动态调整色温,使图像呈现自然颜色。

深度学习AWB:使用深度学习方法,通过大量样本数据训练模型,自动调整图像的色温和色调,适应不同的光照条件。

3.4自动曝光与动态范围优化及实践

自动曝光控制(AEC):根据图像亮度自动调整曝光时间和增益,以确保图像亮度适中。

高动态范围(HDR):通过多帧曝光合成,扩展图像的动态范围,保证高光和阴影部分都能清晰显示,适用于强光和阴影共存的场景。

3.5色彩校正与色彩空间转换及实践

色彩空间转换:将RAW图像从原始色彩空间(如YUV、RGB)转换为目标色彩空间(如sRGB、AdobeRGB等),以适配不同显示设备。

颜色矩阵与查找表(LUT):通过查找表进行颜色校正,将图像中的色彩信息调整为更自然和准确的颜色。

3.6图像锐化技术及实践

锐化算法:如Unsharp Mask(USM)、拉普拉斯滤波等,通过强调边缘信息,增强图像的清晰度。

去噪与锐化的平衡:在去噪时要考虑细节的保留,避免图像过度模糊,同时锐化过程中要避免噪点增强。

4. ISP技术的硬件架构

4.1 ISP硬件架构

图像信号处理单元(IPU):ISP的核心硬件模块,负责图像处理的所有功能,如去噪、白平衡、曝光控制等。

内存与缓存管理:ISP硬件通常包括多个缓存与存储区域,用于存储图像数据、中间结果以及处理后的最终输出。

输入/输出接口:ISP需要与图像传感器(输入接口)以及显示设备或存储设备(输出接口)进行数据传输。

4.2硬件加速与并行处理

多核处理架构:为了提高图像处理速度,ISP硬件通常使用多核并行处理架构,支持多任务同时进行。

GPU加速:高端ISP系统可以使用GPU来加速图像处理中的高计算任务,如深度学习模型推理和实时图像优化。

4.3 ISP芯片设计挑战

性能与功耗平衡、高速数据传输、硬件与软件的协同设计

5. ISP技术的实际应用概述

1.智能手机中的ISP

拍照性能优化:如何通过ISP提升低光、逆光等复杂场景下的拍照质量。

实时视频处理:视频流的去噪、自动曝光和实时对焦等技术在视频录制中的应用。

背景虚化与人脸识别:利用ISP进行景深控制与人脸检测,提升人像拍摄效果。

2.车载视觉系统中的ISP

自动驾驶中的图像处理:如何利用ISP处理来自多个摄像头的数据,实现物体检测、车道识别等自动驾驶功能。

前视与后视影像优化:前后摄像头图像处理,确保在各种环境条件下都能提供清晰影像。

3.安防监控系统中的ISP

低光增强与动态范围扩展:如何处理低光环境下的图像,确保夜间监控效果。

视频流分析与实时反馈:实时图像处理与分析,用于异常行为检测、人脸识别等应用。

图片
图片

第二天:数字图像处理技术及其实践 (实操环节)

1. 图像预处理及实践

1.1图像去噪(Denoising)

1.2直方图均衡(Histogram Equalization)

2.图像增强及实践

2.1对比度增强(Contrast Enhancement)

方法:调整图像的对比度,增强图像的明暗差异。

直方图拉伸(Histogram Stretching):通过线性变换扩展图像灰度范围,增加图像的对比度。

2.2锐化(Sharpening)

拉普拉斯滤波(Laplacian Filtering):利用拉普拉斯算子检测图像中的边缘并增强边缘部分。

高通滤波(High-pass Filtering)

原理:高通滤波器通过去除低频成分,增强图像中的高频细节(如边缘和纹理)。

实现:通过傅里叶变换对图像频谱进行处理,保留高频信息,去除低频噪声。

3. 图像分割及实践

3.1阈值分割(Thresholding)

3.2区域生长(Region Growing)

3.3边缘检测(Edge Detection)

Canny 边缘检测:基于梯度信息检测图像的边缘,包含平滑、梯度计算、非极大值抑制和双阈值检测。

步骤:

1. 高斯滤波平滑图像,去噪。

2. 计算图像梯度,找到边缘方向和幅度。

3. 非极大值抑制,细化边缘。

4. 双阈值检测,确定边缘强度。

4.特征提取及实践

4.1 SIFT(尺度不变特征变换)

4.2 SURF(加速稳健特征)

4.3 HOG(方向梯度直方图)

5. 图像复原及实践

5.1盲去卷积(Blind Deconvolution)

5.2 Wiener滤波(Wiener Filtering)

5.3非局部均值去噪(Non-Local Means Denoising)

6. 图像压缩及实践

6.1 JPEG压缩

6.2小波压缩(Wavelet Compression)

原理:通过小波变换将图像分解为不同的频带,并通过阈值处理来去除不重要的系数。

实现:使用离散小波变换(DWT)对图像进行分解,保留高频信息,去除低频信息。

图片

第三天:软件实操及深度光学设计 (实操环节)

1.软件实操

1.1 Python环境的搭建

1.了解anaconda的安装

2.运行环境创建及激活

3.学习编译器spyder的使用

1.2 Python基本操作

1.变量、数据类型、控制流

2.函数、文件操作

1.3深度学习环境实践

1.pytorch安装及验证

2.学习编译器spyder的使用

3.Shell脚本的使用

2.深度学习基础

2.1 深度学习技术基础内容

1.了解神经网络的基本原理

2.了解反向传播和链式梯度计算

2.2主流神经网络构型讲解

1.典型卷积网络讲解

2.Transformer网络结构

3.MLP网络结构

2.3典型神经网络的搭建及训练

1.制备数据集

2.ResNet网络模型搭建

3.网络训练

3.深度光学设计

3.1相机建模

1.光学公式描述

2.光学成像过程数学建模

3.2深度相关图像形成

1.光信息到图像信息的形成

3.3深度估计网络设计

3.4实验结果及评估

图片

第四天:低层次语义任务实践 (实操环节)

1. 深度学习的图像去噪及实践

1.1 图像去噪概述

定义:图像去噪旨在消除图像中由传感器噪声、传输误差等引入的噪声,以恢复图像的清晰度。

噪声类型:高斯噪声、椒盐噪声、斑点噪声、泊松噪声等。

挑战:在去噪过程中,如何保持图像细节和纹理,同时有效去除噪声。

1.2 深度学习方法

卷积神经网络(CNN):利用卷积神经网络对图像进行端到端训练,自动学习噪声去除与图像恢复。

生成对抗网络(GAN):通过生成器和判别器优化去噪过程,生成器去除噪声,判别器判断图像质量。

自编码器(Autoencoders):卷积自编码器结构学习图像特征,去噪自编码器进行噪声去除。

1.3 主要算法和模型

DnCNN:基于深度卷积神经网络,针对高斯噪声图像进行去噪。

Noise2Noise:无监督学习,使用带噪图像进行训练,避免对干净图像的依赖。

REDNet:利用残差学习来增强去噪性能,改善细节恢复。

Denoising GAN:生成对抗网络用于噪声去除,提升去噪效果。

1.4 技术实现步骤

数据准备:准备噪声图像与干净图像的配对。

网络设计:选择合适的深度学习架构,常用的包括CNN、U-Net、GAN等。

损失函数:使用均方误差(MSE)或感知损失(Perceptual Loss)进行优化。

训练与评估:使用PSNR、SSIM等指标进行模型评估和优化。

2. 深度学习的图像超分辨与去模糊实践

2.1 图像超分辨与去模糊概述

图像超分辨:通过算法从低分辨率图像重建高分辨率图像,提升细节和清晰度。

去模糊:从模糊的图像恢复清晰图像,去除运动模糊或光学模糊。

2.2 深度学习在图像超分辨与去模糊中的应用

超分辨技术(Super-Resolution):

SRCNN:通过卷积神经网络进行超分辨,使用深度学习方法恢复图像的高频信息。

ESRGAN:利用生成对抗网络恢复图像细节和纹理,尤其在细节恢复方面优于传统方法。

VDSR:使用多层网络提升图像的分辨率,改善图像质量。

去模糊技术(Deblurring):

DeepDeblur:基于深度卷积神经网络去除模糊,提高图像清晰度。

DeblurGAN:采用生成对抗网络进行去模糊,优化图像恢复质量。

2.3 技术实现步骤

数据准备:低分辨率图像与高分辨率图像的配对,模糊图像和清晰图像配对。

网络设计:设计适合超分辨率与去模糊的深度学习模型。

损失函数:使用均方误差(MSE)、感知损失(Perceptual Loss)等。

训练与评估:通过PSNR、SSIM等评价超分辨率与去模糊的效果。

3. 深度学习的低照度图像增强实践

3.1 低照度图像增强概述

定义:低照度图像增强旨在提升低光照环境下拍摄的图像质量,改善亮度、对比度和细节。

挑战:低照度图像通常含有大量噪声,细节丢失,且对比度低。

3.2 深度学习方法

EnlightenGAN:结合生成对抗网络,增强低照度图像的亮度与对比度,恢复细节。

Low-light Image Enhancement using CNN:使用卷积神经网络对低照度图像进行增强。

Zero-Reference Deep Curve Estimation:无需参考图像,使用深度网络估算曲线,增强低光照图像。

3.3 技术实现步骤

数据准备:使用低照度图像及其高照度参考图像进行训练。

网络设计:选择生成对抗网络或卷积神经网络架构,针对低光图像特点进行设计。

损失函数:使用亮度损失、感知损失等优化网络。

训练与评估:评估增强后的图像质量,使用PSNR、SSIM等指标进行评估。

4. 深度学习的深度估计实践

4.1 深度估计概述

定义:深度估计任务旨在从图像中预测每个像素的深度,通常用于三维重建、机器人导航等应用。

挑战:单目深度估计较为困难,需要从二维图像中恢复出三维空间信息。

4.2 深度学习方法

单目深度估计:

Monodepth:使用卷积神经网络进行单目图像的深度估计,通过无监督学习方法训练。

DeepLabv3:结合深度神经网络进行图像分割与深度估计,提升复杂场景下的深度估计精度。

双目深度估计:

StereoNet:基于双目图像计算视差图,从中推断深度信息。

PSMNe

StereoNet:基于双目图像计算视差图,从中推断深度信息。

PSMNet:使用金字塔结构提升深度估计的精度,通过多尺度匹配优化视差图生成。

4.3 技术实现步骤

数据准备:收集带有深度信息的图像数据集。

网络设计:以Monodepth为典型方法进行网络架构的讲解分析,并提供代码和分析。

损失函数:使用均方误差(MSE)、交叉熵、SSIM Loss等作为损失函数进行监督训练。

训练与评估:通过δ1,δ2,δ3对预测的深度图进行评测。

图片
图片

第五天:高层次语义任务实践 (实操环节)

1. 深度学习的图像识别实践

1.1 图像识别概述

定义:图像识别旨在自动识别和分类图像中的物体或场景。它是计算机视觉领域的核心任务之一。

应用场景:

人脸识别

动物、植物、物品分类

自动驾驶中的物体识别

挑战:

类别的不平衡

对复杂背景和不同光照条件的适应性

细节和模糊图像的处理

1.2 深度学习在图像识别中的应用

卷积神经网络(CNN):CNN是图像识别任务的基础,擅长从图像中提取局部特征,并对全局信息进行有效整合。

迁移学习:利用在大规模数据集(如ImageNet)上预训练的网络,进行迁移到特定任务,如分类和识别。

深度残差网络(ResNet):利用跳跃连接解决深度网络训练中的梯度消失问题,提高模型的表达能力。

1.3 主要模型和方法

LeNet-5:最早的卷积神经网络之一,适用于手写数字识别。

AlexNet:深度卷积神经网络,改进了图像识别的精度,并广泛应用于计算机视觉领域。

VGGNet:通过使用非常深的网络层次,改进了特征提取和表示能力。

ResNet:通过引入残差模块,解决了深度网络中的退化问题,极大提高了深度学习的表现。

InceptionNet:通过使用不同大小的卷积核在同一层进行多尺度特征提取,提升了模型的识别能力。

1.4 技术实现步骤

数据准备:图像数据的采集与标签标注,数据增强技术(旋转、裁剪、翻转等)。

网络设计:根据任务选择适合的网络结构,如CNN、ResNet、Inception等。

损失函数:分类任务中通常使用交叉熵损失(Cross-Entropy Loss)。

训练与评估:使用标准的数据集(如ImageNet、CIFAR-10)进行训练,评估指标包括准确率(Accuracy)、Top-1和Top-5精度等。

2. 深度学习的目标检测实践

2.1 目标检测概述

定义:目标检测不仅要求识别图像中的物体类别,还需要准确定位物体在图像中的位置(通过边界框)。

应用场景:自动驾驶中的行人、车辆检测,视频监控中的异常行为检测,无人机中的目标跟踪与识别

挑战:小物体的检测,多尺度目标检测,对遮挡、复杂背景和光照变化的鲁棒性

2.2 深度学习在目标检测中的应用

基于区域的卷积神经网络(R-CNN):R-CNN:首先通过选择性搜索提取候选区域,再通过CNN提取特征,并分类和回归边界框。

Fast R-CNN:改进R-CNN,通过ROI池化层来共享特征图,提高了检测速度和精度。

Faster R-CNN:引入区域提议网络(RPN),大大提高了目标检测的速度。

单阶段检测器(Single-stage Detectors):

YOLO(You Only Look Once):将目标检测转化为回归问题,网络直接预测边界框坐标和类别概率,速度较快,适用于实时检测。

SSD(Single Shot MultiBox Detector):通过多尺度的卷积层生成不同大小的默认框进行物体检测,速度和精度较好。

Anchor-based与Anchor-free方法:

Anchor-based:如YOLO、Faster R-CNN使用预定义的框(anchor box)进行预测。

Anchor-free:如CornerNet、CenterNet不依赖于预定义框,直接回归关键点位置进行检测。

2.3 技术实现步骤

数据准备:收集并标注数据集(如COCO、Pascal VOC),使用数据增强(翻转、缩放、裁剪等)增加训练数据。

网络设计:选择适合的目标检测架构,如Faster R-CNN、YOLO、SSD等。

损失函数:通常使用分类损失(交叉熵)和回归损失(边界框回归损失)来优化目标检测模型。

训练与评估:通过精度(mAP)、召回率(Recall)等评估目标检测的性能。

3. 深度学习的语义分割实践

3.1 语义分割概述

定义:语义分割旨在将图像中的每个像素分类为特定的类别,实现像素级别的分类。

应用场景:

医学图像分析(如肿瘤分割)

自动驾驶中的道路、行人、障碍物分割

遥感图像中的土地覆盖分类

挑战:

对复杂背景和细小物体的分割精度

像素级别的准确性和鲁棒性

计算开销和实时性要求

3.2 深度学习在语义分割中的应用

全卷积网络(FCN):将卷积神经网络扩展为全卷积网络,以处理像素级别的分类任务。

U-Net:通过对称的编码器-解码器结构,利用跳跃连接来有效恢复图像细节,广泛应用于医学图像分割。

SegNet:采用编码器-解码器结构,通过池化和上采样逐步恢复图像信息,适用于图像分割任务。

DeepLab:使用空洞卷积(Dilated Convolution)来扩大感受野,处理大范围上下文信息,提高分割精度。

3.3 技术实现步骤

数据准备:收集并标注数据集(如Cityscapes、Pascal VOC),进行数据增强(旋转、裁剪、翻转等)。

网络设计:选择合适的分割网络结构,如FCN、U-Net、DeepLabV3等。

损失函数:常用损失函数包括交叉熵损失(Cross-Entropy Loss)和Dice系数损失,用于优化分割性能。

训练与评估:通过评估指标(IoU、mIoU、Pixel Accuracy)对语义分割模型的精度进行评估。

图片
图片

02


专题二:深度学习计算光学成像




SIMPLE STYLE

第一天

第一章:光学成像基础

第一节:绪论

1.什么是光学成像?

2.光学成像进展

第二节:光学成像重要属性

1.物距、焦距、空间带宽乘积

2.分辨率、视场、景深

3.球差、慧差、场曲、畸变、色差、像差

4.点扩散函数、调制传递函数

第三节:成像质量评价指标

1.全参考评价

2.半参考评价

3.无参考评价

第四节:光学成像发展趋势

1.功能拓展 (相位、三维、非视距、穿云透雾、遥感)

2.性能改善(视场大小、分辨率、成像速度)

3.系统优化(小型化、廉价化、高效制造)

图片

第二章:实操软件介绍及运行 (实践)

第一节:Python环境的搭建

1.了解anaconda的安装

2.运行环境创建及激活

3.学习编译器spyder的使用

4. Shell脚本 的使用

第二节:Python基本操作

1. 变量、数据类型、控制流

2. 函数、文件操作

第三节:深度学习环境实践

1.pytorch安装及验证

2.学习编译器spyder的使用

3.Shell脚本的使用

第四节:深度学习基础

1.了解神经网络的基本原理

2.了解反向传播和链式梯度计算

第五节:主流神经网络构型讲解







请到「今天看啥」查看全文