专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
天池大数据科研平台  ·  3步,0代码!一键部署DeepSeek-V3 ... ·  8 小时前  
数据派THU  ·  使用Python实现基于矩阵分解的长期事件( ... ·  2 天前  
数据派THU  ·  【HKUST博士论文】单视图图像的高质量3D生成 ·  4 天前  
天池大数据科研平台  ·  阿里云天池祝大家蛇年代码无BUG,学习不断电! ·  5 天前  
51好读  ›  专栏  ›  数据派THU

【CUHK博士论文】构建高效且可扩展的视频理解AI模型

数据派THU  · 公众号  · 大数据  · 2025-02-01 17:00

正文

来源:专知

本文约1000字,建议阅读5分钟

本文提出了旨在解决视频理解任务中效率和可扩展性挑战的创新方法。


视频理解在计算机视觉中是一个重大挑战,因为每天有数十亿视频被消费,同时还有数百万新视频不断产生。为了帮助人类在推荐系统、机器人助手和自动驾驶等多个任务中,开发出一种可靠的视频理解模型至关重要。
过去十年中,计算机硬件、深度学习技术的进步以及大量数据,推动了计算机视觉研究的显著进展。然而,由于视频中增加的时间维度,视频研究依然是不成熟且充满挑战的。视频理解需要同时对空间和时间信息进行建模,这使得任务更加复杂。此外,视频处理和分析需要大量的计算资源和时间,且由于其高维性,标注视频数据耗时且困难。
本文提出了旨在解决视频理解任务中效率和可扩展性挑战的创新方法。本研究的第一个贡献是引入了一种新颖的视频分类迁移学习方法,称为时空适配器(ST-Adapter)。通过利用ST-Adapter,可以用最少的参数变化和更新,将图像基础模型适应于动作识别任务。这种方法显著提高了图像到视频迁移学习的效率。第二个贡献是引入人物场景关系的视频动作检测网络,称为ACAR-Net。ACAR-Net旨在学习和编码关系特征,从而显著提高动作检测性能。值得注意的是,这是在不需要显式关系和物体标注的情况下实现的。我们做出的第三个贡献是针对零样本视频问答(VideoQA)的检索回答(R2A)框架。R2A框架旨在通过结合访问外部知识源来增强现有的多模态模型。这种设计选择使模型的知识源和组件能够以可扩展和可持续的方式进行最小成本的更新。最后,我们通过生成方法探索视频场景理解。我们的贡献在于一个两步式生成框架,将这一复杂任务分解为两个更简单的子问题。在第一阶段,我们仅生成高质量的第一帧。在第二阶段,我们根据场景的语义含义对场景进行动画化,以获得时间上连贯的视频,从而取得了高质量的视频生成结果。通过所提出的框架,静态和动态内容可以以循序渐进的方式实现,从而大幅度提高了生成质量。
https://repository.lib.cuhk.edu.hk/en/item/cuhk-3368889



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU