专栏名称: 微软亚洲研究院
专注科研18年,盛产黑科技
目录
相关文章推荐
爱可可-爱生活  ·  Corca的协同数学编辑器输入公式也太顺滑了 ... ·  昨天  
新智元  ·  4500美元复刻DeepSeek神话,1.5 ... ·  2 天前  
爱可可-爱生活  ·  【[1.2k星] Cloudflare ... ·  3 天前  
爱可可-爱生活  ·  【AgentRecSys:一个专注于基于大型 ... ·  3 天前  
AI前线  ·  “首席炒作官”Altman ... ·  3 天前  
51好读  ›  专栏  ›  微软亚洲研究院

明天直播 | ECCV 2024精选论文分享

微软亚洲研究院  · 公众号  · AI  · 2024-10-28 17:00

正文


(本文阅读时间:5分钟)


2024年的ECCV大会于10月4日在意大利米兰圆满结束。作为计算机视觉领域的三大顶级会议之一,ECCV是全球计算机视觉研究者交流最新研究成果的重要平台。


根据此前粉丝朋友们的投票结果,我们 请了票选人气最高的三篇ECCV论文的作者,于 明天( 10月29 日) 下午14:00,在微软亚洲研究院的直播间 分享他们的前沿 工作。欢迎大家锁定直播间!


直播信息


直播时间:


2024年10月29日(明天) 14:00-15:00


直播地址:


微信视频号“微软亚洲研究院


B 站账号“微软科技”直播间


论文及讲者介绍



牟芯志

微软亚洲研究院

多媒体计算组研发工程师


牟芯志,微软亚洲研究院多媒体计算组研发工程师。现阶段 主要在 研究方向为视觉内容生成领域,包括图像和视频内容的生成、重建和压缩等。此前还进行过图像和视频内容检测和识别相关工作。

分享内容:

FontStudio: 用于生成连贯一致字体效果的形状自适应扩散模型

FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation


论文摘要:

特效字体生成任务需要在生成用户提示内容的同时,额外保证生成内容的轮廓与用户所提供的字符轮廓相似。我们提出的 FontStudio 框架,包含形状自适应扩散模型和形状自适应风格迁移算法,解决了非规则画布上的生成问题以及字符风格统一问题。


论文链接:

https://www.ecva.net/papers/eccv_2024/papers_ECCV/papers/07569.pdf


项目链接:

https://font-studio.github.io/



祁琳峰

微软亚洲研究院

多媒体计算组实习生


祁琳峰,博士五年级,导师为 吕岩老师,目前在多媒体计算组进行实习及联合培养,研究方向为端到端的视频编解码。


分享内容:

神经视频压缩的长期时间上下文收集

Long-term Temporal Context Gathering for Neural Video Compression


论文摘要:

现有的视频压缩模型主要通过估计光流来利用短时间上下文,本篇论文额外引入长时间间隔的参考特征,并对参考特征进行聚类和类内特征搜索来提取长时间上下文,丰富上下文的多样性并抑制误差传播,从而提升模型的压缩性能。


论文链接:

https://www.ecva.net/papers/eccv_2024/papers_ECCV/papers/08346.pdf



张博文

微软亚洲研究院

视觉计算组实习生


张博文,博士四年级,师从郭百宁老师。目前在视觉计算组从事高质量生成模型的研究,已在多个计算机视觉顶级会议上发表过多篇论文,研究内容涵盖二维图像生成和三维物体生成等领域。


分享内容:

RodinHD: 使用扩散模型生成高保真3D头像

RodinHD: High-Fidelity 3D Avatar Generation with Diffusion Models


论文摘要:

RodinHD 旨在精确拟合并为用户生成高质量的数字化身。本篇论文首先解决了共享解码器拟合过程中的灾难性遗忘问题,实现了高质量数据拟合;其次增强了输入图像的在生成过程中的指导效果,并针对三维扩散模型修改了加噪过程,实现了高保真度数字化身生成。


论文链接:

https://arxiv.org/abs/2407.06938


项目链接:

https://rodinhd.github.io/


日程安排


14:00-14:20

分享内容:

FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation

分享者:

牟芯志

14:20-14:40


分享内容:

Long-term Temporal Context Gathering for Neural Video Compression

分享者:

祁琳峰







请到「今天看啥」查看全文