专栏名称: VALSE
VALSE(Vision and Learning Seminar) 年度研讨会的主要目的是为计算机视觉、图像处理、模式识别与机器学习研究领域内的中国青年学者提供一个深层次学术交流的舞台。
目录
相关文章推荐
山东省交通运输厅  ·  新闻联播丨【奋进强国路 ... ·  4 天前  
山东省交通运输厅  ·  传递爱与希望,60余位失踪儿童信息“登”上爱心公交 ·  4 天前  
山东省交通运输厅  ·  “铁陆空地水”齐发力!济南加快打造国际性综合 ... ·  5 天前  
山东省交通运输厅  ·  山东这3条高速,最新进展来了 ·  6 天前  
山东省交通运输厅  ·  临沂重点公路工程“中秋”假期不停工 ... ·  1 周前  
51好读  ›  专栏  ›  VALSE

【17-10期VALSE Webinar活动】

VALSE  · 公众号  ·  · 2017-05-17 17:51

正文

 

报告嘉宾1:Jia Xu(Intel Visual Computing Lab)

http://pages.cs.wisc.edu/~jiaxu/

报告时间:2017年05月24日(星期三)上午10:00(北京时间)

报告题目:DC Flow

主持人:禹之鼎(Carnegie Mellon University)


报告摘要:

In this talk, I will present a new optical flow estimation approach that operates on the full four-dimensional cost volume. This direct approach shares the structural benefits of leading stereo matching pipelines, which are known to yield high accuracy. To this day, such approaches have been considered impractical due to the size of the cost volume. We show that the full four-dimensional cost volume can be constructed in a fraction of a second due to its regularity. We then exploit this regularity further by adapting semi-global matching to the four-dimensional setting. This yields a pipeline that achieves significantly higher accuracy than state-of-the-art optical flow methods while being faster than most. Our approach outperforms all published general-purpose optical flow methods on the KITTI 2015 benchmark, and has been #1 on the Sintel benchmark since 10/2016.


参考文献:

Jia Xu, René Ranftl, and Vladlen Koltun. Accurate Optical Flow via Direct Cost Volume Processing. In Computer Vision and Pattern Recognition (CVPR), July 2017.


报告人简介:

Jia Xu is a Senior Research Scientist at the Intel Visual Computing Lab. His main research interests include computer vision and deep learning, with a particular focus on visual perception (e.g., semantic segmentation, dense visual correspondence, video analytics/segmentation). Jia received his Ph.D. in Computer Sciences from the University of Wisconsin-Madison in 2015. He was also a visiting student in TTI-Chicago and University of Toronto during 2013 and 2014. Prior to graduate school, Jia obtained his B.S. from Nanjing University in 2010.


 

报告嘉宾2:何晖光(中国科学院自动化研究所)

报告时间: 2017年05月24日(星期三)上午11:00(北京时间)

报告题目:基于多视图深度生成式模型的视觉信息编解码研究

主持人:  禹之鼎 (Carnegie Mellon University)


报告摘要:  

视觉信息编解码以视觉认知理论为基础, 通过采集人眼接受不同 图像刺激时大脑响应的时空数据来建立并训练数学模型,可以预测人眼看到新的图像时的大脑响应(编码),或者根据采集到的大脑响应来识别、重构人眼所看到的图像(解码)。以往该领域的研究大都集中于单向建立数学模型(编码和解码分别建模),而缺乏双向建模的探索(编解码同时建模)。受到新兴的多视图表示学习、变分自编码模型等建模思想的启发,我们建立了基于自编码的多视图深度生成式模型,巧妙地解决了双向建模问题。对于图像视图我们采用深度神经网络进行生成,而对于大脑信号采用线性的生成模型更加鲁棒。该方法在公开数据集上获得了目前最好的重建效果。该工作被MIT Technology Review头条报道。


参考文献:

1.  Changde Du, Changying Du, Huiguang He*, Sharing deep generative representation for perceived image reconstruction from human brain activity, https://arxiv.org/abs/1704.07575  

2.  https://www.technologyreview.com/s/604332/mind-reading-algorithms-reconstruct-what-youre-seeing-using-brain-scan-data/ 


报告人简介:

何晖光,中国科学院自动化研究所研究员,博士生导师, 中国科学院大学岗位教授,中科院青年创新促进会优秀会员。中国科学院脑科学与智能技术卓越中心年轻骨干。IEEE高级会员,中国图象图形学会视觉大数据专委会常务委员,CCF计算机视觉专委会委员。分别于1994年(本科),1997年(硕士)毕业于大连海事大学,1997-1999在大连海事大学科研院从事教学与科研工作;2002年在中国科学院自动化研究获博士学位,同年留所工作。2003-2004期间在美国罗切斯特大学放射系做博士后研究,2008年1-3月,在加拿大滑铁卢大学做高级研究学者,2014.10-2015.4在美国北卡大学教堂山分校做访问教授。何晖光博士先后主持了5项国家自然科学基金(包括1项国家自然基金重点项目)、2项863项目的研究,获得国家科技进步二等奖两项(分别排名第二、第三),北京市科技进步奖两项,2004年获中科院首届优秀博士论文奖,2007年被评为北京市科技新星,2009年获得中科院“卢嘉锡青年人才奖”,2012年入选中科院青年创新促进会(2016年被评为优秀会员)。其研究领域为脑科学、人工智能,医学影像处理,脑-机接口等, 其研究结果在NeuroImage, Human Brain Mapping, AJNR,MICCAI等相关领域的国内外核心期刊以及国际主流会议上发表文章一百余篇。



特别鸣谢本次Webinar主要组织者:

VOOC责任委员:高陈强(重庆邮电大学),何晖光(中国科学院自动化研究所)

VODB协调理事:禹之鼎(Carnegie Mellon University),程明明(南开大学)


活动参与方式:

1、VALSE Webinar活动全部网上依托VALSE QQ群的“群视频”功能在线进行,活动时讲者会上传PPT或共享屏幕,听众可以看到Slides,听到讲者的语音,并通过文字或语音与讲者交互;

2、为参加活动,需加入VALSE QQ群,目前A、B、C、D、E群已满,除讲者等嘉宾外,只能申请加入VALSE F群,群号:594312623 。申请加入时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M

3、为参加活动,请下载安装Windows QQ最新版,群视频不支持非Windows的系统,如Mac,Linux等,手机QQ可以听语音,但不能看视频slides;

4、在活动开始前10分钟左右,主持人会开启群视频,并发送邀请各群群友加入的链接,参加者直接点击进入即可;

5、活动过程中,请勿送花、棒棒糖等道具,也不要说无关话语,以免影响活动正常进行;

6、活动过程中,如出现听不到或看不到视频等问题,建议退出再重新进入,一般都能解决问题;

7、建议务必在速度较快的网络上参加活动,优先采用有线网络连接。