学术讲座公告:Depth estimation from single image基于单幅图像的深度估计

讲座题目:Depth estimation from single image基于单幅图像的深度估计

讲座时间:2016年3月29日(周二)13:30

讲座地点:科研楼322室

主讲人:戴玉超博士

戴玉超博士现为澳大利亚国立大学工程研究院ARC DECRA(澳大利亚研究委员会卓越青年研究奖)学者。师从西北工业大学何明一教授,他分别于2005、2008和2012年获得信号与信息处理专业学士、硕士和博士学位。2008年至2009年受国家留学基金委资助赴澳大利亚国立大学联合培养,对方导师为几何计算机视觉的奠基者Richard Hartley教授。他的研究方向包括结构与运动恢复、多视角几何、深度学习、人机交互、压缩感知和最优化等。他先后在计算机视觉领域的顶级期刊和会议如IEEE模式分析与机器智能(TPAMI)、国际计算机视觉期刊(IJCV)、国际计算机视觉大会(ICCV)、IEEE计算机视觉与模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)等发表论文多篇。他与何明一教授和澳大利亚国立大学Hongdong Li副教授合作完成在非刚性结构与运动恢复方面的研究工作获得CVPR 2012最佳论文奖(大陆高校28年来首次获得该奖项)。近期他的研究工作致力于通过单目视频序列进行复杂动态场景的分析和理解。

内容摘要:

Predicting the depth of a scene from a single image is a challenging and essentially under-determined task. In this talk, I will present how to tackle the problem by using deep convolutional neural network (DCNN) and continuous conditional random fields (CRFs). In this way, the number of training images required has been greatly reduced. Our framework works at two levels, the super-pixel level and the pixel level. First, we design a DCNN to learn the mapping from multi-scale image patches to absolute depth value at the super-pixel level. Second, the estimated depth at the super-pixel level is refined to the pixel level by using hierarchical CRFs. Experiments on the Make3D, NYU Depth V2 and KITTI datasets show competitive if not superior performance compared with current state-of-the-art methods.

从单幅图像预测场景的深度是一项本质上欠约束的具有挑战性的问题。针对此问题,提出一种采用深度卷积神经网络和连续条件随机场的方法,极大的减少了所需训练样本的数量。提出的方法在两个层次上工作,即超像素级别和像素级别。首先,深度卷积神经网络在超像素级别上从多尺度图像块学习绝对的深度信息;其次,超像素级别的深度值通过分层条件随机场提升到像素级别。 Make3D, NYU Depth V2和KITTI数据上的实验表明提出的方法取得当前最好性能。

( 讲座具体信息以数字平台通知为准!)

扫码分享本页面
扫码分享本页面