• 讲座信息

从静态和移动摄像机导出的视觉大数据智能/Big Visual Data Intelligence from Static and Moving Cameras

2014.06.30

报告人:Jenq-Neng Hwang 教授   华盛顿大学报告时间:7 月 3 号(本周四)上午 9 点半地点:复旦大学张江校区计算机楼 405 会议室联系人:冯瑞(fengrui@fudan.edu.cn)Abstract:在这次演讲中,我将介绍一种动态跟踪人的对象,无论是从静态/动态监控摄像头单个或阵列收集的大视觉数据创建自己的三维可视化自动系统。在单一的静态摄像头跟踪情况下,主要是基于我们自己开发的约束多内核(CMK)追踪,从而有效地克服了严重的阻碍问题。在一个移动摄像机跟踪的情况下,我们利用人的检测器,以检测出现在摄像机视图中的对象,并且在跟踪逐个检测计划,从 2-D 空间中重新定位被跟踪的对象的 3-D 空间中的位置, 基于 Structure-from-Motion(SfM)为移动摄像机校准。然后,我们进一步扩展了工作,跟踪多个摄像头的对象,主要是对整个非重叠视场的跟踪对象的基础上,全面和可扩展的无监督学习的相机链路模型。结合上述所有的技术,我们的系统可以自动跟踪从静态/动态监控录像记录的人类对象,并通过开放的地图服务,例如谷歌地球和微软虚拟地球, 重建以 3-D 可视化显示跟踪人的运动轨迹。最后,我也将提出一些自动识别被跟踪人的动作的技术。In this talk, I will present an automatic system which dynamically tracks human objects and create their 3-D visualization from big visual data, collected either from a single or an array of static/moving surveillance cameras. In case of tracking under single static cameras, the proposed system is mainly based on our own developed Constrained Multiple-Kernel (CMK) tracking, which effectively overcomes the serious occlusion issues. As for tracking under a single moving camera, we utilize human detectors to detect objects appearing in the camera views, and track them in terms of the tracking-by-detection scheme which relocates the tracked objects from 2-D space to 3-D space based on the Structure-from- Motion (SfM) pipeline for calibration of the moving cameras’motions. We then further extended the work to track the objects across multiple cameras, mainly on tracking objects across nonoverlapping views, based on a fully and scalable unsupervised learning mechanism for pairwise camera link models. Combining all the techniques above, our system can automatically track human objects recorded from static/moving surveillance videos, and the tracked human’s trajectories can be 3-D visualized and reconstructed via the open map service such as Google Earth or Microsoft Virtual Earth. Finally, I will also present some systematic recognition of the actions performed by the tracked human independent of the viewing perspectives.Bio:Jenq‐Neng Hwang 博士目前系华盛顿大学电机工程系教授,博士生导师,电机工程系分管科研的系副主任。早在 2001 年,基于对自适应学习系统等的贡献,获选为美国电气和电子工程师协会院士(IEEE Fellow);2012 年,获评为上海市 “海外名师”。Jenq‐Neng Hwang 博士现任 IEEE 通讯学会 (ComSoc) 多媒体技术委员会 (MMTC)、IEEE 电路与系统学会 (CAS) 多媒体系统与应用技术委员会多媒体系统与应用技术委员会 (MSATC) 委员;Jenq‐Neng Hwang 博士系 IEEE 信号处理学会 (SPS) 多媒体信号处理技术委员会 (MSATC) 的创办会员,并于 1996 年至 2000 年担任 IEEE SPS 学会神经网络委员会 (NNC) 学会代表;曾任 IEEE T‐SP, IEEE T‐NN,IEEE T‐CSVT, IEEE T‐IP、IEEE 信号处理杂志 (SPM) 等国际知名期刊副主编;JISE, ETRI,IJDMB 等国际知名期刊编委;并在多个国际学术会议中作特邀报告, 并且成功主办多个 IEEE 等大型国际核心会议,例如 IEEE ISCAS 1995 年国际会议论文发表主席, IEEE ICNN 1996 年国际会议教程主席, IEEEICASSP(1998 年)、IEEE ISCAS(2009 年) 国际会议程序委员会共同主席;IEEE ISCAS(2008 年、2013 年) 国际会议特别会议共同主席, (这些国际会议每一个至少有 1500 多篇论文发表, 并且超过 2000 人参加)。Jenq‐Neng Hwang 教授在视觉理解和分析、机器学习, 模式识别、多媒体网络及其应用研究方面都取得了重要的研究成果,发表了大约 300 篇论文以及 2 本书;论文总引用超过 6300 次 (h‐index 34),已授权专利 3 项,获资助研究项目 30 项 (总计资助金额为 740 多万美元), 30 多次获邀参加国际学术会议作主题演讲或特邀演讲。