• 讲座信息

5.17 | 机器人与人工智能

2019.05.14


时间:2019 年 5 月 17 日 13:30-17:00
地点:复旦大学邯郸校区第 3 教学楼 109 教室
联系人:张文强 [wqzhang@fudan.edu.cn]

会议日程


13:30-14:00 面向环境感知的视觉 SLAM 报告人: 邹丹平,上海交通大学
14:00-14:30 智能人机交互 报告人: 程时伟,浙江工业大学
14:30-15:00 机器人与智能问答 报告人: 王昊奋,上海乐言科技
15:00-15:20 茶歇
15:20-15:50 机器人与知识图谱 报告人: 肖仰华,复旦大学
15:50-16:20 自动可视化 报告人: 袁晓如,北京大学
16:20-16:50 互动交流

1、报告嘉宾 邹丹平

上海交通大学副教授,研究兴趣为视觉 SLAM 与多源融合定位导航。他 2010 年于复旦大学计算机学院获计算机应用技术博士学位,200-2013 年任新加坡国立大学博士后研究员。2013 年加入上海交通大学感知与导航研究所,他在 SLAM 方面的代表工作有动态环境下群体协同 CoSLAM(TPAM,2012),面向人造环境下的 StructSLAM(TVT,2015)以及 StructVIO 及(TRO,2019)等。他发起并连续策划了五届上海交通大学无人飞行器智能感知技术挑战赛,并在 2017 年推广为全国性赛事。

报告摘要:

StructVIO-非规则人造环境下的视觉惯性融合定位建图方法
与自然环境不同,日常生活中的人造环境存在比较明显的几何规则性,存在大量如线条、平面的几何特征,尤其是室内场景。这些特征对视觉或视觉惯性 SLAM 将带来极大帮助。本报告介绍了一种新型视觉惯性 SLAM 方法-StructVIO 该方法采用了亚特兰大世界模型来对非规则人造环境进行描述,解决了以往基于曼哈顿世界模型方法的局限性。亚特兰大世界可看成是多个局部曼哈顿世界的叠加,在 StructVIO 里,每个局部曼哈顿世界通过在线检测自动生成,并纳入到滤波器中进行在线估算。通过充分利用局部曼哈顿世界的规整性,达到更高的估算精度和鲁棒性。通过在 Euroc 数据集与现实场景大量测试,相比于目前流行的视觉惯性 SLAM 方法, StructVIO 在精度性能和稳定性上取得明显提升,该方法可应用于室内大范围场景的自主定位。

2、报告嘉宾 程时伟

浙江工业大学教授,计算机软件研究所副所长、博导。浙江大学博士,美国卡内基梅隆大学博士后。主要研究方向为人机交互、普适计算、界面设计与用户体验、可视化等。美国计算机学会 ACMSIGCHI 中国分会委员、中国计算机学会人机交互专委委员、协同计算专委委员、普适计算专委委员,浙江省计算机学会人机交互专委会副主任,EEE 交互式与可穿戴计算设备技术专家委员会委员、可视分析与表达技术专家委员会委员,中国人工智能学会智能交互专委委员、脑机融合与生物机器智能专委会委员。担任人机交互领域国际顶级期刊与会议审稿人。国家自然科学基金项目通讯评审专家。作为负责人主持国家自然科学基金 3 项、浙江省自然科学基金 2 项,参与国家重点研发计划云计算与大数据子课题、美国国家自然科学基金各 1 项。在人机交互国际 Top 会议 CHI,CSCW,以及 PUC、JMUI、电子学报、计算机辅助设计与图形学学报等 SCI、EI 检索期刊发表论文近 40 篇,获得人机交互领域国际顶级会议 CSCW2015 最佳论文提名奖。此外,出版教材 1 部、译著 1 部、授权发明专利 3 项。

报告摘要:

随着人工智能技术的发展,智能化的计算设备逐步融入到用户的工作、生活环境中。它们记录用户行为和交互信息,依托隐式用户界面,智能地执行交互任务。生理计算作为感知和理解用户的关键环节,已经逐渐引起人机交互领域学者的关注。在生理计算模式下,系统通过传感设备实时监控和分析用户的生理信号,将这些信号转化为控制输入,并对用户做出反馈。在此基础上,利用人工智能技术提高生理计算的精度和效率,对人的生理状态进行深入理解,构建 “人在回路” 的智能人机交互框架,实现用户主导的自动化系统、基于人机共生的 A 系统。本报告以生理计算驱动的智能人机交互为主题,从交互范式、交互方法展开论述,并以基于眼动跟踪的智能交互、基于脑电数据的人-机器人智能交互给出了相关应用实例。

3、报告嘉宾 王昊奋

上海交通大学博士。现任上海乐言信息科技有限公司 CTO,中文知识图谱 zhishi.me 创始人、 OpenKG 发起人之一、CCF 理事、CCF 术语审定工委主任、CCF 执委、中文信息学会语言与知识计算委员会副秘书长,共发表 80 余篇高水平论文,在知识图谱、问答系统和聊天机器人等诸多领域有丰富的研发经验,其带队构建的语义搜索系统 Billion Triple Challenge 中荣获全球第 2 名;在著名的本体匹配竞赛 OAEI 的实体匹配任务中斩获全球第 1 名。曾主持并参与多项国家自然科学基金、“863” 重大专项和国家科技支撑项目,以学术负责人身份参与 PayPal、Google、 Intel、IBM、百度等企业的合作项目。

报告摘要:

机器人智能问答技术是目前学术界的研究热点之一,正逐渐被广泛应用于企业计算中,赋能各行各业。本报告将从机器人智能问答的三种主流技术路线基于信息检索的问答、基于知识图谱的问答、基于阅读理解的问答出发,辨析单一技术路线在实践中的适用场景局限和优劣势,并结合乐言科技在企业计算智能问答领域的实践探索,阐述使用多策略融合方式构建智能问答引擎的必要性以及具体的构建方法。

4、报告嘉宾 肖仰华

复旦大学计算机学院教授、博导,复旦大学知识工场实验室负责人、上海市互联网大数据工程技术中心副主任,曾任多家规模企业高级顾问或首席科学家。国内较早从事知识图谱研究的学者之一。在国际顶级学术会议包括 SIGMOD、VLDB、ICDE、IJCAI、AAAI 发表论文学术 100 多篇,授权近 20 项知识图谱专利。领导构建了知识库云服务平台(知识工场平台 kw.fudan.edu.cn),发布了一系列知识图谱,以 API 形式对外服务 10 多亿次。

报告摘要:

时下人工智能(A1)飞速发展,A 最为吸引人眼球的载体不外乎实体化的机器人。越来越多的机器人,特别是服务机器人 “飞入” 寻常百姓家。机器人产业似乎一片繁荣。然而,看似繁华的表象背后隐藏着深深的忧患。我们的服务机器人在很多看似简单的任务中却 “出乎意料” 地难以胜任。我们一直 “梦想” 着让服务机器人为人类服务,比如端茶倒水,但如此简单的任务却难倒几乎所有的机器人。因为机器人必须要知道水是要往杯子里倒的而不是向人嘴里灌的,并且快倒满了就不能再倒。凡此种种,在复杂的开放环境中可能会用到的知识几乎不可穷尽。这些对机器而言异常困难的知识积累与应用对于我们人类而言却是十分简单。让机器 “有知识” 将成为进一步发展机器人产业的关键举措。在向这一宏伟目标迈出征程之前,很多基本问题需要得到澄清。让机器 “有知识"何以必要?为何困难?是否可行?如何做到?本文尝试对这些问题作一初步回答。

5、报告嘉宾 袁晓如

北京大学信息科学与技术学院研究员,博士生导师。2008 年初在北京大学建立可视化与可视分析实验室,主要研究方向包括复杂高维多模态科学数据可视化、基础可视化方法与理论研究,可视化的快速与智能自动构建方法以及面向领域的可视分析方法研究。高动态范围可视化的工作获得 2005 年 IEEE VIS 大会最佳应用论文奖,2013 年来指导实验室团队 10 余次在 IEEE VAST 可视化分析挑战赛中获奖。数十次担任 IEEE VIS, EuroVis, IEEE PacificVis 等国际可视化会议程序委员会委员;2017 年 IEEE VIS 大会论文主席(SciVis)。发起创建中国可视化与可视分析(ChinaVis)大会。担任中国图象图形学学会理事、可视化与可视分析专业委员会主任。中国计算学会理事,杰出会员,杰出讲者,大数据专家委员会委员

报告摘要:

回顾可视化的发展,从最初注重于对于典型科学数据集类型发展相应的可视化方法,到进一步扩展到广泛的信息可视化与注重算法驱动的交互可视分析。近年来我们也看到可视化方面的研究与应用更加注重可视化的易用性、可复用性。在当前智能与大数据的时代,我们认为未来可视化的发展将会进一步从易用发展到对于可视化全链路的自动分析与生成。可视化将作为自动生成分析的一个重要核心能力,为数据的理解与应用提供新的动力。