演讲者 | 陈文清,上海交通大学人工智能研究院博士生 |
|
| 时间 | 2021年11月22日下午14:00 | 地点 | 复旦大学江湾校区二号交叉学科楼 E1006
| 联系人 | 杨卫东,wdyang@fudan.edu.cn |
| |
演讲简介
蕴含逻辑表格到文本生成旨在从表格数据中自动生成流畅且符合逻辑的文本,而目前的深度神经网络往往生成语言流畅但逻辑却不一致的文本,因此这项任务仍然非常具有挑战性。潜在的原因可能是深度学习模型经常捕获表面级别的虚假相关性,而不是因果关系。具体来说,在训练阶段,模型可以在不用充分理解表格x中的语义的情况下依然可以以较低的经验损失还原出文本y,因为模型可以使用一些虚假的统计线索进行预测。在这个工作中,我们提出了一种基于因果干预的去混淆变分编码-解码器(DCVED),学习优化目标p(y|do(x))而非p(y|x)。首先,我们建议使用变分推理来估计潜在空间中的混杂因素,并配合基于Judea Pearl的因果干预do-calculus方法来减轻虚假相关性。其次,为了使潜在的混杂因素有意义,我们提出了一个反向预测过程来预测未使用的实体,这类实体但在词级别与确切被选中的实体存在一定的相似性。最后,由于我们的变分模型可以生成多个候选句子,因此我们训练一个表格-文本选择器来找出给定表格的最佳候选句子。一组广泛的实验表明,我们的模型无论在使用或不使用预训练模型的情况下都优于基线模型,并在逻辑保真度方面在两个逻辑表到文本数据集上达到了最先进的性能。这项工作已发表在ACL2021主会上。
关于讲者
陈文清,上海交通大学人工智能研究院博士生,主要研究方向为自然语言处理中的因果推断、文本生成,目前已在ACL、EMNLP、IJCAI、COLING等会议上发表一作论文4篇,合作论文12篇。