国际计算语言学年会(Annual Meeting of the Association for Computational Linguistics, ACL)是自然语言处理领域的顶级学术会议,由计算语言学协会在世界范围内每年召开一次。
在ACL 2022中,复旦大学计算机科学技术学院共计9篇长文被录用,其中包括5篇主会论文和4篇Findings论文。
主会论文
CQG: A Simple and Effective Controlled Generation Framework for Multi-hop Question Generation
作者:费子楚,张奇,桂韬,梁迪,王思睿,武威,黄萱菁
类别:Long Paper
摘要:多跳问题生成侧重于生成需要对输入段落的多条信息进行推理的复杂问题。当前具有最先进性能的模型已经能够生成与答案相对应的正确问题。然而,大多数模型无法保证生成问题的复杂性,因此它们可能会生成无需多跳推理即可回答的浅层问题。为了应对这一挑战,我们提出了CQG,这是一个简单有效的可控生成框架。CQG采用简单的方法生成包含多跳推理链中关键实体的多跳问题,保证了问题的复杂性和质量。此外,我们引入了一种新颖的基于Transformer的可控解码器,以保证关键实体出现在问题中。实验结果表明,我们的模型大大提高了性能,在HotpotQA上也比最先进的模型高出5个BLEU点约25%。
Flooding-X: Improving BERT's Resistance to Adversarial Attacks via Loss-Restricted Fine-Tuning
作者:刘勤,郑锐,包容,刘婧漪,刘志华,程战战,乔梁,桂韬,张奇,黄萱菁
类别:Long Paper
摘要:对抗鲁棒性在学界引起了很多关注,主流的解决方案是对抗训练。通用方法是为每个输入样本生成对抗扰动,这种训练方法的计算复杂性随着对抗样本所需要的梯度计算次数成倍上升。为了解决这个问题,我们采用了Flooding方法作为一种低成本的防御方法。然而,这一方法依赖于参数的选择,于是我们进一步提出一个指标来缩小参数搜索范围。Flooding-X并不需要生成额外的对抗扰动来训练模型,其时间消耗近似于模型微调,比标准对抗训练快2-15倍。实验表明,我们的方法在很大程度上提高了BERT对文本对抗攻击的防御能力,并在各种文本分类和GLUE任务上获得了当前最佳的鲁棒正确率。
MINER: Improving Out-of-Vocabulary Named Entity Recognition from an Information Theoretic Perspective
作者:王枭,窦士涵,熊立茂,邹易澄,张奇,桂韬,乔梁,程战战,黄萱菁
类别:Long Paper
摘要:基于深度学习的命名实体识别模型在许多数据集(如CONLL2003)上取得惊人的可喜成绩,但是,近期很多研究表明过去的方法过度依赖实体词本身的信息,以至于对训练集中未见过的实体词(未登录实体词)上的识别性能很差。现实生活中的实体词往往呈长尾分布,意味着这样的模型在实际应用中很难达到预期的效果。在这个工作中,基于信息论,我们提出一种新的NER学习框架去解决未登录实体词的识别问题。该方法额外包含两个基于互信息的训练目标:(1)泛化信息最大化,目标是强化文本表示中的上下文信息和可泛化的实体特征;(2)多余信息最小化,防止模型过度关注实体词本身和训练集中的数据偏见。实验结果表明,我们的方法可以有效提升模型在未登陆实体词识别上的泛化性和数据扰动下的鲁棒性。
Robust Lottery Tickets for Pre-trained Language Models
作者:郑锐,包容,周钰皓,梁迪,王思睿,武威,桂韬,张奇,黄萱菁
类别:Long Paper
摘要:彩票网络假说(Lottery Ticket Hypothesis)的相关工作表明,预训练模型中存在媲美原始网络性能的子网络,这些子网络也被称为中奖彩票(winning tickets)。然而,中奖彩票在遭受对抗攻击时,表现出了比原始网络更差的鲁棒性。为了缓解上述问题,本文提出了一种基于可学习权重掩码(learnable binary masks for weights)的方法来识别隐藏在原始预训练模型中的鲁棒彩票网络(Robust Tickets)。为了解决二值掩码带来的离散优化问题,本方法使用concrete distribution对掩码进行建模,并使用L0范数的平滑近似来促进掩码的稀疏度。此外,本方法引入对抗损失目标来指引鲁棒彩票网络的搜索过程,确保彩票网络在准确度和鲁棒性上都有很好的表现。实验结果表明,相较之前的工作,本方法在鲁棒性评估上得到显著改善,甚至优于目前最先进的文本对抗防御方法。最后,本文提供了一种新的角度解释预训练语言模型在对抗鲁棒性上的脆弱性:某些预训练权重对准确度没有贡献,但可能会损害模型鲁棒性。
KNN-Contrastive Learning for Out-of-Domain Intent Classification
作者:周云华,刘佩举,邱锡鹏
类别:Long Paper
摘要:未知意图分类对于任务型对话系统是一项基础又具有挑战的任务。现有的方法在学习已知意图的可判别特征(语义)表示时,通常隐性限制已知意图的特征分布区域为“紧致的”或“单连通区域”,即分布区域内部不含未知意图。在下游未知意图检测时,已知意图的特征分布通常又会被限定服从某一特定的分布(最常见为高斯分布),使其应用受限。本文首先探索了未知意图分类问题的本质,借助于Open Space Risk形式化了该问题的优化目标,并提出了一种简单且有效的特征学习方法--k近邻对比学习,即仅利用与样本在特征(语义)空间中相近的k个样本来学习意图的可判别特征表示。进一步,本文尝试从理论层面探索,相比之前方法,该方法能更好优化目标的原因。值得注意的是,本文提出的意图特征学习方式和以密度为基础的异常检测方法天然相适应,从而避免对意图的特征分布做额外限制。在四个文本意图基准数据集上的实验结果表明,该方法能够取得较好的效果。
Findings of ACL 2022
A Simple Hash-Based Early Exiting Approach For Language Understanding and Generation
作者:孙天祥,刘向阳,朱威,耿志超,吴玲玲,何义龙,倪渊,谢国彤,黄萱菁,邱锡鹏
类型:Long Paper
摘要:动态早退是一种提升模型推理效率的技术手段,它通过估计样本难度让不同样本在不同层退出推理过程。过去的工作通常采用某些启发式指标(例如熵)来衡量样本难度,因此需要调节阈值且找到的阈值难以在不同任务间泛化。作为对比,利用神经网络模块去估计样本难度进而学习何时退出的方法更加通用。但是,样本难度究竟能否被学习,以及能够学到什么程度仍旧是未知的。在本文中,我们对样本难度的可学性开展了实验,结果表明现代神经网络在预测样本难度任务上表现很差。基于这一观察,我们提出了一种简单有效的基于哈希的早退方法(HashEE),用简单的哈希函数替换learn-to-exit模块,直接为每个单词分配其退出层。相比过去的方法,HashEE不需要内部分类器或额外参数,因而更加高效。我们在分类、回归、生成任务上的实验结果都表明,HashEE可以用更少的FLOPs和推理时间取得更好的效果。
Towards Adversarially Robust Text Classifiers by Learning to Reweight Clean Examples
作者:徐健涵,张岑湲,郑骁庆,李林阳,Cho-Jui Hsieh,Kai-Wei Chang,黄萱菁
类别:Long Paper
摘要:在文本领域的对抗鲁棒性研究中,现阶段绝大部分的研究关注于对抗数据增强、优化模型结构等方面上,而在分配训练数据训练权重的研究则偏少。本文通过以重新分配原始训练样本权重的方式,尝试不在训练集中添加额外的对抗增强数据,来得到一个鲁棒的文本分类器,并将这种训练方法命名为WETAR。具体地,我们希望通过使用验证集梯度,来引导模型分配训练样本权重。我们采用了Learning to Reweight的框架,通过构建在验证集中加入对抗样本构建鲁棒验证集,并采取了类似元学习的训练方式来计算验证集样本在训练样本上的相对影响力。实验证明,WETAR不仅能够得到一个鲁棒的模型,在三个数据集上要优于之前的大部分对抗训练工作,而且让我们能够知道存在一种权重分配方式,能够使模型在原始样本下训练下得到很好的鲁棒性提升。该工作在复旦大学郑骁庆老师团队与加州大学洛杉矶分校的Cho-Jui Hsieh和Kai-Wei Chang老师指导下完成。
Improving the Adversarial Robustness of NLP Models by Information Bottleneck
作者:张岑湲,周翔,万奕欣,郑骁庆,Kai-Wei Chang,Cho-Jui Hsieh
类别:Long Paper
摘要:现有研究显示,对抗样本的成因与非鲁棒特征有直接联系。非鲁棒特征能够对模型最终的预测结果产生影响,但人类对这种特征并不敏感。因此,非鲁棒特征容易被人为操控,以用来欺骗语言模型、进行对抗攻击。
在本研究中,我们利用了信息瓶颈(information bottleneck)理论,尝试探索在保留任务相关的鲁棒特征的前提下,尽可能的过滤掉非鲁棒特征。我们在SST-2, AGNEWS 和 IMDB三个数据集上进行了实验,实验结果证明: 相较于现有的防御方法, 基于information bottleneck的方法能够在保证模型在干净样本上性能的基础上,令模型的鲁棒性得到显著提升。
Divide and Conquer: Text Semantic Matching with Disentangled Keywords and Intents
作者:邹易澄,刘宏伟,桂韬,王浚哲,张奇,唐萌,李海翔,Daniel Wang
类别:Long Paper
摘要:文本语义匹配是一项被广泛应用于社区问答、信息检索、推荐系统等多种场景的基础任务。大多数基于预训练语言模型(PLM)的文本匹配方法(如 BERT等)通过统一处理句子中不同的单词来直接进行文本内容的比较。然而,待匹配的句子通常包含不同匹配粒度的内容。我们一般将其分为两类:(1)“关键词”(keyword), 即应当严格匹配的动作、实体和事件等事实信息;(2)“意图”(intent),即可以通过多种表述方式传达的抽象概念。在这项工作中,我们提出了一种简单有效的文本匹配训练策略DC-Match,将关键词与意图分离,并使用分而治之的策略进行匹配。我们假设两个句子是匹配的,当且仅当它们的关键词和意图均匹配。DC-Match可以方便地与PLM相结合,而不影响其推理的效率。我们在三个数据集上进行了实验,结果表明我们的方法在多种 PLM 上均能得到稳定的性能提升。