计算机所师生参加ACL 2017

2017年7月30日-8月4日,第55届国际计算语言学年会(ACL 2017)在加拿大温哥华召开,计算机所赵东岩老师、万小军老师、孙薇薇老师、冯岩松老师、严睿老师,研究生谭继伟、 曹俊杰、罗炳峰,实习生黄晟参加了此次会议。

计算机所老师在会场合影(左起:严睿、冯岩松、赵东岩、万小军、孙薇薇)

ACL会议是自然语言处理领域的顶级国际会议,一直受到国际学术界与工业界的广泛关注。本届会议共收到1419篇投稿,录用长文195篇,短文149篇,长文录用率为23.5%。计算机所师生在本次会议上共发表了4篇长文和1篇短文,分别针对句法分析、自动文摘、关系抽取、对话系统进行了研究,长文都在会议上做了口头报告,短文做了海报展示。论文具体信息如下:

[1] Weiwei Sun, Junjie Cao and Xiaojun Wan. Semantic Dependency Parsing via Book Embedding.

对于依存分析,该论文针对双平面约束,提出了一套分解为单平面子图,子图分别训练分析,合并子图的新流程。提出了一种新的单平面子图高阶模型和对应的beam搜索方法,用三次方的时间复杂度解决高阶模型,同时采用拉格朗日松弛的方法有效地合并单平面子图。论文在4个数据集上进行了实验测试,均证明高阶模型和拉格朗日松弛的有效性,并且达到SOTA水平。

[2] Jiwei Tan, Xiaojun Wan, Jianguo Xiao. Abstractive Document Summarization with a Graph-Based Attentional Neural Model.

该论文研究将序列到序列生成模型应用在文档摘要生成中,针对传统注意力机制忽视了原始语句重要性的问题,提出了一种新颖的图注意力机制,使得序列到序列模型在解码时关注于同时满足相关性和重要性的原始句子。实验表明,该方法很好地解决了序列到序列模型应用于文档摘要生成所面临的难点,能够生成语义连贯、内容精炼的文档摘要,在基准数据集上显著超过已有方法的性能。

[3] Junjie Cao, Sheng Huang, Weiwei Sun and Xiaojun Wan: Parsing to 1-Endpoint-Crossing, Pagenumber-2 Graphs.

对于依存分析,该论文提出了一种新的图的约束条件:交叉边共享端点及双平面约束。该约束与之前的单平面约束相比,图的覆盖率得到了很大的提高。根据这种新的约束,论文提出了一种时间复杂度为五次方的动态规划算法,和四次方的退化算法。算法在4个数据集上进行了实验,均证明了该约束下结果比单平面约束效果好,并且达到SOTA水平。

[4] Bingfeng Luo, Yansong Feng, Zheng Wang, Zhanxing Zhu, Songfang Huang, Rui Yan, Dongyan Zhao. Learning with Noise: Enhance Distantly Supervised Relation Extraction with Dynamic Transition Matrix.

该论文运用转移矩阵对关系抽取中的数据噪声问题进行了建模,并提出了基于课程学习的训练转移矩阵的方法。实验表明,该方法在对数据质量先验知识和没有先验知识的情况下,都能显著提高基础关系抽取模型的性能。

罗炳峰做口头报告

[5] Zhiliang Tian, Rui Yan, Lili Mou, Yiping Song, Yansong Feng and Dongyan Zhao. How to Make Contexts More Useful? An Empirical Study to Context-Aware Neural Conversation Models. (短文)

该论文对对话系统中如何有效利用上下文信息进行了研究。针对近年来在对话系统中提出的多种模型的利用上下文信息的有效性进行了系统性比较,并且提出了一种根据上下文和查询相关性显式对上下文向量赋权的方法,实验结果优于其他基准方法。

其中,博士生谭继伟、万小军老师、肖建国老师的论文Abstractive Document Summarization with a Graph-Based Attentional Neural Model入选ACL 2017杰出论文(Outstanding Long Paper),具体信息参见https://chairs-blog.acl2017.org/2017/08/03/outstanding-and-best-papers-and-the-decision-process/。

[关闭]
版权所有 © 2007 北京大学计算机科学技术研究所