阅读理解问答是当前自然语言处理的研究热点之一。针对阅读理解问答中的简答题,由于其答案往往有多个、分布在阅读材料的不同位置,现有方法大多难以有效获取。本论文面向简答题的答案标注方法开展研究,将简答题答案标注问题看作是序列标注问题,考虑到问句焦点词对于寻找答案具有重要作用,提出基于动态网络的简答题答案标注方法,实现了简答题答案的端到端标注,实验表明提出的方法在F1和EM值上效果都有所提升。 Reading comprehension style question answering is one of the current research hotspots in natural language processing. For the short-answer questions, since the answers are often multiple and distributed in different positions of the reading passages, most of the existing methods are difficult to obtain effectively. This paper studies the answer labeling method for short-answer questions, regards the short-answer question answer labeling problem as a sequence labeling problem, and considers that the focus words of questions play an important role in finding answers, and proposes a dynamic network-based short-answer question answer labeling method. End-to-end annotation of short-answer questions’ answers, experiments show that the proposed method improves both F1 and EM values.
阅读理解问答是当前自然语言处理的研究热点之一。针对阅读理解问答中的简答题,由于其答案往往有多个、分布在阅读材料的不同位置,现有方法大多难以有效获取。本论文面向简答题的答案标注方法开展研究,将简答题答案标注问题看作是序列标注问题,考虑到问句焦点词对于寻找答案具有重要作用,提出基于动态网络的简答题答案标注方法,实现了简答题答案的端到端标注,实验表明提出的方法在F1和EM值上效果都有所提升。
阅读理解,问答,答案标注,动态网络,关注机制
Xudong Hong, Mei Yan*, Yuanyuan Mo
School of Computer Science and Technology, Anhui University of Technology, Ma’anshan Anhui
Received: Aug. 23rd, 2022; accepted: Sep. 21st, 2022; published: Sep. 28th, 2022
Reading comprehension style question answering is one of the current research hotspots in natural language processing. For the short-answer questions, since the answers are often multiple and distributed in different positions of the reading passages, most of the existing methods are difficult to obtain effectively. This paper studies the answer labeling method for short-answer questions, regards the short-answer question answer labeling problem as a sequence labeling problem, and considers that the focus words of questions play an important role in finding answers, and proposes a dynamic network-based short-answer question answer labeling method. End-to-end annotation of short-answer questions’ answers, experiments show that the proposed method improves both F1 and EM values.
Keywords:Reading Comprehension, Question Answering, Answer Pointing, Dynamic Network, Attention Mechanism
Copyright © 2022 by author(s) and beplay安卓登录
This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).
http://creativecommons.org/licenses/by/4.0/
阅读理解问答指的是给定一段阅读材料,计算机通过对内容的阅读,自动回答用户相关的提问,在自动客服、辅助答题、信息检索等诸多领域具有广泛的应用前景,也是当前的研究热点之一。现有阅读理解问答研究大多针对答案是一个连续的短文本片段的场景,通过判断答案的开始和结束位置,从而完成答案抽取。答案的长度往往仅为2~3个单词。对于简答题,由于往往是综合性问题,其答案通常有多个,分布在阅读材料的不同位置,而且答案内容有长有短。例如“这次会议有哪些人参加了?”它对应的答案往往就散布在阅读材料的不同位置上。现有方法难以有效获取。
论文面向阅读理解问答中简答题的答案标注方法开展研究,构建了端到端的答案标注模型。在构建模型时,一是将简单题答案标注看成序列标注问题,对多个答案片段进行标注。二是考虑到问句中的焦点词对于寻找答案具有重要作用,例如“……哪些人参加了?”中的“人”就表明了答案是与“人”相关的概念,将在答案的识别过程中同时对问句焦点词进行识别,并通过动态网络,将识别过程与答案标注过程结合。此外论文针对该研究构建了一个面向新闻事件的问答语料库,并在此基础上进行了简答题的答案标注实验,实验结果表明论文提出的方法能够有效提升简答题的答案标注效果。
现有面向阅读理解的问答方法,大多为基于深度学习的方法。这些方法所采用的深度学习模型总体架构如图1所示。模型主要包括词向量层、编码层、交互层、答案标注层4个层次。首先利用词向量层对问题和段落中的词语进行分布式表示。然后阅读层利用循环神经网络对问题和阅读材料的上下文进行阅读,获得词语在上下文环境下新的语义表示。接着交互层利用关注机制获得阅读材料中每个词在特定问题下的向量表示。答案标注层则是对答案片段的开始和结束位置进行识别。
对于词向量层, [
图1. 阅读理解问答模型架构
这些阅读理解问答研究,大多基于SQuAD 2.0 [
假设 P = { w t P } 1 n 表示阅读材料的词语序列, Q = { w t Q } 1 m 表示问题的词语序列,m和n分别表示问题和阅读材料中词语的个数。简答题答案标注的目的是从P中找到多个关于问题Q的答案文本片段 A = { a i } 0 v ,即 f ( P , Q ) → A 。其中 v ≥ 0 表示答案片段的个数, a i = { w t P } s i e i , s i 表示第i个答案在P的中的开始位置和结束位置。论文将简答题的答案标注看作是序列标注问题。对每个 w t P 进行分类,得到每个词的类别 L t P ∈ { B , I , O } 。其中B表示该词语为一个答案文本片段的开始,I表示该词语为答案文本的中间词,O表示该词语为非答案文本。
模型结构如图2所示。模型首先通过语义编码获得阅读材料及问题的语义表示,然后通过问句焦点词识别判断一个词是否为焦点词,接着通过动态网络,根据判断结果采用不同的关注策略进行问题和阅读材料的语义交互,并通过Self attention融合上下文信息,最后哦通过CRF层进行答案标注。
首先使用word2vec将阅读材料 P = { w t P } 1 n 及问句 Q = { w t Q } 1 m 中的词语表示为词向量的形式 { e t P } 1 n 和 { e t Q } 1 m ,然后将这些词向量分别输入BiLSTMP和BiLSTMQ获得融合了上下文语义信息的向量表示 { u t P } 1 n
和 { u t Q } 1 m , u t P = [ u → t P , u ← t P ] , u t Q = [ u → t Q , u ← t Q ] 。 u t P , u t Q ∈ R 2 × d 。接着将 [ u s s i , u e s i ] 作为阅读材料中每个句子的语义表示,其中 u s s i 、 u e s i 表示阅读材料中第i个句子的开始和结束词语对应的语义表示。通过BiLSTMS获得融合上下文的新的句子语义表示 S i P = [ s → i P , s ← i P ] ∈ R 2 d 。最后将 u ¯ t P = [ u t P , S i P ] ∈ R 4 d 作为阅读材料中第t个词语的语义表示,其中第t个词语属于第i个句子。
图2. 基于动态网络的答案标注模型
由于问句的焦点词对于寻找答案至关重要,然而相较于其他词语,焦点词往往很少出现在真正的答案片段中。这就导致了在使用关注机制时,如果使用和其它词相同的计算方法,会导致焦点词获得相较于其他非焦点词更低的关注值。将首先通过(1)式判断问句中每个词语是否为焦点词,其中 w c ∈ R 1 × d 、 b c ∈ R 为参数, σ 为sigmoid函数, p t 表示问句中第t个词为问焦点词的概率。 p t ≥ 0.5 被视为焦点词,否则将被视为非焦点词,
p t = σ ( w c u t Q + b c ) (1)
对于阅读材料中的每个词语,为了准确判断其是否为答案内容,需要在通过语义编码后获得的 u ¯ t P 基础上,进一步通过动态网络和关注机制融合问句信息。
首先将通过(2)式计算阅读材料与焦点词的关注值 Att ( u ¯ j P , u i Q F ) ,与非焦点词的关注值 Att ( u ¯ j P , u i Q N ) 则通过(3)式计算,其中 W 1 F , W 1 N ∈ R k × 2 d , W 2 F , W 2 N ∈ R k × 4 d 为参数。
A i j F = Att ( u ¯ j P , u i Q F ) = ReLU ( W 1 F u i Q F ) T ∗ ReLU ( W 2 F u ¯ j P ) (2)
A i j N = Att ( u ¯ j P , u i Q N ) = ReLU ( W 1 N u i Q N ) T ∗ ReLU ( W 2 N u ¯ j P ) (3)
然后通过(4)和(5)式得到融合焦点词语义表示 u ¯ t P F ,通过(6)和(7)得到融合非焦点词信息后的 u ¯ t P N ,其中 m 1 和 m 2 分别为问句中焦点词和非焦点词的个数。 A m 1 + 1 j F = Att ( u ¯ j P , u ∅ Q F ) , A m 2 + 1 j N = Att ( u ¯ j P , u ∅ Q N ) ,其中 u ∅ Q F , u ∅ Q N ∈ R 2 d 为参数。如果 u ¯ j P 与问句中所有焦点词或所有非焦点词都无关, u ¯ j P 将更多关注 u ∅ Q F 和 u ∅ Q N 。 [ u ¯ t P F , u ¯ t P N ] 将被送入BiLSTMA得到融合问句信息语义表示 u ¯ ¯ t P = [ u → ¯ ¯ t P , u ← ¯ ¯ t P ] ∈ R 2 d
a j F = softmax ( A : j F ) (4)
u ¯ t P F = ∑ i = 1 m 1 + 1 a i t F ∗ u i Q F (5)
a j N = softmax ( A : j N ) (6)
u ¯ t P N = ∑ i = 1 m 2 + 1 a i t N ∗ u i Q N (7)
接着在得到 u ¯ ¯ t P 的基础上,将通过self-attention对整个阅读材料中的内容进行进一步融合得到 u ^ t P ∈ R 2 d ,计算过程如(8)式所示。 u ^ t P 将被送入BiLSTMA得到 u ˜ t P = [ u → ˜ t P , u ← ˜ t P ] ∈ R 2 d 。答案标注模型将根据 u ˜ t P 进行答案标注。
S A i j P = ReLU ( W P u ^ i P ) T ∗ ReLU ( W P u ^ j P )
a j P = softmax ( S A : j P )
u ^ t P = ∑ i = 1 n a i t P ∗ u ^ i P (8)
考虑到词语的答案标注前后依赖,将采用CRF进行答案标注。首先 u ^ t P 通过(9)得到每个词属于 { B , I , O } 的概率 P t ∈ R 3 , | P t | = 1 , W P ∈ R 3 × d 为参数。
P t = softmax ( W P u ^ t P ) (9)
然后通过使得(10)式最大对各个参数进行求解,其中L表示训练数据中阅读材料P和问题Q对应的答案, L ( P , Q ) 则表示他们所有可能的答案集合。 L t 表示阅读材料中第t个词语对应的类别,M为转移概率矩阵, M i j 表示类别i到类别j的转移概率。
log P ( L | P , Q ) = S ( L , P , Q ) − log ( ∑ l ∈ L ( P , Q ) e S ( l , P , Q ) )
S ( L , P , Q ) = ∑ t = 0 n M L t L t + 1 + ∑ t = 0 n P t , L t (10)
由于模型结构受焦点词识别结果的影响,无法使用传统的梯度下降/上升算法求解,因此使用强化学习方法,对(11)式对应的期望值进行优化,实现参数的求解。其中C表示Q的焦点词识别结果, C = [ c 1 , c 2 , ⋯ , c n ] , c i = { 0 , 1 } , P ( C | Q ) = ∏ t p t , θ 表示模型的所有参数。对(11)的梯度计算结果如(12)式所示,其中 L ′ 表示基于焦点词识别结果C进行的答案标注结果。 R ( L , L ′ | C ) 为计算结果 L ′ 对应的奖励,计算过程为(13)式所示。
J ( θ ) = − E C ~ P ( C | Q ) ( log P ( L | P , Q , C ) ) ) (11)
∇ θ J ( θ ) = − E C ~ P ( C | Q ) [ log P ( L | P , Q , C ) ∇ θ log P ( C | Q ) + ∇ θ log P ( L | P , Q , C ) ] ≈ − E C ~ P ( C | Q ) [ R ( L , L ′ | C ) ∇ θ log P ( C | Q ) + ∇ θ log P ( L | P , Q , C ) ] (12)
R ( L , L ′ | C ) = { 2 , if L = = L ′ f 1 ( L , L ′ ) , else if L ∪ L ′ ! = ∅ − 1 , else (13)
模型的训练过程如下所示:
由于当前的公开数据集无法直接应用于简答题答案标注,论文自行构建了训练和测试数据集。数据来源于多个英文新闻网站关于在政治、经济、军事等1000个新闻片段,并人工为每个片段标注了3个问题和和对应的答案。数据集划分及答案的个数分布如表1所示。对于结果采用EM和F1作为评价标准。
训练数据集 | 测试数据集 | |
---|---|---|
阅读材料个数 | 800 | 200 |
问题个数 | 2400 | 600 |
2~3个答案的问题数 | 1153 | 311 |
4~5个答案的问题数 | 952 | 256 |
6个及以上答案的问题数 | 285 | 33 |
表1. 数据集概要
参与对比的方法包括DCN [
F1 | EM | |
---|---|---|
DCN | 74.9 | 65.1 |
BiDAF | 75.3 | 65.9 |
R-NET | 76.5 | 66.8 |
提出的基于动态网络的方法 | 78.9 | 68.4 |
表2. 实验结果对比
论文于R-NET的不同之处主要在于在对阅读材料进行语义编码,以及在焦点词识别两个方面。为了证明方法的有效性,针对这两个环节进行了消融实验。在不进行焦点词识别时,采用了传统的梯度下降算法进行模型求解。实验结果如表3所示。实验结果表明两个方面的举措都能够有效提升模型的效果。
F1 | EM | |
---|---|---|
去除句子信息编码 | 78.4 | 67.9 |
去除焦点词识别部分 | 76.8 | 67.1 |
表3. 消融实验结果
在阅读理解中,简答题的答案往往有多个,论文针对简答题答案标注方法开展研究,提出了基于动态网络的简答题答案标注方法,在现有阅读理解问答模型框架的基础上,从答案标注、阅读材料语义建模、问句内容解析方面进行了改进。识别效果取得了较大的提升。
由于简答题的答案形式多种多样,内容有长有段,有些答案则是阅读材料中内容的总结。目前由于训练语料规模有限,答案的长度也都比较短,后续将进一步扩充语料库,针对多样化的答案抽取生成方法开展研究。
感谢安徽省高校自然科学研究重点项目“向简答题的阅读理解问答关键技术研究”No. KJ2019A0064,安徽工业大学校青年科学基金项目“跨语言话题发现与摘要方法研究”,No. QZ201717资助。
洪旭东,严 梅,莫媛媛. 基于动态网络的简答题答案标注方法Answer Annotation for Short-Answer Questions Based on Dynamic Network[J]. 计算机科学与应用, 2022, 12(09): 2217-2224. https://doi.org/10.12677/CSA.2022.129225
https://doi.org/10.3115/v1/D14-1162
https://doi.org/10.3115/v1/D14-1181
https://doi.org/10.18653/v1/P17-1171
https://doi.org/10.18653/v1/K17-1028
https://doi.org/10.1162/neco.1997.9.8.1735
https://doi.org/10.18653/v1/P17-1020
https://doi.org/10.3115/v1/D14-1179
https://doi.org/10.18653/v1/P17-1018
https://doi.org/10.18653/v1/P17-1055
https://doi.org/10.18653/v1/D16-1264