QANET Combining Local Convolution With Global Self-Attention For Reading Comprehension
Abstract现在的机器阅读理解的模型都是基于循环神经网络加上Attention机制。尽管这种模型获得了很大的成功,但是因为使用了循环的结构导致训练和预测速度较慢。本文提出了不使用循环神经网络的新结构:encoder部分使用卷积和self-attention,卷积用来提取局部信息,self-att
...