中文隐式篇章关系识别通过分析论元之间的语义结构从而得到两个论元的逻辑关系,而论元的序列信息对于抽取这种语义结构至关重要.现有研究通过论元层级的交互来提升序列表达,但这种方式忽略了原始论元中的字、词粒度的序列信息.因此,通过一种循环卷积模块(RC-Encoder)来增强注意力网络架构(TLA-En-coder)的序列表达.RC-Encoder采用Bi-LSTM来提取初始论元的序列特征,并通过一种局部卷积(Local Convolu-tion)过滤出重要的序列信息.将TLA-Encoder的编码作为一种外部记忆,引入一种外部注意力机制反复阅读RC-Encoder的序列编码从而生成最终的论元表示.在公开数据集(HIT-CDTB)上展开实验,结果表明该模型...