版权说明 操作指南
首页 > 成果 > 详情

基于增强序列表示注意力网络的中文隐式篇章关系识别

认领
导出
Link by 中国知网学术期刊 Link by 万方学术期刊
反馈
分享
QQ微信 微博
成果类型:
期刊论文
作者:
刘洪;陈增照;张婧;陈荣;鲁圆圆
作者机构:
[刘洪; 陈增照] 华中师范大学教育大数据应用技术国家工程实验室
[鲁圆圆; 陈荣; 张婧] 华中师范大学国家数字化学习工程技术研究中心
语种:
中文
关键词:
隐式篇章关系;注意力;循环神经网络;局部卷积;序列表示
关键词(英文):
Implicit discourse relationship;Attention;Recurrent neural network Local convolution;Sequence representation
期刊:
计算机应用与软件
ISSN:
1000-386X
年:
2022
卷:
39
期:
6
页码:
162-168+202
基金类别:
2017YFB1401300:国家重点研发计划 CCNU19ZN002:华中师范大学中央高校基本科研业务费人工智能与智慧教育专项
机构署名:
本校为第一机构
院系归属:
国家数字化学习工程技术研究中心
摘要:
中文隐式篇章关系识别通过分析论元之间的语义结构从而得到两个论元的逻辑关系,而论元的序列信息对于抽取这种语义结构至关重要.现有研究通过论元层级的交互来提升序列表达,但这种方式忽略了原始论元中的字、词粒度的序列信息.因此,通过一种循环卷积模块(RC-Encoder)来增强注意力网络架构(TLA-En-coder)的序列表达.RC-Encoder采用Bi-LSTM来提取初始论元的序列特征,并通过一种局部卷积(Local Convolu-tion)过滤出重要的序列信息.将TLA-Encoder的编码作为一种外部记忆,引入一种外部注意力机制反复阅读RC-Encoder的序列编码从而生成最终的论元表示.在公开数据集(HIT-CDTB)上展开实验,结果表明该模型...
摘要(英文):
The Chinese implicit discourse relationship recognition analyzes the semantic structure between the arguments to obtain the logical relationship between the two arguments.The sequence information of the arguments is very important to extract the semantic structure.The existing research improves the sequence expression through argument-level interaction.However,it ignores the sequence information of word granularity in the original argument.This paper used a recurrent convolution encoder(RC-Encoder)to enhance the sequence expression of TLA-Encoder.RC-Encoder adopted Bi-LSTM to extract the seque...

反馈

验证码:
看不清楚,换一个
确定
取消

成果认领

标题:
用户 作者 通讯作者
请选择
请选择
确定
取消

提示

该栏目需要登录且有访问权限才可以访问

如果您有访问权限,请直接 登录访问

如果您没有访问权限,请联系管理员申请开通

管理员联系邮箱:yun@hnwdkj.com