版权说明 操作指南
首页 > 成果 > 详情

基于双向LSTM和自注意力机制的中文关系抽取研究

认领
导出
Link by 中国知网学术期刊 Link by 维普学术期刊 Link by 万方学术期刊
反馈
分享
QQ微信 微博
成果类型:
期刊论文
论文标题(英文):
Chinese Relationship Extraction Based on Bidirectional LSTM and Self-attention Mechanism
作者:
刘鉴;张怡;张勇
作者机构:
华中师范大学计算机学院,湖北武汉 430079
[刘鉴; 张勇; 张怡] 华中师范大学
语种:
中文
关键词:
信息处理;关系抽取;自注意力机制;多实例选择;双向LSTM
关键词(英文):
information processing;relationship extraction;self-attention mechanism;multiple instance selection;bidirectional LSTM
期刊:
山西大学学报(自然科学版)
ISSN:
0253-2395
年:
2020
卷:
43
期:
1
页码:
8-13
基金类别:
61977032:国家自然科学基金 YB135-39:国家语委十三五科研规划项目 CCNU18TS016:中央高校基本科研业务费专项华中师范大学项目 2017091:湖北省高等学校省级教学研究项目 2017038:华中师范大学教学研究项目
机构署名:
本校为第一机构
院系归属:
计算机学院
摘要:
在采取远程监督方法构建大规模的关系抽取语料库时,一般会不可避免地引入大量冗余和噪声,从而影响关系抽取的效果。为此,文章提出基于双向长短期记忆网络(LSTM)和结构化自注意力机制的方法来缓解训练数据的噪声问题。结合中文语言的特点,在输入层采用结合义原训练的词向量作为输入,通过双向LSTM来抽取句子的语义特征,利用结构化的自注意力机制来学习面对实体对的上下文表示,通过多实例选择的方法来选择有效的实例,从而尽量避免噪声数据的影响。实验结果表明,文章提出的模型能有效提高实体关系抽取的准确率与召回率,其F1值比加上了注意力机制的CNN与双向LSTM分别提升了4.3%和1.2%。
摘要(英文):
When large-scale relational extraction corpus by distant supervision is built,a lot of redundancy and noise are inevitably introduced,which influences the effect of relational extraction.In order to alleviate this problem,this paper proposes a method based on bidirectional LSTM network and structured selfattention mechanism for Chinese relationship extraction.Combining the characteristics of the Chinese language,we use the vector of Sememes of HowNet as a part of input data,extract the semantic features of the sentence through the bidirectional LSTM,and then employ the structured self-attentio...

反馈

验证码:
看不清楚,换一个
确定
取消

成果认领

标题:
用户 作者 通讯作者
请选择
请选择
确定
取消

提示

该栏目需要登录且有访问权限才可以访问

如果您有访问权限,请直接 登录访问

如果您没有访问权限,请联系管理员申请开通

管理员联系邮箱:yun@hnwdkj.com