标签:attention based Network Sentiment Graph Attention aspect aspects
[标题]
《Relational Graph Attention Network for Aspect-based Sentiment Analysis》
[代码地址]
https://github.com/shenwzh3/RGAT-ABSA
目录
一、背景与概览
1.1 相关研究
"great food but the service was dreadful"一句话中,"food"和"service"是aspects,"great"和"dreadful"是opinion words。如何把这两者connect起来,是任务的核心。
1.2 贡献点
- 发现"任务相关的语法结构"能够解决GNN的问题,并提出了一种新的面向aspects的依赖树结构(三步)
- 使用外部的parser得到dependency tree
- 把一个目标aspect作为root
- 对树进行修剪,只保留与aspects有直接依赖关系的边
- 提出GAT用于编码dependency tree
1.3 相关工作
- attention mechanism
“So delicious was the noodles but terrible vegetables”,对于这样的一句话,terrible这个opinion words会比delicious更接近noodles这个aspects,进而获得更高的权重、产生错误。 - hand-crafted syntactic rules
受到各种限制 - Dependency-based parse trees、
[在给定parse trees的情况下],利用递归神经网络对整个依赖树从叶到根进行编码,或者计算内部节点之间的句子用于attention weight decay。 - GNN
使用GNN来从依赖树中学习到表示有三个缺点:1. 表明aspects和opinion words之间的依赖关系被忽略了;2. 根据经验,只有解析树的一小部分与此任务有关,没有必要对整个树进行编码 3. 编码过程是依赖于树的,这使得在优化时批处理操作不方便!!!
二、模型
2.1 attention还是syntax
如上图所示,基于attention的序列模型,在(b)中错误的把"like"这个介词赋予了很高的权重;在©中错误的把"dried but"赋予了很高的权重。而如果直接基于句子的语法结构,问题则得到解决。
2.2 以aspect为方向的依赖树
大致分为四个步骤:
- 使用外部dependency parser得到dependency tree
- 把target aspect作为root
- 保留所有原先与root这个词(也有可能是一个span,如上图的[noise level])相连的边
- 舍弃所有原先与root不相连的边
两个不懂的地方: - 转化过的tree中,"the"和"unbearable"对于"noise level"的方向
- "noise level"对于"was"的distance
两个注意的地方: - 对于多个aspect的句子,单独建树
- distance=∞ if distance > 4
2.3 GAT(Graph Attention Network)
2.4 RGAT(Relational Graph Attention Network)
2.5 train object
三、实验与评估
四、结论与个人总结
五、个人参考
标签:attention,based,Network,Sentiment,Graph,Attention,aspect,aspects 来源: https://blog.csdn.net/jokerxsy/article/details/113742351
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。