哪些网站适合做外贸网站推广如何推广app更高效
目录
- 基础知识
- 知识图谱补全概念
- 性能指标
- 一、翻译模型的知识图谱补全
- 1.TransE
- 2.TransH
- 3.RotatE
- 二、张量分解的知识补全
- 1.RESCAL
- 2.ComplEx
- 三、神经网络的知识图谱补全
- 1.卷积神经网络CNN(一般用于二维图像处理)
- ConvE
- 2.循环神经网络RNN
- 3.图神经网络GNN
- 1)GCN
- 2)R-GCN
- 3)TransGCN
- 四、新型知识图谱补全(比较难)
- 1.胶囊网络的知识图谱补全(不太懂)
- 2.元学习的知识图谱补全(少样本、冷启动)
- 3.语言模型的知识补全(没看,不会)
基础知识
三元组(实体,关系,实体)(h,r,t)例如(河南,位于,中国)是一个完整的三元组
知识图谱补全概念
相当于先给你训练集(一堆完整的三元组)让你训练你的模型,优化里面参数,然后用验证集(一般是完整的三元组)让你稍微修改下,避免过拟合的情况。最后测试集(不完整的训练集,要么少 r ,要么少 t ),看你能不能输出好的结果(好的性能)。
比如测试集是(h , r , ?)你给出的不是确定的 t ,而是一串 t ,按照可能性大小排列。
正确答案是 西瓜 ,你的系统给出的答案是(桃子,苹果,西瓜,…)这种的
性能指标
Mean Rank (MR)平均排名
对于每个测试三元组 (h, r, t),计算模型预测的正确实体在所有候选实体中的排名,然后取所有测试三元组的平均值。
Hits@K:前K命中率
定义:对于每个测试三元组 (h, r, t),如果正确实体出现在模型预测的前K个候选实体中,则计为命中。Hits@K 表示命中次数占总测试三元组的比例。
Mean Reciprocal Rank (MRR):平均倒数排名
定义:计算每个测试三元组的正确实体排名的倒数,然后取所有测试三元组的平均值。
知识图谱补全常用方法:
一、翻译模型的知识图谱补全
1.TransE
将三元组中(h,r,t)中实体与关系转化为向量,嵌入连续的距离空间中。不断修改实体与关系转化的向量,将正确的三元组h+r和t的值接近,错误的三元组h+r和t的值差距变大。从而判断三元组是否成立。
最基础的 h+r≈t。
缺点:不能应对一对多,多对一的关系
2.TransH
假设一个超平面,每个关系 r对应一个特定的超平面,头实体 h 和尾实体 t 需要在该超平面上进行投影。hr+r≈tr
特点:可以应对一对多,多对一的关系。但是计算开销大,无法捕捉更复杂的语义信息。
3.RotatE
每个关系r都是不同的旋转角度,h通过旋转特定角度(r)与t重合,则三元组正确。
特点:可以应对多对多关系,可以应对对称性、反演性和组合性等复杂关系。但是计算复杂度较高且不易解释。
二、张量分解的知识补全
简单理解为将三元组转化为高阶张量,实体和关系转化为低阶张量,如果低阶张量的计算结果等于某种特定高阶张量,则三元组成立,反之则不成立。
1.RESCAL
三元组 (h,r,t)表示为矩阵乘法的形式,假设头实体 h 和尾实体 t 的向量表示通过关系 r 的矩阵变换可以得到1。
特点:可以处理多对多关系,可以处理复杂的知识图谱。但是随着关系增多,计算量变大,表示的关系更难直观理解。
2.ComplEx
将实体和关系表示为复数向量,ComplEx 定义一个评分函数来判断该三元组是否成立。
如果评分值较高,则认为三元组 (h,r,t)(h,r,t) 可能成立。
如果评分值较低,则认为三元组可能不成立。
特点:可以实现对称性、反演性和组合性等复杂关系,参数效率高。但是计算成本高,表达不如实数空间直观。
三、神经网络的知识图谱补全
1.卷积神经网络CNN(一般用于二维图像处理)
不同的卷积神经网络将三元组进行不同的拆分重组为二维数组进行卷积特征提取,最后得出三元组是否正确。
ConvE
实体和关系的嵌入表示输入到卷积层中,提取局部特征并生成预测结果,从而有效地捕捉实体和关系之间的复杂交互模式。
将h和r嵌入向量拼成一个二维矩阵,全连接层计算所有可能尾实体 t 的得分,选择得分最高的作为预测结果。
特点:卷积神经网络可以学习到实体和关系的高维特征表示,在处理复杂的实体和关系类型、推理方面具有优势。但是,卷积神经网络在知识图谱数据的稀疏性和长尾实体、关系的问题,而且在处理图结构数据时会受到空间局部性限制。
2.循环神经网络RNN
循环神经网络适用于处理一维数据,比如文字、自然语言处理、路径信息等。不太适合知识图谱补全的任务,因此循环神经网络用的不多。
3.图神经网络GNN
适合处理稀疏矩阵或者节点之间关系,突破了卷积神经网络的局限性。
1)GCN
通过消息传递机制聚合节点的邻居信息。每个节点从其邻居节点接收信息,然后节点根据接收到的信息更新自身的特征表示。每个节点的特征是其邻居节点特征的加权平均值,经过线性变换和非线性激活后得到。
特点:过消息传递机制,GCN 能够有效捕获节点的邻居信息,并将其传播到整个图中。能够直接处理图结构数据,适用于节点分类、链接预测、图分类等多种任务。可以扩展到大规模图数据,并且可以通过变体模型(如 GAT、GraphSAGE)进一步提升性能。但是性能高度依赖于图的结构信息,训练过程可能涉及稀疏矩阵操作,计算成本较高,层数过多,节点特征可能会因为过度传播而变得相似,导致“过平滑”问题。
2)R-GCN
基于GCN,将不同的关系使用不同的计算矩阵,捕捉不同类型关系的特征,聚合不同类型邻居的信息,生成节点的新特征。
特点:为每种关系类型分配独立的权重矩阵,从而捕捉不同类型关系的特征。通过聚合来自不同类型邻居的信息,能够有效地传播特征并更新节点表示。可以通过变体模型(如注意力机制)进一步提升性能。但是每种关系都需要独立的权重矩阵,增加计算的工作量。如果计算稀疏矩阵,成本较高。
3)TransGCN
结合了Trans系列模型和图神经网络。先使用Trans模型将实体与关系生成向量,再使用GCN将消息传递周围节点。每个节点会从它的邻居节点那里获取信息,并更新自己的特征。最后计算评分函数,如果头实体加关系接近尾实体,得分就越高。
特点:强大的关系建模能力、高效的图结构建模、可扩展性强。但是计算复杂度较高、参数数量增加、训练难度较大。
下面图不重要,主要是为了凑点图好看,理解模型大概思路就行,谁闲着没事天天一点点把模型全看懂?
四、新型知识图谱补全(比较难)
1.胶囊网络的知识图谱补全(不太懂)
每个实体,关系都加入了新的属性、信息(叫胶囊),然后通过动态路由,通过GCN这种传递周围节点最后评估三年元组是否成立。
2.元学习的知识图谱补全(少样本、冷启动)
类似于提前用相关但不直接的知识训练,然后用少量或者不用直接数据训练,直接进行判断。