一种点拍网的基于图神经网络GAT的专利估值方法及系统

著录项
  • CN202010581349.4
  • 20200623
  • CN111724072A
  • 20200929
  • 山东佳联电子商务有限公司;点拍科技有限公司
  • 陈伟;李维新;李丽华
  • G06Q10/06
  • G06Q10/06 G06Q50/18 G06N3/04 G06N3/08

  • 山东省济南市历下区高新区新泺大街1299号鑫盛大厦1号楼19层B区
  • 山东(37)
  • 20200120 CN2020100657678
  • 济南金迪知识产权代理有限公司
  • 王楠
摘要
本发明提供一种点拍网的基于图神经网络GAT的专利估值方法及系统,涉及评估方法领域,使用注意力图神经网络GAT对训练数据集中的专利属性参数的权值进行训练,将专利估值模型抽象为知识图谱Graph,将专利价值的评估值作为图的顶点Root,将与专利估值相关的属性参数作为Root的邻居节点Node,Root与Node之间的边代表参数与评估值之间的权重系数W;使用GAT训练权重系数W,训练好W后,输入测试数据集,使用测试数据集中各属性参数节点的值乘以对应的权重即可得到测试数据集中每个专利数据的评估值,利用大数据获得权重值,整体评估并确认专利的价值,使得专利评估的价值更加准确。
权利要求

1.一种点拍网的基于图神经网络GAT的专利估值方法,其特征在于,包括步骤如下;

获取专利训练数据集,待评估专利的基本信息参数包括专利申请号、标题、行业分类、第一发明人、被引用专利数量、引用专利数量、预估到期日、当前申请/专利权人、原始申请/专利权人、3年内被引用次数、5年内被引用次数、法律状态、简单法律状态;

每个专利数据的属性参数包括:专利稳定性-新颖性,专利稳定性-创造性,专利稳定性-撰写质量,专利稳定性-保护范围,同族专利,依赖性,技术-技术原创性,技术-技术生命周期,技术-不可替代性,经济-市场占有率,经济-政策导向,经济-市场需求;

使用注意力图神经网络GAT对专利属性参数的权值进行训练,将专利估值模型抽象为知识图谱Graph,将专利价值的评估值作为图的顶点Root,将与专利估值相关的属性参数作为Root的邻居节点Node,Root与Node之间的边代表参数与评估值之间的权重系数W;使用GAT训练权重系数W,训练好W后,输入测试数据集,使用测试数据集中各属性参数节点的值乘以对应的权重即可得到测试数据集中每个专利数据的评估值,评估值V=H[H1,H2,H3…Hn]*W[W1,W2,W3…Wn],n为属性参数的个数。

2.根据权利要求1所述的点拍网的基于图神经网络GAT的专利估值方法,其特征在于,使用GAT训练权重系数W的训练方法包括:

GAT的计算分为两步走:

第一步:对于顶点Root,逐个计算它的邻居节点和它自己之间的相似系数,如公式(1),通过公式(1)求得相似系数:

eij为第i个节点与第j个节点的相似系数,i,j为节点序号,Whi、Whj为图中的节点,a()为映射函数,把拼接后的高维特征映射到一个实数上;

首先共享参数W的线性映射对于顶点的特征进行了增维,对于顶点Root的变换后的特征进行了拼接;最后a()把拼接后的高维特征映射到一个实数上;

第二步:用Softmax进行权重归一化;

有了相似系数,使用softmax函数对相关系数eij均一化处理:

αij即为注意力系数,eij为相似系数,k为与i节点相邻的节点的序号;Ni为与i节点相邻的节点的个数;

获得均一化的注意力系数αij,它将用来计算与之相关的特征的线性组合:

σ是激活函数,是hj向量的权重,为attention机制计算时的中间数据;

通过上述方法,将标注的专利训练数据集中的数据进行逐一计算,最终通过求平均的方式,可得到专利模型中各属性参数的权重值。

3.一种点拍网的基于图神经网络GAT的专利估值系统,包括评估模块和数据库;

数据库用于存储各种专利信息,形成专利训练数据集和测试数据集;

评估模块用于对专利进行估值评估,基于图神经网络对训练数据集中的专利属性参数的权值进行训练,输入测试数据集,使用测试数据集中各属性参数节点的值乘以对应的权重即可得到测试数据集中每个专利数据的评估值,将评估完的专利存储于数据库中。

说明书
技术领域

本发明涉及一种点拍网的基于图神经网络GAT的专利估值方法及系统,属于评估方法技术领域。

专利价值分析指标体系是一套能够反映所评价专利价值的总体特征,并且具有内在联系、起互补作用的指标体,它是专利在交易中的内在价值的客观反映。一个合理、完善的指标体系,是对专利价值进行评估与分析的先决条件。

点拍网目前现有的专利价值评估体系中,专利估值模型各参数的权重比值是靠人的经验分析得到的,针对某个特定领域比较准确但是不适用于其他领域,导致专利的真实价值和评估价值差别过大。另外模型参数比值无法随数据积累、政策环境影响等自动调整,只能靠人工进行调整,效率比较低。

针对现有技术的不足,本发明提供一种点拍网的基于图神经网络GAT的专利估值方法和系统,使用GAT进行估值模型各参数权重的训练,解决了解决现有专利评估不全面的问题。

本发明的技术方案如下:

一种点拍网的基于图神经网络GAT的专利估值方法,包括步骤如下;

获取专利训练数据集,待评估专利的基本信息参数包括专利申请号、标题、行业分类、第一发明人、被引用专利数量、引用专利数量、预估到期日、当前申请/专利权人、原始申请/专利权人、3年内被引用次数、5年内被引用次数、法律状态、简单法律状态;

每个专利数据的属性参数包括:专利稳定性-新颖性,专利稳定性-创造性,专利稳定性-撰写质量,专利稳定性-保护范围,同族专利,依赖性,技术-技术原创性,技术-技术生命周期,技术-不可替代性,经济-市场占有率,经济-政策导向,经济-市场需求;

使用注意力图神经网络GAT对专利属性参数的权值进行训练,将专利估值模型抽象为知识图谱Graph,将专利价值的评估值作为图的顶点Root,将与专利估值相关的属性参数作为Root的邻居节点Node,Root与Node之间的边代表参数与评估值之间的权重系数W;使用GAT训练权重系数W,训练好W后,输入测试数据集,使用测试数据集中各属性参数节点的值乘以对应的权重即可得到测试数据集中每个专利数据的评估值,评估值V=H[H1,H2,H3…Hn]*W[W1,W2,W3…Wn],n为属性参数的个数。

图注意力网络(GAT)是一种基于空间的图卷积网络,它的注意机制是在聚合特征信息时,将注意机制用于确定节点邻域的权重。GAT利用自我注意力层来解决基于图卷积的短板。通过堆叠一些层,这些层的节点能够参与其邻居节点的特征,可以为该节点的不同邻居指定不同的权重,此过程不需要任何计算密集的矩阵操作(例如转置)或者事先预知图的结构。

优选的,使用GAT训练权重系数W的训练方法包括:

GAT的计算分为两步走:

第一步:对于顶点Root,逐个计算它的邻居节点和它自己之间的相似系数,如公式(1),通过公式(1)求得相似系数:

eij为第i个节点与第j个节点的相似系数,i,j为节点序号,Whi、Whj为图中的节点,a()为映射函数,把拼接后的高维特征映射到一个实数上;

首先共享参数W的线性映射对于顶点的特征进行了增维,对于顶点Root的变换后的特征进行了拼接(concatenate);最后a()把拼接后的高维特征映射到一个实数上;

第二步:用Softmax进行权重归一化;

有了相似系数,使用softmax函数对相关系数eij均一化处理:

αij即为注意力系数,eij为相似系数,k为与i节点相邻的节点的序号;里面的Ni为与i节点相邻的节点的个数;

获得均一化的注意力系数αij,它将用来计算与之相关的特征的线性组合:

σ是激活函数,是hj向量的权重,为attention机制计算时的中间数据;

通过上述方法,将标注的专利训练数据集中的数据进行逐一计算,最终通过求平均的方式,可得到专利模型中各属性参数的权重值。

一种点拍网的基于图神经网络GAT的专利估值系统,包括评估模块和数据库;

数据库用于存储各种专利信息,形成专利训练数据集和测试数据集;

评估模块用于对专利进行估值评估,基于图神经网络对训练数据集中的专利属性参数的权值进行训练,输入测试数据集,使用测试数据集中各属性参数节点的值乘以对应的权重即可得到测试数据集中每个专利数据的评估值,将评估完的专利存储于数据库中。

本发明的有益效果在于:

本发明提供了一种具有专利价值评估方法及平台。具备以下有益效果:本发明能够对待估专利的所处领域的过去和将来的变化趋势以及待估专利在该行业所占比重,以及现有行业内的专利分析,整体评估并确认专利的价值,使得专利评估的价值更加准确。

图1为专利估值模型示意图;

图2为注意力系数计算方法示意图;

图3均一化注意力因子计算图;

图4为整个过程的数据流转图。

下面通过实施例并结合附图对本发明做进一步说明,但不限于此。

实施例1:

一种点拍网的基于图神经网络GAT的专利估值方法,包括步骤如下;

获取专利训练数据集(1000条),待评估专利的基本信息参数包括专利申请号、标题、行业分类、第一发明人、被引用专利数量、引用专利数量、预估到期日、当前申请/专利权人、原始申请/专利权人、3年内被引用次数、5年内被引用次数、法律状态、简单法律状态;

每个专利数据的属性参数包括:专利稳定性-新颖性,专利稳定性-创造性,专利稳定性-撰写质量,专利稳定性-保护范围,同族专利,依赖性,技术-技术原创性,技术-技术生命周期,技术-不可替代性,经济-市场占有率,经济-政策导向,经济-市场需求;

使用注意力图神经网络GAT对专利属性参数的权值进行训练,将专利估值模型抽象为知识图谱Graph,将专利价值的评估值作为图的顶点Root,将与专利估值相关的属性参数作为Root的邻居节点Node,Root与Node之间的边代表参数与评估值之间的权重系数W;使用GAT训练权重系数W,训练好W后,输入测试数据集,使用测试数据集中各属性参数节点的值乘以对应的权重即可得到测试数据集中每个专利数据的评估值,评估值V=H[H1,H2,H3…Hn]*W[W1,W2,W3…Wn],n为属性参数的个数。

图注意力网络(GAT)是一种基于空间的图卷积网络,它的注意机制是在聚合特征信息时,将注意机制用于确定节点邻域的权重。GAT利用自我注意力层来解决基于图卷积的短板。通过堆叠一些层,这些层的节点能够参与其邻居节点的特征,可以为该节点的不同邻居指定不同的权重,此过程不需要任何计算密集的矩阵操作(例如转置)或者事先预知图的结构。

优选的,使用GAT训练权重系数W的训练方法包括:

GAT的计算分为两步走:

第一步:对于顶点Root,逐个计算它的邻居节点和它自己之间的相似系数,如公式(1),通过公式(1)求得相似系数:

eij为第i个节点与第j个节点的相似系数,i,j为节点序号,Whi、Whj为图中的节点,a()为映射函数,把拼接后的高维特征映射到一个实数上;

首先共享参数W的线性映射对于顶点的特征进行了增维,对于顶点Root的变换后的特征进行了拼接(concatenate);最后a()把拼接后的高维特征映射到一个实数上;

第二步:用Softmax进行权重归一化;

有了相似系数,使用softmax函数对相关系数eij均一化处理:

αij即为注意力系数,eij为相似系数,k为与i节点相邻的节点的序号;里面的Ni为与i节点相邻的节点的个数;

获得均一化的注意力系数αij,它将用来计算与之相关的特征的线性组合:

σ是激活函数,是hj向量的权重,为attention机制计算时的中间数据;

通过上述方法,将标注的专利训练数据集中的数据进行逐一计算,最终通过求平均的方式,可得到专利模型中各属性参数的权重值。

整个过程的数据流转图如图4所示:

图4中的hi为专利估值分数,例如81分,所有数据集中标注的专利估值分数向量hi,[81,92,56,73,48,90...80];hjn为专利各属性参数项的权重值,例如hj1=5(百分制,代表此属性参数的权重为5%)。eij为中间值,表示相似系数、通过公式1求得,是一个具体实数,例如9.5。eij经过softmax归一化处理,生成向量αij,例如[aij1=0.05,aij2=0.03...],代表第一个属性参数权重为0.05,第二个属性参数权重为0.03。

标注的专利属性参数分值hjn,模型中涉及专利的参数属性共12项,参数属性包括专利稳定性-新颖性,专利稳定性-创造性,专利稳定性-撰写质量,专利稳定性-保护范围,同族专利,依赖性,技术-技术原创性,技术-技术生命周期,技术-不可替代性,经济-市场占有率,经济-政策导向,经济-市场需求,数据格式如表1所示:

表1专利属性参数分值

字段 分值(每项满分为10分) 专利稳定性-新颖性 10 专利稳定性-创造性 6 专利稳定性-撰写质量 8 专利稳定性-保护范围 9 同族专利 6 依赖性 8 技术-技术原创性 6 技术-技术生命周期 6 技术-不可替代性 3 经济-市场占有率 3 经济-政策导向 6 经济-市场需求 7

表1中属性参数的分值是人为评估的,乘以系数获得得分。而系数是通过上述步骤获得的(训练的)。输出数据集,即label结果数据集,为标注的专利各属性参数权重,如表2所示。

表2各属性参数权重值

通过训练得到专利分值与各属性参数的注意力系数,即专利评分模型中的各属性参数权重。

得到估值模型中各参数的权值比重后,对测试数据集中需要评估的专利,将上述12项参数对应的分数由行业专家进行评估后,乘以权重即可得到该专利对应的分数。

尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

本文发布于:2024-09-24 11:26:01,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/4/68268.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议