基于双层模型的文本摘要生成方法、装置、设备及介质与流程



1.本发明涉及人工智能技术领域,尤其涉及一种基于双层模型的文本摘要生成方法、装置、电子设备及可读存储介质。


背景技术:



2.不同领域存在着大量的业务长文本,例如金融领域的产品介绍文本、司法领域的裁判文书等。由于业务长文本的长文本属性,动辄上千字,长则上万字,对获取其中重要信息产生了巨大的障碍,现有技术通常使用常规的seq2seq模型对其进行文本摘要,有以下缺陷:1、不能够捕获到所有的文本信息,导致生成的摘要覆盖信息不够全面及准确;2、由于直接采用seq2seq模型进行文本生成,随着输入文本信息过多,会造成生成摘要语句不通顺的问题,从而不能准确获取业务长文本中的关键信息,导致生成的摘要不够准确。


技术实现要素:



3.本发明提供一种基于双层模型的文本摘要生成方法、装置、电子设备及可读存储介质,其主要目的在于提高文本摘要生成的准确性。
4.为实现上述目的,本发明提供的一种基于双层模型的文本摘要生成方法,包括:
5.获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合;
6.对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合;
7.利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架;
8.利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。
9.可选地,所述按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合,包括:
10.按照预设的字符粒度对所述业务长文本进行切分,得到切分文本;
11.判断所述切分文本是否满足预设的文本长度;
12.若所述切分文本满足预设的文本长度,则不对所述切分文本做处理,将所述切分文本作为切分句子;
13.若所述切分文本不满足预设的文本长度,则根据所述文本长度对所述切分文本进行切分,得到切分句子;
14.汇总所有的切分句子得到所述切分句子集合。
15.可选地,所述对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合,包括:
16.利用预训练的bert模型对所述切分句子集合中的切分句子进行向量化处理,得到
句子向量集合;
17.利用最大值池化法提取所述句子向量集合中每个句子向量的最大向量,利用平局值池化法提取所述句子向量集合中每个句子向量的平均向量;
18.对所述句子向量集合中每个句子向量的最大向量及平均向量进行加权平均,得到每个句子向量的标准向量,汇总所有的标准向量得到标准向量集合。
19.可选地,所述利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取之前,所述方法还包括:
20.获取预构建的编码解码模型及历史业务长文本集合;
21.对所述历史业务长文本集合中的文本进行切分及向量化处理,得到训练向量集合;
22.利用所述编码解码模型中的编码层对所述训练向量集合中的训练向量进行上下文预测,得到上下文向量;
23.利用所述上下文向量对所述训练向量进行编码,得到中间序列;
24.利用所述编码解码模型中的解码层对所述中间序列进行解码,得到目标向量,利用预设的优化函数计算所述输入向量与所述目标向量的优化值,在所述优化值不满足预设的优化阈值时,调整所述编码解码模型中的模型参数,直至所述优化值满足预设的优化阈值时,得到所述第一摘要抽取模型。
25.可选地,通过下述优化函数计算优化值:
[0026][0027]
其中,l表示优化值,n表示训练向量集合,θ为模型参数,xn表示输入的第n个训练向量,yn表示输出第n个目标向量,p
θ
(yn|xn)表示在模型参数θ时的条件概率。
[0028]
可选地,所述利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架,包括:
[0029]
利用所述第一层摘要抽取模型输出所述标准向量集合中每个标准向量的第一预测序列及对应的预测概率;
[0030]
将所述预测概率大于或等于预设的预测概率的标准向量对应的句子进行拼接,得到所述摘要框架。
[0031]
可选地,所述利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果,包括:
[0032]
利用所述第二层摘要抽取模型的编码层对所述摘要框架进行框架编码,得到编码向量;
[0033]
利用所述第二层摘要抽取模型的解码层对所述编码向量进行解码,得到解码向量,利用预构建的词库字典对所述解码向量进行索引连接,得到摘要抽取结果。
[0034]
为了解决上述问题,本发明还提供一种基于双层模型的文本摘要生成装置,所述装置包括:
[0035]
文本切分模块,用于获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合;
[0036]
向量化处理模块,用于对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合;
[0037]
第一摘要抽取模块,用于利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架;
[0038]
第二摘要抽取模块,用于利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。
[0039]
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
[0040]
存储器,存储至少一个计算机程序;及
[0041]
处理器,执行所述存储器中存储的计算机程序以实现上述所述的基于双层模型的文本摘要生成方法。
[0042]
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于双层模型的文本摘要生成方法。
[0043]
本发明通过预设句子粒度对业务长文本进行切分,得到切分句子集合,可以最大限度地准确切分出最小粒度的句子,提高摘要生成的准确性。同时,利用预构建的第一层摘要抽取模型对标准向量集合进行摘要框架提取,基于句子粒度抽取出业务文本中的关键信息,形成更加准确的摘要框架,再利用预构建的第二层摘要抽取模型对摘要框架进行摘要提取,避免处理过多文本信息,进一步提高了摘要生成的准确率。因此本发明提出的基于双层模型的文本摘要生成方法、装置、电子设备及计算机可读存储介质,可以提高文本摘要生成的准确性。
附图说明
[0044]
图1为本发明一实施例提供的基于双层模型的文本摘要生成方法的流程示意图;
[0045]
图2为本发明一实施例提供的基于双层模型的文本摘要生成装置的功能模块图;
[0046]
图3为本发明一实施例提供的实现所述基于双层模型的文本摘要生成方法的电子设备的结构示意图。
[0047]
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
[0048]
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
[0049]
本发明实施例提供一种基于双层模型的文本摘要生成方法。所述基于双层模型的文本摘要生成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本发明实施例提供的该方法的电子设备中的至少一种。换言之,所述基于双层模型的文本摘要生成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集、云端服务器或云端服务器集等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(contentdelivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云服务器。
[0050]
参照图1所示,为本发明一实施例提供的基于双层模型的文本摘要生成方法的流
程示意图。在本实施例中,所述基于双层模型的文本摘要生成方法包括以下步骤s1-s4:
[0051]
s1、获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合。
[0052]
本发明实施例中,所述业务长文本可以为不同领域记录重要信息的业务长文,这些长文本动辄上千字,长则上万字,对人们获取其中重要信息产生了巨大的障碍,例如金融领域的产品介绍文本、司法领域的裁判文书等。
[0053]
本发明实施例中,所述按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合,包括:
[0054]
按照预设的字符粒度对所述业务长文本进行切分,得到切分文本;
[0055]
判断所述切分文本是否满足预设的文本长度;
[0056]
若所述切分文本满足预设的文本长度,则不对所述切分文本做处理,将所述切分文本作为切分句子;
[0057]
若所述切分文本不满足预设的文本长度,则根据所述文本长度对所述切分文本进行切分,得到切分句子;
[0058]
汇总所有的切分句子得到所述切分句子集合。
[0059]
本发明一可选实施例中,所述预设的字符粒度是指标点符号,包括结束符号(如:“。”,“?”,“!”等)进行分句,若分句后的句子长度小于或等于所述文本长度,则停止分句,否则再按照句子分隔符号(如:“,”,“;”,“《”等)。
[0060]
本发明实施例中,通过对业务长文本按照符号粒度及文本长度进行切分,可以在保留提取摘要框架的效果下,最大限度地切分出最小粒度的句子。
[0061]
s2、对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合。
[0062]
本发明实施例中,所述最大平均处理是一种结合平均值池化和最大值池化的句子向量表示方法,既能提取出每个句子向量中的最大表示形式,也能提取出整个句子向量中的平均表示形式。
[0063]
详细地,所述对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合,包括:
[0064]
利用预训练的bert模型对所述切分句子集合中的切分句子进行向量化处理,得到句子向量集合;
[0065]
利用最大值池化法提取所述句子向量集合中每个句子向量的最大向量,利用平局值池化法提取所述句子向量集合中每个句子向量的平均向量;
[0066]
对所述句子向量集合中每个句子向量的最大向量及平均向量进行加权平均,得到每个句子向量的标准向量,汇总所有的标准向量得到标准向量集合。
[0067]
本发明一可选实施例中,例如,对于某个128维句子向量,最大值池化法会提取句子向量中最大维度的向量a,平局值池化法会计算句子向量中所有维度平均的向量b,通过加权平均(a+b)/2得到标准向量。
[0068]
s3、利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架。
[0069]
本发明实施例中,所述预构建的第一层摘要抽取模型可以为seq2seq模型,所述
seq2seq模型是一种编码解码(encoder

decoder)结构的网络,它的输入是一个序列,输出也是一个序列,encoder中将一个可变长度的向量序列变为固定长度的向量表达,decoder将这个固定长度的向量变成可变长度的目标的向量序列。
[0070]
本发明一可选实施例中,所述利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取之前,所述方法还包括:
[0071]
获取预构建的编码解码模型及历史业务长文本集合;
[0072]
对所述历史业务长文本集合中的文本进行切分及向量化处理,得到训练向量集合;
[0073]
利用所述编码解码模型中的编码层对所述训练向量集合中的训练向量进行上下文预测,得到上下文向量;
[0074]
利用所述上下文向量对所述训练向量进行编码,得到中间序列;
[0075]
利用所述编码解码模型中的解码层对所述中间序列进行解码,得到目标向量,利用预设的优化函数计算所述输入向量与所述目标向量的优化值,在所述优化值不满足预设的优化阈值时,调整所述编码解码模型中的模型参数,直至所述优化值满足预设的优化阈值时,得到所述第一摘要抽取模型。
[0076]
详细地,通过下述优化函数计算优化值:
[0077][0078]
其中,l表示优化值,n表示训练向量集合,θ为模型参数,xn表示输入的第n个训练向量,yn表示输出第n个目标向量,p
θ
(yn|xn)表示在模型参数θ时的条件概率。
[0079]
本发明一可选实施例中,所述编码解码模型中的编码层及解码层可以为rnn网络、lstm网络等,编码层将长度可变的输入的训练向量序列转换成形状固定的上下文变量c,并且将输入序列的信息在该上下文变量中进行编码,通过解码器输出目标向量。
[0080]
进一步地,所述利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架,包括:
[0081]
利用所述第一层摘要抽取模型输出所述标准向量集合中每个标准向量的第一预测序列及对应的预测概率;
[0082]
将所述预测概率大于或等于预设的预测概率的标准向量对应的句子进行拼接,得到所述摘要框架。
[0083]
本发明一可选实施例中,将切分出的所有标准向量输入到第一层摘要抽取模型seq2seq模型中,输出每个句子的第一预测序列及对应的预测概率,将预测概率大于或等于预设的预测概率的句子标记为1,将预测概率小于预设的预测概率的句子标记为0,0代表该句子对最终的摘要不会有贡献,不会参与到第二层的seq2seq模型训练,1代表该句子会参与第二层的seq2seq模型训练。相较于常见的抽取模型,第一层摘要抽取模型seq2seq能够有效的利用输出标签信息,即当前句子对最终摘要有没有贡献,不仅取决当前句子的内容,也与上一条句子是否对摘要有贡献有关,提高了摘要提取的准确度。
[0084]
s4、利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。
[0085]
本发明实施例中,所述预构建的第二层摘要抽取模型也可以为训练完成的seq2seq模型。
[0086]
详细地,所述利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果,包括:
[0087]
利用所述第二层摘要抽取模型的编码层对所述摘要框架进行框架编码,得到编码向量;
[0088]
利用所述第二层摘要抽取模型的解码层对所述编码向量进行解码,得到解码向量,利用预构建的词库字典对所述解码向量进行索引连接,得到摘要抽取结果。
[0089]
本发明一可选实施例中,在第二层摘要抽取模型的encode层对摘要框架进行编码,得到编码向量,在decode层对encode完的向量按照step进行解码,每一个step会形成一个总词库长度的向量,该向量中最大值的索引位置代表该处字符在词库字典(根据历史业务长文本集合构建,例如,“a
”→
1、“b
”→
2、“a
”→3…
)中的位置,按照顺序依次解码完,直至解码出

end’符号,并按照顺序连接所有的字符,即为解码出的摘要抽取结果。
[0090]
本发明通过预设句子粒度对业务长文本进行切分,得到切分句子集合,可以最大限度地准确切分出最小粒度的句子,提高摘要生成的准确性。同时,利用预构建的第一层摘要抽取模型对标准向量集合进行摘要框架提取,基于句子粒度抽取出业务文本中的关键信息,形成更加准确的摘要框架,再利用预构建的第二层摘要抽取模型对摘要框架进行摘要提取,避免处理过多文本信息,进一步提高了摘要生成的准确率。因此本发明提出的基于双层模型的文本摘要生成方法,可以提高文本摘要生成的准确性。
[0091]
如图2所示,是本发明一实施例提供的基于双层模型的文本摘要生成装置的功能模块图。
[0092]
本发明所述基于双层模型的文本摘要生成装置100可以安装于电子设备中。根据实现的功能,所述基于双层模型的文本摘要生成装置100可以包括文本切分模块101、向量化处理模块102、第一摘要抽取模块103及第二摘要抽取模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
[0093]
在本实施例中,关于各模块/单元的功能如下:
[0094]
所述文本切分模块101,用于获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合;
[0095]
所述向量化处理模块102,用于对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合;
[0096]
所述第一摘要抽取模块103,用于利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架;
[0097]
所述第二摘要抽取模块104,用于利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。
[0098]
详细地,所述基于双层模型的文本摘要生成装置100各模块的具体实施方式如下:
[0099]
步骤一、获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合。
[0100]
本发明实施例中,所述业务长文本可以为不同领域记录重要信息的业务长文,这
些长文本动辄上千字,长则上万字,对人们获取其中重要信息产生了巨大的障碍,例如金融领域的产品介绍文本、司法领域的裁判文书等。
[0101]
本发明实施例中,所述按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合,包括:
[0102]
按照预设的字符粒度对所述业务长文本进行切分,得到切分文本;
[0103]
判断所述切分文本是否满足预设的文本长度;
[0104]
若所述切分文本满足预设的文本长度,则不对所述切分文本做处理,将所述切分文本作为切分句子;
[0105]
若所述切分文本不满足预设的文本长度,则根据所述文本长度对所述切分文本进行切分,得到切分句子;
[0106]
汇总所有的切分句子得到所述切分句子集合。
[0107]
本发明一可选实施例中,所述预设的字符粒度是指标点符号,包括结束符号(如:“。”,“?”,“!”等)进行分句,若分句后的句子长度小于或等于所述文本长度,则停止分句,否则再按照句子分隔符号(如:“,”,“;”,“《”等)。
[0108]
本发明实施例中,通过对业务长文本按照符号粒度及文本长度进行切分,可以在保留提取摘要框架的效果下,最大限度地切分出最小粒度的句子。
[0109]
步骤二、对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合。
[0110]
本发明实施例中,所述最大平均处理是一种结合平均值池化和最大值池化的句子向量表示方法,既能提取出每个句子向量中的最大表示形式,也能提取出整个句子向量中的平均表示形式。
[0111]
详细地,所述对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合,包括:
[0112]
利用预训练的bert模型对所述切分句子集合中的切分句子进行向量化处理,得到句子向量集合;
[0113]
利用最大值池化法提取所述句子向量集合中每个句子向量的最大向量,利用平局值池化法提取所述句子向量集合中每个句子向量的平均向量;
[0114]
对所述句子向量集合中每个句子向量的最大向量及平均向量进行加权平均,得到每个句子向量的标准向量,汇总所有的标准向量得到标准向量集合。
[0115]
本发明一可选实施例中,例如,对于某个128维句子向量,最大值池化法会提取句子向量中最大维度的向量a,平局值池化法会计算句子向量中所有维度平均的向量b,通过加权平均(a+b)/2得到标准向量。
[0116]
步骤三、利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架。
[0117]
本发明实施例中,所述预构建的第一层摘要抽取模型可以为seq2seq模型,所述seq2seq模型是一种编码解码(encoder

decoder)结构的网络,它的输入是一个序列,输出也是一个序列,encoder中将一个可变长度的向量序列变为固定长度的向量表达,decoder将这个固定长度的向量变成可变长度的目标的向量序列。
[0118]
本发明一可选实施例中,所述利用预构建的第一层摘要抽取模型对所述标准向量
集合进行摘要框架提取之前,所述方法还包括:
[0119]
获取预构建的编码解码模型及历史业务长文本集合;
[0120]
对所述历史业务长文本集合中的文本进行切分及向量化处理,得到训练向量集合;
[0121]
利用所述编码解码模型中的编码层对所述训练向量集合中的训练向量进行上下文预测,得到上下文向量;
[0122]
利用所述上下文向量对所述训练向量进行编码,得到中间序列;
[0123]
利用所述编码解码模型中的解码层对所述中间序列进行解码,得到目标向量,利用预设的优化函数计算所述输入向量与所述目标向量的优化值,在所述优化值不满足预设的优化阈值时,调整所述编码解码模型中的模型参数,直至所述优化值满足预设的优化阈值时,得到所述第一摘要抽取模型。
[0124]
详细地,通过下述优化函数计算优化值:
[0125][0126]
其中,l表示优化值,n表示训练向量集合,θ为模型参数,xn表示输入的第n个训练向量,yn表示输出第n个目标向量,p
θ
(yn|xn)表示在模型参数θ时的条件概率。
[0127]
本发明一可选实施例中,所述编码解码模型中的编码层及解码层可以为rnn网络、lstm网络等,编码层将长度可变的输入的训练向量序列转换成形状固定的上下文变量c,并且将输入序列的信息在该上下文变量中进行编码,通过解码器输出目标向量。
[0128]
进一步地,所述利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架,包括:
[0129]
利用所述第一层摘要抽取模型输出所述标准向量集合中每个标准向量的第一预测序列及对应的预测概率;
[0130]
将所述预测概率大于或等于预设的预测概率的标准向量对应的句子进行拼接,得到所述摘要框架。
[0131]
本发明一可选实施例中,将切分出的所有标准向量输入到第一层摘要抽取模型seq2seq模型中,输出每个句子的第一预测序列及对应的预测概率,将预测概率大于或等于预设的预测概率的句子标记为1,将预测概率小于预设的预测概率的句子标记为0,0代表该句子对最终的摘要不会有贡献,不会参与到第二层的seq2seq模型训练,1代表该句子会参与第二层的seq2seq模型训练。相较于常见的抽取模型,第一层摘要抽取模型seq2seq能够有效的利用输出标签信息,即当前句子对最终摘要有没有贡献,不仅取决当前句子的内容,也与上一条句子是否对摘要有贡献有关,提高了摘要提取的准确度。
[0132]
步骤四、利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。
[0133]
本发明实施例中,所述预构建的第二层摘要抽取模型也可以为训练完成的seq2seq模型。
[0134]
详细地,所述利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果,包括:
[0135]
利用所述第二层摘要抽取模型的编码层对所述摘要框架进行框架编码,得到编码向量;
[0136]
利用所述第二层摘要抽取模型的解码层对所述编码向量进行解码,得到解码向量,利用预构建的词库字典对所述解码向量进行索引连接,得到摘要抽取结果。
[0137]
本发明一可选实施例中,在第二层摘要抽取模型的encode层对摘要框架进行编码,得到编码向量,在decode层对encode完的向量按照step进行解码,每一个step会形成一个总词库长度的向量,该向量中最大值的索引位置代表该处字符在词库字典(根据历史业务长文本集合构建,例如,“a
”→
1、“b
”→
2、“a
”→3…
)中的位置,按照顺序依次解码完,直至解码出

end’符号,并按照顺序连接所有的字符,即为解码出的摘要抽取结果。
[0138]
本发明通过预设句子粒度对业务长文本进行切分,得到切分句子集合,可以最大限度地准确切分出最小粒度的句子,提高摘要生成的准确性。同时,利用预构建的第一层摘要抽取模型对标准向量集合进行摘要框架提取,基于句子粒度抽取出业务文本中的关键信息,形成更加准确的摘要框架,再利用预构建的第二层摘要抽取模型对摘要框架进行摘要提取,避免处理过多文本信息,进一步提高了摘要生成的准确率。因此本发明提出的基于双层模型的文本摘要生成装置,可以提高文本摘要生成的准确性。
[0139]
如图3所示,是本发明一实施例提供的实现所述基于双层模型的文本摘要生成方法的电子设备的结构示意图。
[0140]
所述电子设备可以包括处理器10、存储器11、通信接口12和总线13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于双层模型的文本摘要生成程序。
[0141]
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:sd或dx存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(smart media card,smc)、安全数字(secure digital,sd)卡、闪存卡(flash card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于双层模型的文本摘要生成程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
[0142]
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(central processing unit,cpu)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(control unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于双层模型的文本摘要生成程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
[0143]
所述通信接口12用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如wi-fi接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示
器(display)、输入单元(比如键盘(keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是led显示器、液晶显示器、触控式液晶显示器以及oled(organic light-emitting diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
[0144]
所述总线13可以是外设部件互连标准(peripheral component interconnect,简称pci)总线或扩展工业标准结构(extended industry standard architecture,简称eisa)总线等。该总线13可以分为地址总线、数据总线、控制总线等。所述总线13被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
[0145]
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
[0146]
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、wi-fi模块等,在此不再赘述。
[0147]
进一步地,所述电子设备还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如wi-fi接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
[0148]
可选地,该电子设备还可以包括用户接口,用户接口可以是显示器(display)、输入单元(比如键盘(keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是led显示器、液晶显示器、触控式液晶显示器以及oled(organic light-emitting diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
[0149]
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
[0150]
所述电子设备中的所述存储器11存储的基于双层模型的文本摘要生成程序是多个指令的组合,在所述处理器10中运行时,可以实现:
[0151]
获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合;
[0152]
对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合;
[0153]
利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架;
[0154]
利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。
[0155]
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关
步骤的描述,在此不赘述。
[0156]
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-only memory)。
[0157]
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
[0158]
获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合;
[0159]
对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合;
[0160]
利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架;
[0161]
利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。
[0162]
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
[0163]
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0164]
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
[0165]
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
[0166]
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
[0167]
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
[0168]
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深
度学习等几大方向。
[0169]
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
[0170]
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
[0171]
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

技术特征:


1.一种基于双层模型的文本摘要生成方法,其特征在于,所述方法包括:获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合;对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合;利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架;利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。2.如权利要求1所述的基于双层模型的文本摘要生成方法,其特征在于,所述按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合,包括:按照预设的字符粒度对所述业务长文本进行切分,得到切分文本;判断所述切分文本是否满足预设的文本长度;若所述切分文本满足预设的文本长度,则不对所述切分文本做处理,将所述切分文本作为切分句子;若所述切分文本不满足预设的文本长度,则根据所述文本长度对所述切分文本进行切分,得到切分句子;汇总所有的切分句子得到所述切分句子集合。3.如权利要求2中所述的基于双层模型的文本摘要生成方法,其特征在于,所述对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合,包括:利用预训练的bert模型对所述切分句子集合中的切分句子进行向量化处理,得到句子向量集合;利用最大值池化法提取所述句子向量集合中每个句子向量的最大向量,利用平局值池化法提取所述句子向量集合中每个句子向量的平均向量;对所述句子向量集合中每个句子向量的最大向量及平均向量进行加权平均,得到每个句子向量的标准向量,汇总所有的标准向量得到标准向量集合。4.如权利要求1至3中任一项所述的基于双层模型的文本摘要生成方法,其特征在于,所述利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取之前,所述方法还包括:获取预构建的编码解码模型及历史业务长文本集合;对所述历史业务长文本集合中的文本进行切分及向量化处理,得到训练向量集合;利用所述编码解码模型中的编码层对所述训练向量集合中的训练向量进行上下文预测,得到上下文向量;利用所述上下文向量对所述训练向量进行编码,得到中间序列;利用所述编码解码模型中的解码层对所述中间序列进行解码,得到目标向量,利用预设的优化函数计算所述输入向量与所述目标向量的优化值,在所述优化值不满足预设的优化阈值时,调整所述编码解码模型中的模型参数,直至所述优化值满足预设的优化阈值时,得到所述第一摘要抽取模型。5.如权利要求4所述的基于双层模型的文本摘要生成方法,其特征在于,通过下述优化
函数计算优化值:其中,l表示优化值,n表示训练向量集合,θ为模型参数,x
n
表示输入的第n个训练向量,y
n
表示输出第n个目标向量,p
θ
(y
n
|x
n
)表示在模型参数θ时的条件概率。6.如权利要求1所述的基于双层模型的文本摘要生成方法,其特征在于,所述利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架,包括:利用所述第一层摘要抽取模型输出所述标准向量集合中每个标准向量的第一预测序列及对应的预测概率;将所述预测概率大于或等于预设的预测概率的标准向量对应的句子进行拼接,得到所述摘要框架。7.如权利要求1所述的基于双层模型的文本摘要生成方法,其特征在于,所述利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果,包括:利用所述第二层摘要抽取模型的编码层对所述摘要框架进行框架编码,得到编码向量;利用所述第二层摘要抽取模型的解码层对所述编码向量进行解码,得到解码向量,利用预构建的词库字典对所述解码向量进行索引连接,得到摘要抽取结果。8.一种基于双层模型的文本摘要生成装置,其特征在于,所述装置包括:文本切分模块,用于获取业务长文本,按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合;向量化处理模块,用于对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合;第一摘要抽取模块,用于利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架;第二摘要抽取模块,用于利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。9.一种电子设备,其特征在于,所述电子设备包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于双层模型的文本摘要生成方法。10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于双层模型的文本摘要生成方法。

技术总结


本发明涉及人工智能技术,揭露了一种基于双层模型的文本摘要生成方法,包括:按照预设句子粒度对所述业务长文本进行切分,得到切分句子集合,对所述切分句子集合中的句子进行向量化处理,得到句子向量集合,对所述句子向量集合中的向量进行最大平均处理,得到标准向量集合,利用预构建的第一层摘要抽取模型对所述标准向量集合进行摘要框架提取,得到摘要框架,利用预构建的第二层摘要抽取模型对所述摘要框架进行摘要提取,得到摘要抽取结果。本发明还涉及区块链技术,所述摘要抽取结果可存储在区块链的节点中。本发明还提出一种基于双层模型的文本摘要生成装置、电子设备以及可读存储介质。本发明可以提高文本摘要生成的准确性。性。性。


技术研发人员:

胡晓辉

受保护的技术使用者:

深圳壹账通智能科技有限公司

技术研发日:

2022.09.21

技术公布日:

2022/12/23

本文发布于:2024-09-20 13:36:19,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/1/45146.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:所述   向量   摘要   切分
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议