基于卷积网络和编码器解码器模型的多语种语音合成方法



1.本发明属于计算机处理技术领域,具体涉及一种基于卷积网络和编码器解码器模型的多语种语音合成方法。


背景技术:



2.出现多语种语言信息成为了社交媒体文本、交往对话和语音导航中普遍存在的现象,这在语言学中称为语码转换(cs)。而目前的语音合成系统,虽然能从单一语种文本中合成较为自然、流畅的语音,但在处理多语种文本时会面临数据缺乏、发音不流畅、前端处理复杂等挑战,这也促进了对多语种语音合成问题的研究。
3.目前针对多语种语音合成问题的一般解决方法是利用国际音标表(ipa)或共享音素集将多语种文本信息转换为具有统一标识的音素文本,然后将前端模块预测的韵律信息、重读信息等以特殊的符号标注在音素文本中,形成前端抄本。然后将前端抄本中的每个字符通过词嵌入表(word embedding)转换为对应的向量,形成文本特征。然后利用声学模型将文本特征转换为声学特征梅尔谱,再利用声码器进一步估计相位信息,将梅尔谱还原为语音波形。然后计算机就可以利用语音波形发出声音,完成多语种语音合成任务。
4.在上述方法基础上衍生了多种模型和特征提取结构,但仍普遍存在两大问题。一是前端处理流程比较复杂,多种语言首先需要利用各自的发音规则进行音素化,如中文需要进行注音,尤其是处理多音字,而英文需要利用发音词典进行转换,对未登录词(oov)也需要单独处理;然后再通过国际音标表或预置的共享音素集进行统一,最后再添入重音、韵律等发音有关信息。二是模型功能不易扩展,在现有模型上进一步扩展多说话人语音合成、情感语音合成时必须添加相应的说话人音或情感特征提取模块,或者增加输入信息和嵌入层才可以实现对应功能拓展。


技术实现要素:



5.为了应对现有多语种语音合成方法中前端处理复杂和模型功能不易扩展的问题,本发明提供一种基于卷积网络和编码器解码器模型的多语种语音合成方法,该方法不仅能简化前端对多语种文本的处理流程,而且再不增加任何模块的基础上可以实现多说话人语音合成、情感语音合成等功能扩展。
6.本发明是通过以下技术方案实现的:一种基于卷积网络和编码器解码器模型的多语种语音合成方法,包括以下步骤:步骤s1,将多语种文本转换为具有设定格式的视觉文本图片;步骤s2,基于卷积网络的视觉特征提取模型滑动提取图片特征;步骤s3,基于编码器-解码器的声学特征提取模型将步骤s2提取到的图片特征转换为声学特征;步骤s4,使用声码器将步骤s3得到的声学特征转换为对应的音频。
7.在上述技术方案中,步骤s1中,图片中每个字符长度w,高度为h,字符个数为n,生
成图片的大小为wn
×
h。
8.在上述技术方案中,步骤s1中,在图片中,针对每个字符,通过标注以及设置字符的颜、字体、加粗、加黑等手段,来表示字符的重音、韵律、音、情感等语音信息。
9.在上述技术方案中,步骤s1中,在图片中,通过将字符标黑来表征该字符的重音信息,通过在字符的上方标注符号的方式来表征字符的不同等级的韵律,通过设置字符的字体来表征字符的不同音,通过设置字符的颜来表征字符的情感信息。
10.在上述技术方案中,步骤s2中,滑动窗口的窗长设置为2-5个字符长度。
11.在上述技术方案中,步骤s3中,所述声学特征为梅尔频谱。
12.在上述技术方案中,步骤s4中,采用hifi-gan的声码器将梅尔频谱转换为对应音频。
13.在上述技术方案中,步骤s4中,采用wavenet的声码器将梅尔频谱转换为对应音频。
14.在上述技术方案中,步骤s4中,采用wavegan的声码器将梅尔频谱转换为对应音频。
15.本发明还提供一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被执行时实现上述的方法的步骤。
16.本发明的优点和有益效果为:本发明将待合成的多语种文本信息不经过音素化而是直接按照一定的标准转换为图片,图片中每个字符的长度和宽度是预先定义好的,并且蕴含了重音、韵律、音、情感等发音信息;然后对生成的图片进行特征提取,再将提取到的图片特征信息送入声学模型中,完成从图片特征到声学特征的映射,最后利用声码器进一步还原为语音波形,生成目标语音。本发明简化了多语种语音合成问题前端处理流程,避免了注音问题和归一化等问题;提升多语种语音合成模块的可扩展性,可以在模型结构不发生变化的情况下将模型功能进行拓展。
附图说明
17.图1是本发明的基于卷积网络和编码器解码器模型的多语种语音合成方法的步骤流程图。
18.对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,可以根据以上附图获得其他的相关附图。
具体实施方式
19.为了使本技术领域的人员更好地理解本发明方案,下面结合具体实施例进一步说明本发明的技术方案。
20.一种基于卷积网络和编码器解码器模型的多语种语音合成方法,包括以下步骤:步骤s1,将多语种文本转换为具有设定格式的视觉文本图片。
21.针对包含两种及以上语言的多语种文本,该步骤是将多语种文本转换为特定格式的图片,每个图片中每个字符长度w,高度为h,字符个数为n,则生成图片的大小为wn
×
h。在图片中,针对每个字符,可以通过标注以及设置字符的颜、字体、加粗、加黑等手段,来表
示字符的重音、韵律、音、情感等信息。例如:可以通过将字符标黑来表征该字符的重音信息,通过在字符的上方标注“#1”、“#2”等符号的方式来表征字符的不同等级的韵律,通过设置字符的字体来表征字符的不同音(比如行楷、宋体、幼圆、方正等字体可以代表不同的说话人音),而情感信息可以通过设置字符的颜来表示。在这个过程中不需要针对每种文本进行单独的音素化处理,也就避免了在音素化处理过程中出现的多音字消歧、未登录词无法注音等问题。同时,由于多种语言的文本都以统一标准转换为图片,不需要再利用国际音标表等方法进行转化,从而简化了前端处理流程。
22.步骤s2,基于卷积网络的视觉特征提取模型滑动提取图片特征。
23.通过步骤s1,将多语种文本生成了统一标准的视觉文本图片,本步骤采用卷积网络通过滑动窗口依次提取图片特征,滑动窗口的窗长设置为nw,w为字符长度,n的范围是2≤n≤5;滑动窗口不仅能提取图片中的单个字符信息,也能有效提取上下文信息,进而能提升语音合成效果。
24.卷积网络包括输入层(input layer)、卷积层(convolutional layer)、池化层(pooling layer)、全连接层(fully-connected layer)以及输出层(output layer)等结构。卷积层用于是对输入层的数据进行特征提取,卷积层内部包括多个卷积核,卷积核是一个权值矩阵,通过卷积核与输入层局部域的卷积操作可以实现对该层的特征提取;在提取过程中可以使用多个卷积层,从前往后逐层获取更高级的特征。滑动窗口的窗长是指某一层中卷积核每次计算完成后向前平移的距离。在经过卷积层处理后,由于神经网络的特性,通常需要经过一个非线性激活函数(activation function)处理,最常用的激活函数是relu函数。池化层的功能是降低特征的分辨率、压缩数据量,接在卷积层之后,用于获取具有空间不变性的特征,同时也可以防止模型的过拟合。
25.在本步骤中没有使用字符嵌入表这种一般的结构,而是提取了字符的视觉特征,这在处理罕见字的发音上更有优势。比如“discombobulate”(意为混淆,沮丧)是个罕见词,无法利用字典将其音素化,但该词中的出现的“dis”,“com”,“late”等结构,可以被方便的视觉特征提取模型所捕捉,因此合成效果更好。
26.步骤s3,基于编码器-解码器的声学特征提取模型将步骤s2提取到的图片特征转换为声学特征。
27.通过步骤s2得到了多语种文本对应的图片特征,本步骤是利用基于编码器-解码器的声学特征提取模型将图片特征进一步转换,生成梅尔频谱。该模型首先将利用编码器将输入的图片特征进行编码,生成高层次的序列特征信息,然后解码器采用循环神经网络结构,将编码器的输出逐帧地预测声学特征(声学特征采用梅尔频谱)。具体的声学模型设计可以采用tacotron、tacotron2等方法。tacotron和tacotron2是带有注意力机制(attention mechanism)的序列到序列的生成模型,包括一个编码器模块和一个带有基于内容注意力的解码器模块。编码器负责将输入的特征序列映射到离散的one-hot编码向量,再编码到低维连续的嵌入形式(embedding),用于提取特征序列的鲁棒序列表示,以生成高层次的序列特征信息;解码器是一个自回归网络结构,解码器负责将编码器输出的序列特征信息逐帧地解码(预测)成声学特征(使用梅尔频谱作为预测输出);其中基于内容的注意力模块用于学习如何对齐特征序列和语音帧,序列中的每个字符编码通常对应多个语音帧并且相邻的语音帧一般也具有相关性。
28.在这本步骤实现多语种语音合成的基础上,可以无需增加任何模块而直接扩展多说话人语音合成、情感语音合成等功能,这是因为语音的重音、韵律、音、情感等信息都包含在了图片中,由视觉特征提取模型统一提取为图片特征,所以无需修改该模型结构。
29.步骤s4,使用声码器将步骤s3得到的声学特征转换为对应的音频。
30.通过步骤s3,生成了目标文本对应的声学特征梅尔频谱,梅尔频谱中包含了语音信号随时间在不同频率上的分布,但仍然缺乏相位信息。因此本步骤利用神经网络声码器预测相位,具体而言,采用wavenet,wavegan,hifi-gan等高效声码器将梅尔频谱转换为对应音频,在保证合成音质的同时也具有较快的推理速度。
31.而且,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个与另一个具有相同名称的部件区分开来,而不一定要求或者暗示这些部件之间存在任何这种实际的关系或者顺序。
32.以上对本发明做了示例性的描述,应该说明的是,在不脱离本发明的核心的情况下,任何简单的变形、修改或者其他本领域技术人员能够不花费创造性劳动的等同替换均落入本发明的保护范围。

技术特征:


1.一种基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于,包括以下步骤:步骤s1,将多语种文本转换为具有设定格式的视觉文本图片;步骤s2,基于卷积网络的视觉特征提取模型滑动提取图片特征;步骤s3,基于编码器-解码器的声学特征提取模型将步骤s2提取到的图片特征转换为声学特征;步骤s4,使用声码器将步骤s3得到的声学特征转换为对应的音频。2.根据权利要求1所述的基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于:步骤s1中,图片中每个字符长度w,高度为h,字符个数为n,生成图片的大小为wn
×
h。3.根据权利要求1所述的基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于:步骤s1中,在图片中,针对每个字符,通过标注以及设置字符的颜、字体、加粗、加黑的手段,来表示字符的重音、韵律、音、情感语音信息。4.根据权利要求1所述的基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于:步骤s1中,在图片中,通过将字符标黑来表征该字符的重音信息,通过在字符的上方标注符号的方式来表征字符的不同等级的韵律,通过设置字符的字体来表征字符的不同音,通过设置字符的颜来表征字符的情感信息。5.根据权利要求1所述的基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于:步骤s2中,滑动窗口的窗长设置为2-5个字符长度。6.根据权利要求1所述的基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于:步骤s3中,所述声学特征为梅尔频谱。7.根据权利要求1所述的基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于:步骤s4中,采用hifi-gan的声码器将梅尔频谱转换为对应音频。8.根据权利要求1所述的基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于:步骤s4中,采用wavenet的声码器将梅尔频谱转换为对应音频。9.根据权利要求1所述的基于卷积网络和编码器解码器模型的多语种语音合成方法,其特征在于:步骤s4中,采用wavegan的声码器将梅尔频谱转换为对应音频。10.一种计算机可读存储介质,其特征在于,存储有计算机程序,所述计算机程序被执行时实现如权利要求1至9中任一项所述的方法的步骤。

技术总结


本发明公开了一种基于卷积网络和编码器解码器模型的多语种语音合成方法,将待合成的多语种文本信息不经过音素化而是直接按照一定的标准转换为图片,图片中每个字符的长度和宽度是预先定义好的,并且蕴含了重音、韵律、音、情感等发音信息;然后对生成的图片进行特征提取,再将提取到的图片特征信息送入声学模型中,完成从图片特征到声学特征的映射,最后利用声码器进一步还原为语音波形,生成目标语音。本发明简化了多语种语音合成问题前端处理流程,避免了注音问题和归一化等问题;提升多语种语音合成模块的可扩展性,可以在模型结构不发生变化的情况下将模型功能进行拓展。不发生变化的情况下将模型功能进行拓展。不发生变化的情况下将模型功能进行拓展。


技术研发人员:

秦勇 王卉 李起成 周家名 雪琛 贺佳贝

受保护的技术使用者:

南开大学

技术研发日:

2022.09.13

技术公布日:

2022/10/13

本文发布于:2024-09-25 20:30:24,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/2/26240.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:卷积   特征   字符   步骤
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议