乐器;声学设备的制造及制作,分析技术1.本技术实施例涉及机器学习技术领域,尤其涉及一种模型训练方法、语音到语音翻译方法、装置及介质。背景技术:2.语音到语音翻译(speech-to-speech translation,s2st)模型旨在将源语言语音翻译为目标语言语音,其广泛应用于视频翻译、跨国会议演讲、翻译对讲机等各种场景。通常语音到语音翻译模型需要通过大量数据训练得到,而目前在现实场景中很难收集成对的语音到语音的翻译样本,这种数据匮乏的情况导致模型训练精度较低的问题。技术实现要素:3.本技术提供一种模型训练方法、语音到语音翻译方法、装置及介质,从而可以提高模型训练精度。4.第一方面,提供一种模型训练方法,包括:获取语音识别样本和真实的语音到语音翻译样本;根据语音识别样本生成伪标注的语音到语音翻译样本;根据伪标注的语音到语音翻译样本和真实的语音到语音翻译样本训练语音到语音翻译模型。5.第二方面,提供一种语音到语音翻译方法,包括:获取源语言语音特征;将源语言语音特征输入至如第一方面或第一方面的可选方式训练得到的语音到语音翻译模型,得到源语言语音特征对应的目标语言语音特征。6.第三方面,提供一种模型训练装置,包括:获取模块、生成模块和训练模块,获取模块用于获取语音识别样本和真实的语音到语音翻译样本;生成模块用于根据语音识别样本生成伪标注的语音到语音翻译样本;训练模块用于根据伪标注的语音到语音翻译样本和真实的语音到语音翻译样本训练语音到语音翻译模型。7.第四方面,提供语音到语音翻译装置,包括:获取模块和处理模块,其中,获取模块用于获取源语言语音特征;处理模块用于将源语言语音特征输入至如第一方面或第一方面的可选方式训练得到的语音到语音翻译模型,得到源语言语音特征对应的目标语言语音特征。8.第五方面,提供了一种电子设备,包括:处理器和存储器,该存储器用于存储计算机程序,该处理器用于调用并运行该存储器中存储的计算机程序,以执行第一方面或第二方面所述的方法。9.第六方面,提供了一种计算机可读存储介质,用于存储计算机程序,该计算机程序使得计算机执行第一方面或第二方面所述的方法。10.综上,虽然在现实场景中很难收集成对的语音到语音的翻译样本,但是语音识别样本却比较好收集,基于该语音识别样本可以生成伪标注的语音到语音的翻译样本,从而扩充了语音到语音的翻译样本,进而可以提高模型训练精度。normalization,norm)。解码器与编码器几乎一样,只不过可以在中间多增加了一层多头注意力机制(encoder-decoder attention)来处理编码器的输出。同时,解码器的第一个单元即采用多头自注意力机制的第一个单元为了确保解码器不会读取当前位置之后的信息进行了遮挡(masking)操作。30.下面对本技术所要解决的技术问题和发明构思进行说明:31.如上所述,通常语音到语音翻译模型需要通过大量数据训练得到,而目前在现实场景中很难收集成对的语音到语音的翻译样本,这种数据匮乏的情况导致模型训练精度较低的问题。32.为了解决上述技术问题,本技术提出了扩充训练数据,以提高模型训练精度。33.在一些实施例中,本技术实施例的系统架构如图2所示。34.图2为本技术实施例涉及的一种系统架构示意图,用户设备201、数据采集设备202、训练设备203、执行设备204、数据库205和内容库206。35.其中,数据采集设备202用于从内容库206中读取训练数据,并将读取的训练数据存储至数据库205中。本技术实施例涉及的训练数据包括伪标注的语音到语音翻译样本和真实的语音到语音翻译样本。36.训练设备203基于数据库205中维护的训练数据,对语音到语音翻译模型进行训练,使得训练后的语音到语音翻译模型可以有效地实现源语言语音到目标语言语音的翻译。37.另外,参考图2,执行设备204配置有i/o接口207,与外部设备进行数据交互。比如通过i/o接口接收用户设备201发送的源语言语音特征。执行设备204中的计算模块208使用训练后的语音到语音翻译模型对输入的源语言语音特征进行处理,输出目标语言语音特征,具体可以是目标语言语音特征,并通过i/o接口将相应的结果发送至用户设备201。38.其中,用户设备201可以包括手机、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(mobile internet device,mid)、台式电脑、或其他具有安装浏览器功能的终端设备。39.执行设备204可以为服务器。40.示例性的,服务器可以是机架式服务器、刀片式服务器、塔式服务器或机柜式服务器等计算设备。该服务器可以是独立的测试服务器,也可以是多个测试服务器所组成的测试服务器集群。41.本实施例中,执行设备204通过网络与用户设备201连接。所述网络可以是企业内部网(intranet)、互联网(internet)、全球移动通讯系统(global system of mobile communication,gsm)、宽带码分多址(wideband code division multiple access,wcdma)、第四代(the 4rd generation,4g)网络、第五代(the 5rd generation,5g)网络、蓝牙(bluetooth)、无线保真(wireless fidelity,wi-fi)、通话网络等无线或有线网络。42.需要说明的是,图2仅是本技术实施例提供的一种系统架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制。在一些实施例中,上述数据采集设备202与用户设备201、训练设备203和执行设备204可以为同一个设备。上述数据库205可以分布在一个服务器上也可以分布在多个服务器上,上述的内容库206可以分布在一个服务器上也可以分布在多个服务器上。43.下面通过一些实施例对本技术实施例的技术方案进行详细说明。下面这几个实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。44.图3为本技术实施例提供的一种模型训练方法的流程图,该方法可以由手机、平板电脑、笔记本电脑、掌上电脑、mid、台式电脑等任何电子设备执行,例如可以由图2中的训练设备执行,本技术对此不做限制,如图3所示,该方法包括:45.s310:获取语音识别样本和真实的语音到语音翻译样本;46.s320:根据语音识别样本生成伪标注的语音到语音翻译样本;47.s330:根据伪标注的语音到语音翻译样本和真实的语音到语音翻译样本训练语音到语音翻译模型。48.可选地,本技术中的语音到语音翻译模型可以是基于多任务学习(multi-task learning,mtl)的语音到语音翻译模型,当然也可以是基于单任务学习的语音到语音翻译模型,本技术对此不做限制。其中,多任务学习是机器学习中一个很有前景的领域,其目标是利用多个学习任务中所包含的有用信息来帮助为每个任务学习得到更为准确的学习器。并且在多任务学习中,由于不同任务之间共享归纳偏好,所以任务之间一般是可以相互提升而避免单任务容易陷入局部最优。49.为了方便起见,下面将真实的语音到语音翻译样本,又或者是伪标注的语音到语音翻译样本统称为语音到语音翻译样本。应理解的是,语音到语音翻译样本所包括的数据元素的个数与语音到语音翻译模型基于多任务学习或者单任务学习有关。例如:若语音到语音翻译模型是基于单任务学习的语音到语音翻译模型,则语音到语音翻译样本可以是一个二元组,包括:源语言语音特征和目标语言语音特征。若语音到语音翻译模型是基于多任务学习的语音到语音翻译模型,且多任务包括:一个主任务和两个辅助任务,主任务是语音到语音的翻译任务;两个辅助任务分别是语音识别任务和语音到文本的翻译任务,该语音识别任务用于将源语言语音特征转换为源语言文本,该语音到文本的翻译任务用于将源语言语音特征转换为源语言文本,并将该源语言文本转换为目标语言文本,这种情况下,语音到语音翻译样本可以是一个四元组,包括:源语言语音特征、源语言文本、目标语言语音特征和目标语言文本。50.可选地,真实的语音到语音翻译样本包括:第一源语言语音特征、第一源语言文本、第一目标语言语音特征和第一目标语言文本。51.应理解的是,第一源语言语音特征是真实的源语言语音特征,第一源语言文本是真实的源语言文本,第一目标语言文本也是真实的目标语言文本,第一目标语言语音特征是电子设备对第一目标语言文本合成得到的目标语言语音特征,例如:电子设备可以将第一目标语言文本输入至语音合成模型中,得到第一目标语言语音特征。52.可选地,语音识别样本包括:第二源语言语音特征和第二源语言文本。其中,该第二源语言语音特征是真实的源语言语音特征,该第二源语言文本也是真实的源语言文本。53.应理解的是,所谓真实的源语言语音特征指的是在真实场景中可以得到的源语言语音特征,例如:电子设备可以通过麦克风采集某用户的语音,并提取该语音的特征。真实的源语言文本可以是通过人工方式得到的语言文本,例如:用户可以将一段语音记录下来,以形成该语音对应的语言文本。真实的目标语言文本也可以是通过人工方式得到的语言文本,例如:用户将源语言文本中的内容翻译为目标语言文本。54.可选地,上述语音识别样本可以是一个或多个,上述真实的语音到语音翻译样本可以是一个或多个。55.可选地,电子设备可以对第二源语言文本进行翻译,得到第二目标语言语音特征;对第二目标语言语音特征进行合成,得到第二目标语言语音特征;其中,伪标注的语音到语音翻译样本可以是一个四元组,包括:第二源语言语音特征、第二源语言文本、第二目标语言文本和第二目标语言语音特征。换句话讲,伪标注的语音到语音翻译样本中的前两项,即第二源语言语音特征、第二源语言文本均是真实的。56.可选地,电子设备可以将第二源语言文本输入至机器翻译(machine translation,mt)模型中,得到第二目标语言文本。电子设备可以将第二目标语言文本输入至语音合成(text-to-speech,tts)模型中,得到第二目标语言语音特征。57.应理解的是,按照上述伪标注的语音到语音翻译样本的构造过程可知,真实的语音到语音翻译样本与伪标注的语音到语音翻译样本的区别主要在目标语言文本,例如:真实的语音到语音翻译样本是一个四元组,包括:{ssrc,tsrc,ttgt,stgt},其中,ssrc表示真实的源语言语音特征、tsrc表示真实的源语言文本、ttgt表示真实的目标语言文本、stgt表示对ttgt合成之后得到的目标语言语音特征。伪标注的语音到语音翻译样本是一个四元组,包括:{ssrc,tsrc,t'tgt,stgt},其中,ssrc表示真实的源语言语音特征、tsrc表示真实的源语言文本、t'tgt表示将真实的源语言文本输入至mt之后得到的目标语言文本、stgt表示t'tgt合成之后得到的目标语言语音特征。58.本技术可以将基于这种伪标注的语音到语音翻译样本所进行的语音到语音的翻译称为伪翻译标签适配(pseudo translation label adaptation,ptla)。59.应理解的是,上述伪标注的语音到语音翻译样本是在语音识别样本的基础上的得到的,实际上,也可以基于源语言语音特征构造伪标注的语音到语音翻译样本。例如:电子设备可以获取真实的源语言语音特征,将该源语言语音特征输入至自动语音识别(automatic speech recognition,asr)模型,得到该源语言语音特征对应的源语言文本,再将该源语言文本输入至mt模型中得到目标语言文本,最后可以将该目标语言文本输入至tts模型中,得到目标语言语音特征,基于此,这些源语言语音特征、源语言文本、目标语言文本和目标语言语音特征构成伪标注的语音到语音翻译样本。60.可选地,在本技术中,源语言语音特征可以是源语言语音的对数梅尔谱图(log-mel spectrogram),该对数梅尔谱图可以是80通道的对数梅尔谱图,但不限于此。61.可选地,在本技术中,源语言语音特征可以是目标语言语音的线性频率频谱图(linear freq spectrogram),但不限于此。62.应理解的是,电子设备对语音到语音翻译模型训练过程包括:预训练阶段(pre-training)和微调阶段(fine tuning)。63.预训练指的是预先训练模型或者预先训练模型的过程。微调指的是将预训练过的模型作用于某任务的数据集,并使参数适应该任务的数据集的过程。64.例如:当需要搭建一个网络模型来完成一个特定图像分类任务时,首先,电子设备需要随机初始化参数,然后开始训练网络模型,不断调整该模型的参数,使得网络模型的损失越来越小,直到满足训练停止条件为止,该过程就是预训练过程。当获取到一个与上述特定图像分类任务类似的图像分类任务时,电子设备可以直接使用之前训练的网络模型,将该网络模型的参数来作为这一任务的初始化参数,然后训练网络模型,不断调整该模型的参数,使得网络模型的损失越来越小,直到满足训练停止条件为止,该过程就是微调过程。65.应理解的是,上述真实的语音到语音翻译样本也可以被称为原始的语音到语音翻译样本。伪标注的语音到语音翻译样本也可以被称为衍生的语音到语音翻译样本。其中,该真实的语音到语音翻译样本可以作用于语音到语音翻译模型的预训练阶段,也可以作用于该模型的微调阶段。该伪标注的语音到语音翻译样本可以作用于语音到语音翻译模型的预训练阶段,也可以作用于该模型的微调阶段,本技术对此不做限制。66.综上,虽然在现实场景中很难收集成对的语音到语音的翻译样本,但是语音识别样本却比较好收集,基于该语音识别样本可以生成伪标注的语音到语音的翻译样本,从而扩充了语音到语音的翻译样本,进而可以提高模型训练精度。67.下面将示例性地阐述若干模型训练方法:68.如图4所示,上述s330包括:69.s410:根据伪标注的语音到语音翻译样本预训练语音到语音翻译模型;70.s420:根据真实的语音到语音翻译样本微调预训练后的语音到语音翻译模型。71.应理解的是,由于本技术引入了伪标注的语音到语音翻译样本,为了提高模型训练精度,可以将伪标注的语音到语音翻译样本应用于模型的预训练阶段,而将真实的语音到语音翻译样本应用于模型的微调阶段。72.可选地,电子设备可以直接通过真实的语音到语音翻译样本微调预训练后的语音到语音翻译模型,也就是说,电子设备只通过真实的语音到语音翻译样本微调预训练后的语音到语音翻译模型。73.可选地,电子设备也可以根据真实的语音到语音翻译样本和伪标注的语音到语音翻译样本微调预训练后的语音到语音翻译模型。基于该方式所进行的模型训练方法可以称为混合训练方法。74.应理解的是,这种混合训练算法可以最大限度地保留伪标注的语音到语音翻译样本收益。由于语音识别样本的规模相对于真实的语音到语音翻译样本的规模要大很多,基于此,伪标注的语音到语音翻译样本的规模相对于真实的语音到语音翻译样本的规模要大很多,为了防止伪标注的语音到语音翻译样本误导模型优化结果,在本技术中,可以对真实的语音到语音翻译样本进行上采样,以扩充真实的语音到语音翻译样本的规模,进而可以通过上采样后的语音到语音翻译样本和伪标注的语音到语音翻译样本微调预训练后的语音到语音翻译模型。75.可选地,电子设备在根据真实的语音到语音翻译样本和伪标注的语音到语音翻译样本微调预训练后的语音到语音翻译模型之前,还可以对真实的语音到语音翻译样本标注第一标签,第一标签用于标识真实的语音到语音翻译样本为真实样本,可以用real表示;对伪标注的语音到语音翻译样本标注第二标签,第二标签用于标识伪标注的语音到语音翻译样本为伪标注样本,可以用pseudo表示。基于该方式所进行的模型训练方法可以称为提示(prompt)训练方法,基于这种提示训练方式,可以使得模型更好地区分真实的语音到语音翻译样本和伪标注的语音到语音翻译样本。76.在本技术实施例中,电子设备可以根据伪标注的语音到语音翻译样本预训练语音到语音翻译模型;根据真实的语音到语音翻译样本微调预训练后的语音到语音翻译模型,即伪标注数据主要应用于预训练过程,通过这种方式可以防止伪标注的语音到语音翻译样本误导模型优化结果。77.进一步地,由于真实的语音到语音翻译样本匮乏,所以伪标注数据也可以参与进微调过程,但是为了防止伪标注的语音到语音翻译样本误导模型优化结果,可以对真实的语音到语音翻译样本进行上采样,进而可以通过上采样后的语音到语音翻译样本和伪标注的语音到语音翻译样本微调预训练后的语音到语音翻译模型,通过该方法一方面可以解决真实的语音到语音翻译样本匮乏而导致的模型训练精度较低的问题,另一方面可以防止伪标注的语音到语音翻译样本误导模型优化结果。78.更进一步地,电子设备在根据真实的语音到语音翻译样本和伪标注的语音到语音翻译样本微调预训练后的语音到语音翻译模型之前,还可以对真实的语音到语音翻译样本和伪标注的语音到语音翻译样本标注对应标签,从而可以使得模型更好地区分真实的语音到语音翻译样本和伪标注的语音到语音翻译样本。79.可选地,在本技术中,语音到语音翻译模型可以是现有的翻译器(translatotron)模型或者可以如图5所示的语音到语音翻译模型,本技术对此不做限制。80.图5为本技术实施例提供的一种语音到语音翻译模型的示意图,如图5所示,该模型包括:编码器模块510、第一注意力模块520、第一解码器模块530、n个第二注意力模块540和n个第二解码器模块550,n为正整数,n个第二注意力模块和n个第二解码器模块一一对应,图5以n=2为例,当然n也可以等于1、3等等。81.可选地,该模型可以是基于多任务学习的语音到语音翻译模型,且多任务包括:一个主任务和n个辅助任务,主任务是语音到语音的翻译任务,其中,上述第二注意力模块、第二解码器模块的数量与辅助任务数量一致,例如:n=2,即存在两个辅助任务,两个辅助任务可以分别是语音识别任务和语音到文本的翻译任务,但不限于此。该语音识别任务用于将源语言语音特征转换为源语言文本,该语音到文本的翻译任务用于将源语言语音特征转换为源语言文本,并将该源语言文本转换为目标语言文本。再例如:n=1,即存在一个辅助任务,该辅助任务可以是语音识别任务或语音到文本的翻译任务,但不限于此。第一注意力模块520和第一解码器模块530对应于主任务,而下面的每组第二注意力模块540和第二解码器模块550对应于一个辅助任务。第一解码器模块530主要用于预测合成目标语言语音特征。训练时,两个辅助任务接受编码器模块510的输入,并将预测的损失值以加权和的形式加入到主任务,测试时,第二解码器模块550不被使用。82.编码器模块510用于获取源语言语音特征,并对源语言语音特征进行处理,得到源语言语音特征对应的多组第一隐藏状态表示。83.可选地,图6为本技术实施例提供的另一种语音到语音翻译模型的示意图,如图6所示,编码器模块510包括:卷积神经网络子模块5101和第一转换器模块5102;卷积神经网络子模块5101用于获取源语言语音特征,并对源语言语音特征进行处理,得到源语言语音特征对应的第二隐藏状态表示;第一转换器模块5102用于获取第二隐藏状态表示,并对第二隐藏状态表示进行处理,得到多组第一隐藏状态表示。84.可选地,卷积神经网络子模块5101可以包括两层卷积神经网络层,但不限于此。例如,80通道的对数梅尔谱图输入卷积神经网络子模块5101之后,两层卷积神经网络层可以将80通道的对数梅尔谱图的长度映射为原来的四分之一,即假设之前80通道的对数梅尔谱图是通过100个向量表示,每个向量是80维的,那么经过两层卷积神经网络层处理之后,得到的是25个向量,为了与第一转换器模块5102中的隐藏单元数量保持一致,如隐藏单元数量是512,那么经过两层卷积神经网络层处理之后的25个向量的维数也是512,其中,这里可以将25个512维的向量理解为上述第二隐藏状态表示。85.可选地,第一转换器模块5102可以类似于图1所示的编码器结构,即该第一转换器模块5102可以包括6个转换器层,也可以包括12个转换器层,本技术对此不做限制,每个转换器层可以带有512隐藏单元,也就是说,经过通过转换器层输出的隐藏表示可以是512维的。每个转换器层可以包括包含两个子单元。第一个是采用多头自注意力机制的自注意力网络,这里的多头自注意力机制的自注意力网络可以是8头自注意力机制的自注意力网络,本技术对此不做限制。第二个是全连接的前馈网络,其中,前馈网络可以使用2048维的内部状态。这两个子单元都是用了残差连接和层归一化。经过第一转换器模块5102对第二隐藏状态表示的处理,可以得到n组第一隐藏状态表示,这里的n表示第一转换器模块5102所包括的转换器层的层数。86.结合上面的示例,假设卷积神经网络子模块5101输出的是25个512维的向量,那么经过第一转换器模块5102处理后,可以得到n组第一隐藏状态表示,每组第一隐藏状态表示也是25个512维的向量,其中,第一转换器模块5102的最后一层所得到的25个512维的向量可以输出给第一注意力模块520,中间层所得到的25个512维的向量可以输出给第二注意力模块540。87.第一注意力模块520用于获取多组第一隐藏状态表示中的一组第一隐藏状态表示以及第一解码器输出的各个时间步对应的第一向量,并对该组第一隐藏状态表示和各个时间步对应的第一向量进行处理,得到各个时间步对应的第一注意力表示。88.第一解码器模块530用于获取各个时间步对应的第二向量,并对各个时间步对应的第二向量进行处理,得到各个时间步对应的第一向量,将各个时间步对应的第一向量输出给第一注意力模块520,获取各个时间步对应的第一注意力表示,并对各个时间步对应的第一注意力表示进行处理,得到源语言语音特征对应的目标语言语音特征。89.可选地,如图6所示,第一解码器模块530包括:前处理网络(prenet)5301、第二转换器模块5302和后处理网络(postnet)5303;前处理网络5301用于获取各个时间步对应的第二向量,并对各个时间步对应的第二向量进行处理,得到各个时间步对应的第一向量,将各个时间步对应的第一向量输出给第一注意力模块;第二转换器模块5302用于获取各个时间步对应的第一注意力表示,并对各个时间步对应的第一注意力表示进行处理,得到各个时间步上的目标语言语音特征;后处理网络5303用于对各个时间步上的目标语言语音特征进行处理,得到源语言语音特征对应的目标语言语音特征。90.可选地,前处理网络5301的瓶颈(bottleneck)维数可以是32。91.结合上面的示例,在训练阶段,前处理网络5301可以获取80维的全0向量,该全0向量是第一个时间步对应的第二向量,前处理网络5301可以对全0向量进行处理,得到512维的全0向量,该全0向量是第一个时间步对应的第一向量,进一步地,前处理网络5301可以将该全0向量输入至第一注意力模块520,第一注意力模块520可以对该全0向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第一个时间步对应的第一注意力表示,更进一步地,第一注意力模块520将第一个时间步对应的第一注意力表示输入至第二转换器模块5302,第二转换器模块5302可以对第一个时间步对应的第一注意力表示进行处理,得到第一个时间步上的目标语言语音特征,该第一个时间步上的目标语言语音特征是预测得到的第一个时间步上的目标语言语音特征。此外,前处理网络5301还可以获取第一个时间步上的实际地目标语言语音特征,该第一个时间步上的实际地目标语言语音特征可以被理解为第二个时间步对应的第二向量,前处理网络5301可以对第二个时间步对应的第二向量进行处理,得到512维的向量,该512维的向量是第二个时间步对应的第一向量,进一步地,前处理网络5301可以将该第二个时间步对应的第一向量输入至第一注意力模块520,第一注意力模块520可以对该第二个时间步对应的第一向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第二个时间步对应的第一注意力表示,更进一步地,第一注意力模块520将第二个时间步对应的第一注意力表示输入至第二转换器模块5302,第二转换器模块5302可以对第二个时间步对应的第一注意力表示进行处理,得到第二个时间步上的目标语言语音特征,该第二个时间步上的目标语言语音特征是预测得到的第二个时间步上的目标语言语音特征。92.总之,前处理网络5301可以获取第i个时间步上的实际地目标语言语音特征,i=1,2……m,m是总共的时间步数。该第i个时间步上的实际地目标语言语音特征可以被理解为第i+1个时间步对应的第二向量,前处理网络5301可以对第i+1个时间步对应的第二向量进行处理,得到512维的向量,该512维的向量是第i+1个时间步对应的第一向量,进一步地,前处理网络5301可以将该第i+1个时间步对应的第一向量输入至第一注意力模块520,第一注意力模块520可以对该第i+1个时间步对应的第一向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第i+1个时间步对应的第一注意力表示,更进一步地,第一注意力模块520将第i+1个时间步对应的第一注意力表示输入至第二转换器模块5302,第二转换器模块5302可以对第i+1个时间步对应的第一注意力表示进行处理,得到第i+1个时间步上的目标语言语音特征。93.在测试阶段,前处理网络5301可以获取80维的全0向量,该全0向量是第一个时间步对应的第二向量,前处理网络5301可以对全0向量进行处理,得到512维的全0向量,该全0向量是第一个时间步对应的第一向量,进一步地,前处理网络5301可以将该全0向量输入至第一注意力模块520,第一注意力模块520可以对该全0向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第一个时间步对应的第一注意力表示,更进一步地,第一注意力模块520将第一个时间步对应的第一注意力表示输入至第二转换器模块5302,第二转换器模块5302可以对第一个时间步对应的第一注意力表示进行处理,得到第一个时间步上的目标语言语音特征,该第一个时间步上的目标语言语音特征是预测得到的第一个时间步上的目标语言语音特征。进一步地,前处理网络5301可以对第一个时间步上的预测地目标语言语音特征并对其进行处理,得到512维的向量,其中,第一个时间步上的预测地目标语言语音特征可以被理解为上述第二个时间步对应的第二向量,该512维的向量是第二个时间步对应的第一向量,进一步地,前处理网络5301可以将该第二个时间步对应的第一向量输入至第一注意力模块520,第一注意力模块520可以对该第二个时间步对应的第一向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第二个时间步对应的第一注意力表示,更进一步地,第一注意力模块520将第二个时间步对应的第一注意力表示输入至第二转换器模块5302,第二转换器模块5302可以对第二个时间步对应的第一注意力表示进行处理,得到第二个时间步上的目标语言语音特征。94.总之,前处理网络5301可以获取第i个时间步上的预测地目标语言语音特征,i=1,2……m,m是总共的时间步数。该第i个时间步上的预测地目标语言语音特征可以被理解为第i+1个时间步对应的第二向量,前处理网络5301可以对第i+1个时间步对应的第二向量进行处理,得到512维的向量,该512维的向量是第i+1个时间步对应的第一向量,进一步地,前处理网络5301可以将该第i+1个时间步对应的第一向量输入至第一注意力模块520,第一注意力模块520可以对该第i+1个时间步对应的第一向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第i+1个时间步对应的第一注意力表示,更进一步地,第一注意力模块520将第i+1个时间步对应的第一注意力表示输入至第二转换器模块5302,第二转换器模块5302可以对第i+1个时间步对应的第一注意力表示进行处理,得到第i+1个时间步上的目标语言语音特征。95.可选地,第二转换器模块5302可以将各个时间步上的目标语言语音特征输入给后处理网络5303,后处理网络5303可以对各个时间步上的目标语言语音特征进行加权求和,得到源语言语音特征对应的目标语言语音特征。96.可选地,第二转换器模块5302可以类似于图1所示的解码器结构,即该第二转换器模块5302可以包括6个转换器层,本技术对此不做限制,第二转换器模块5302可以与第一转换器模块5102采用相同的超参数。97.在对语音到语音翻译模型的训练阶段,第二注意力模块540用于获取多组第一隐藏状态表示中的一组第一隐藏状态表示以及第二注意力模块540对应的第二解码器输出的各个时间步对应的第三向量,并对该组第一隐藏状态表示和各个时间步对应的第三向量进行处理,得到各个时间步对应的第二注意力表示;98.第二注意力模块540对应的第二解码器模块550用于获取各个时间步对应的第四向量,并对各个时间步对应的第四向量进行处理,得到各个时间步对应的第三向量,将各个时间步对应的第三向量输出给第二注意力模块540,获取各个时间步对应的第二注意力表示,并对各个时间步对应的第二注意力表示进行处理,得到源语言语音特征对应的辅助表示。99.可选地,第二解码器模块550可以包括:前处理网络、第三转换器模块和后处理网络;前处理网络用于获取各个时间步对应的第四向量,并对各个时间步对应的第四向量进行处理,得到各个时间步对应的第三向量,将各个时间步对应的第三向量输出给第二注意力模块540;第三转换器模块用于获取各个时间步对应的第二注意力表示,并对各个时间步对应的第二注意力表示进行处理,得到各个时间步上的辅助表示;后处理网络用于对各个时间步上的辅助表示进行处理,得到源语言语音特征对应的辅助表示。100.可选地,前处理网络的瓶颈(bottleneck)维数可以是32。101.示例性地,在训练阶段,前处理网络5301可以获取80维的嵌入向量,该嵌入向量是第一个时间步对应的第四向量,前处理网络可以对向量进行处理,得到512维的向量,该向量是第一个时间步对应的第三向量,进一步地,前处理网络可以将该向量输入至第二注意力模块540,第二注意力模块540可以对该向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第一个时间步对应的第二注意力表示,更进一步地,第二注意力模块540将第一个时间步对应的第二注意力表示输入至第三转换器模块,第三转换器模块可以对第一个时间步对应的第二注意力表示进行处理,得到第一个时间步上的辅助表示,该第一个时间步上的辅助表示是预测得到的第一个时间步上的辅助表示。此外,前处理网络还可以获取第一个时间步上的实际地辅助表示,该第一个时间步上的实际地辅助表示可以被理解为第二个时间步对应的第四向量,前处理网络可以对第二个时间步对应的第四向量进行处理,得到512维的向量,该512维的向量是第二个时间步对应的第三向量,进一步地,前处理网络可以将该第二个时间步对应的第三向量输入至第二注意力模块540,第二注意力模块540可以对该第二个时间步对应的第三向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第二个时间步对应的第二注意力表示,更进一步地,第二注意力模块540将第二个时间步对应的第二注意力表示输入至第三转换器模块,第三转换器模块可以对第二个时间步对应的第二注意力表示进行处理,得到第二个时间步上的辅助表示,该第二个时间步上的辅助表示是预测得到的第二个时间步上的辅助表示。102.总之,前处理网络可以获取第i个时间步上的实际地辅助表示,i=1,2……m,m是总共的时间步数。该第i个时间步上的实际地辅助表示可以被理解为第i+1个时间步对应的第四向量,前处理网络可以对第i+1个时间步对应的第四向量进行处理,得到512维的向量,该512维的向量是第i+1个时间步对应的第三向量,进一步地,前处理网络可以将该第i+1个时间步对应的第三向量输入至第二注意力模块540,第二注意力模块540可以对该第i+1个时间步对应的第三向量以及从编码器模块510获取到的25个512维的向量进行处理,得到第i+1个时间步对应的第二注意力表示,更进一步地,第二注意力模块540将第i+1个时间步对应的第二注意力表示输入至第三转换器模块,第三转换器模块可以对第i+1个时间步对应的第二注意力表示进行处理,得到第i+1个时间步上的辅助表示。103.可选地,第三转换器模块可以将各个时间步上的辅助表示输入给后处理网络,后处理网络可以对各个时间步上的辅助表示进行加权求和,得到源语言语音特征对应的辅助表示。104.可选地,当辅助任务是语音识别任务时,上述辅助表示可以是语音识别结果,如源语言语音对应的源语言文本。当辅助任务是语音到文本的翻译任务时,上述辅助表示可以是语音翻译结果,如目标语言文本。105.应理解的是,本技术提供的语音到语音翻译模型是对现有的翻译器(translatotron)模型进行了相应的改进,具体是将翻译器(translatotron)模型中的长短期记忆网络(long short-term memory,lstm)替换为转换器模块,在本技术中,可以将该语音到语音翻译模型称为基于转换器的翻译器模型(transformer-based translatotron)。在lstm中每个时间步上的计算都是局部计算,而在转换器模块中,每个时间步上的计算都是全局计算,从而可以提高模型精度。106.应理解的是,本技术所提供的transformer-based translatotron可以不基于伪标注的语音到语音翻译样本进行训练,将采用这种训练方式的语音到语音模型可以称为基线系统。当然本技术所提供的transformer-based translatotron也可以基于伪标注的语音到语音翻译样本进行训练,将采用这种训练方式的语音到语音模型可以称为基线系统+ptla。107.本技术提供了语音翻译中常用的teden2zh数据集(英到中)来测试基线系统和基线系统+ptla的性能,具体如表1所示:108.表1109.方法s-pertp-bleudev-bleutest-bleu基线系统13.0644.577.011.2基线系统+ptla11.9348.6410.418.0110.其中,s-per表示语音识别任务在测试集上的音素识别错误率。tp-bleu表示语音到文本翻译任务在测试集上的基于的音素计算的双语互译质量辅助工具(bilingual evaluation understudy,bleu)。dev-bler表示主任务在开发集上的基于的音素计算的bleu。test-bleu表示主任务在测试集上的基于的音素计算的bleu。111.从表1中可以看出,基线系统可以在复杂的语向翻译上取得良好性能,基线系统+ptla方案可以有效提升模型表现。112.下面将提供一种语音到语音翻译方法:113.图7为本技术实施例提供的一种语音到语音翻译方法的流程图,该方法可以由手机、平板电脑、笔记本电脑、掌上电脑、mid、台式电脑等任何电子设备执行,例如可以由图2中的执行设备执行,本技术对此不做限制,如图7所示,该方法包括:114.s710:获取源语言语音特征;115.s720:将源语言语音特征输入至语音到语音翻译模型,得到源语言语音特征对应的目标语言语音特征。116.应理解的是,该语音到语音翻译模型可以由上述模型训练方法训练得到,由于通过上述训练方法所得到的语音到语音翻译模型精度更高,基于此,可以更好地实现语音到语音翻译。117.图8为本技术实施例提供的一种模型训练装置800的示意图,如图8所示,该装置800包括:获取模块810、生成模块820和训练模块830,其中,获取模块810用于获取语音识别样本和真实的语音到语音翻译样本;生成模块820用于根据语音识别样本生成伪标注的语音到语音翻译样本;训练模块830用于根据伪标注的语音到语音翻译样本和真实的语音到语音翻译样本训练语音到语音翻译模型。118.可选地,训练模块830具体用于:根据伪标注的语音到语音翻译样本预训练语音到语音翻译模型,并根据真实的语音到语音翻译样本微调预训练后的语音到语音翻译模型。119.可选地,训练模块830具体用于:通过真实的语音到语音翻译样本微调预训练后的语音到语音翻译模型;或者,根据真实的语音到语音翻译样本和伪标注的语音到语音翻译样本微调预训练后的语音到语音翻译模型。120.可选地,该装置800还包括:标注模块840,用于在根据真实的语音到语音翻译样本和伪标注的语音到语音翻译样本微调预训练后的语音到语音翻译模型之前,对真实的语音到语音翻译样本标注第一标签,第一标签用于标识真实的语音到语音翻译样本为真实样本;对伪标注的语音到语音翻译样本标注第二标签,第二标签用于标识伪标注的语音到语音翻译样本为伪标注样本。121.可选地,训练模块830具体用于:对真实的语音到语音翻译样本进行上采样,得到上采样后的语音到语音翻译样本;通过上采样后的语音到语音翻译样本和伪标注的语音到语音翻译样本微调预训练后的语音到语音翻译模型。122.可选地,真实的语音到语音翻译样本包括:第一源语言语音特征、第一源语言文本、第一目标语言语音特征和第一目标语言文本;语音识别样本包括:第二源语言语音特征和第二源语言文本。123.可选地,生成模块820具体用于:对第二源语言文本进行翻译,得到第二目标语言文本;对第二目标语言文本进行合成,得到第二目标语言语音特征;其中,伪标注的语音到语音翻译样本包括:第二源语言语音特征、第二源语言文本、第二目标语言文本和第二目标语言语音特征。124.可选地,语音到语音翻译模型包括:编码器模块、第一注意力模块、第一解码器模块、n个第二注意力模块和n个第二解码器模块,n为正整数,n个第二注意力模块和n个第二解码器模块一一对应;125.编码器模块用于获取源语言语音特征,并对源语言语音特征进行处理,得到源语言语音特征对应的多组第一隐藏状态表示;126.第一注意力模块用于获取多组第一隐藏状态表示中的一组第一隐藏状态表示以及第一解码器输出的各个时间步对应的第一向量,并对该组第一隐藏状态表示和各个时间步对应的第一向量进行处理,得到各个时间步对应的第一注意力表示;127.第一解码器模块用于获取各个时间步对应的第二向量,并对各个时间步对应的第二向量进行处理,得到各个时间步对应的第一向量,将各个时间步对应的第一向量输出给第一注意力模块,获取各个时间步对应的第一注意力表示,并对各个时间步对应的第一注意力表示进行处理,得到源语言语音特征对应的目标语言语音特征;128.在对语音到语音翻译模型的训练阶段,第二注意力模块用于获取多组第一隐藏状态表示中的一组第一隐藏状态表示以及第二注意力模块对应的第二解码器输出的各个时间步对应的第三向量,并对该组第一隐藏状态表示和各个时间步对应的第三向量进行处理,得到各个时间步对应的第二注意力表示;129.第二注意力模块对应的第二解码器模块用于获取各个时间步对应的第四向量,并对各个时间步对应的第四向量进行处理,得到各个时间步对应的第三向量,将各个时间步对应的第三向量输出给第二注意力模块,获取各个时间步对应的第二注意力表示,并对各个时间步对应的第二注意力表示进行处理,得到源语言语音特征对应的辅助表示。130.可选地,编码器模块包括:卷积神经网络子模块和第一转换器模块;卷积神经网络子模块用于获取源语言语音特征,并对源语言语音特征进行处理,得到源语言语音特征对应的第二隐藏状态表示;第一转换器模块用于获取第二隐藏状态表示,并对第二隐藏状态表示进行处理,得到多组第一隐藏状态表示。131.可选地,第一解码器模块包括:前处理网络、第二转换器模块和后处理网络;前处理网络用于获取各个时间步对应的第二向量,并对各个时间步对应的第二向量进行处理,得到各个时间步对应的第一向量,将各个时间步对应的第一向量输出给第一注意力模块;第二转换器模块用于获取各个时间步对应的第一注意力表示,并对各个时间步对应的第一注意力表示进行处理,得到各个时间步上的目标语言语音特征;后处理网络用于对各个时间步上的目标语言语音特征进行处理,得到源语言语音特征对应的目标语言语音特征。132.应理解的是,装置实施例与方法实施例可以相互对应,类似的描述可以参照方法实施例。为避免重复,此处不再赘述。具体地,图8所示的装置800可以执行上述模型训练方法实施例,并且装置800中的各个模块的前述和其它操作和/或功能分别为了实现上述模型训练方法中的相应流程,为了简洁,在此不再赘述。133.上文中结合附图从功能模块的角度描述了本技术实施例的装置800。应理解,该功能模块可以通过硬件形式实现,也可以通过软件形式的指令实现,还可以通过硬件和软件模块组合实现。具体地,本技术实施例中的方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路和/或软件形式的指令完成,结合本技术实施例公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。可选地,软件模块可以位于随机存储器,闪存、只读存储器、可编程只读存储器、电可擦写可编程存储器、寄存器等本领域的成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述模型训练方法实施例中的步骤。134.图9为本技术实施例提供的一种语音到语音翻译装置900的示意图,如图9所示,该装置900包括:获取模块910和处理模块920,其中,获取模块910用于获取源语言语音特征;处理模块920用于将源语言语音特征输入至通过上述模型训练方法训练得到的语音到语音翻译模型,得到源语言语音特征对应的目标语言语音特征。135.应理解的是,装置实施例与方法实施例可以相互对应,类似的描述可以参照方法实施例。为避免重复,此处不再赘述。具体地,图9所示的装置900可以执行上述语音到语音翻译方法实施例,并且装置900中的各个模块的前述和其它操作和/或功能分别为了实现上述语音到语音翻译方法中的相应流程,为了简洁,在此不再赘述。136.上文中结合附图从功能模块的角度描述了本技术实施例的装置900。应理解,该功能模块可以通过硬件形式实现,也可以通过软件形式的指令实现,还可以通过硬件和软件模块组合实现。具体地,本技术实施例中的方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路和/或软件形式的指令完成,结合本技术实施例公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。可选地,软件模块可以位于随机存储器,闪存、只读存储器、可编程只读存储器、电可擦写可编程存储器、寄存器等本领域的成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述语音到语音翻译方法实施例中的步骤。137.图10是本技术实施例提供的电子设备1000的示意性框图。138.如图10所示,该电子设备1000可包括:139.存储器1010和处理器1020,该存储器1010用于存储计算机程序,并将该程序代码传输给该处理器1020。换言之,该处理器1020可以从存储器1010中调用并运行计算机程序,以实现本技术实施例中的方法。140.例如,该处理器1020可用于根据该计算机程序中的指令执行上述方法实施例。141.在本技术的一些实施例中,该处理器1020可以包括但不限于:142.通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等等。143.在本技术的一些实施例中,该存储器1010包括但不限于:144.易失性存储器和/或非易失性存储器。其中,非易失性存储器可以是只读存储器(read-only memory,rom)、可编程只读存储器(programmable rom,prom)、可擦除可编程只读存储器(erasable prom,eprom)、电可擦除可编程只读存储器(electrically eprom,eeprom)或闪存。易失性存储器可以是随机存取存储器(random access memory,ram),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的ram可用,例如静态随机存取存储器(static ram,sram)、动态随机存取存储器(dynamic ram,dram)、同步动态随机存取存储器(synchronous dram,sdram)、双倍数据速率同步动态随机存取存储器(double data rate sdram,ddr sdram)、增强型同步动态随机存取存储器(enhanced sdram,esdram)、同步连接动态随机存取存储器(synch link dram,sldram)和直接内存总线随机存取存储器(direct rambus ram,dr ram)。145.在本技术的一些实施例中,该计算机程序可以被分割成一个或多个模块,该一个或者多个模块被存储在该存储器1010中,并由该处理器1020执行,以完成本技术提供的方法。该一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述该计算机程序在该电子设备中的执行过程。146.如图10所示,该电子设备还可包括:147.收发器1030,该收发器1030可连接至该处理器1020或存储器1010。148.其中,处理器1020可以控制该收发器1030与其他设备进行通信,具体地,可以向其他设备发送信息或数据,或接收其他设备发送的信息或数据。收发器1030可以包括发射机和接收机。收发器1030还可以进一步包括天线,天线的数量可以为一个或多个。149.应当理解,该电子设备中的各个组件通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。150.本技术还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被计算机执行时使得该计算机能够执行上述方法实施例的方法。或者说,本技术实施例还提供一种包含指令的计算机程序产品,该指令被计算机执行时使得计算机执行上述方法实施例的方法。151.当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本技术实施例该的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,dsl))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如数字视频光盘(digital video disc,dvd))、或者半导体介质(例如固态硬盘(solid state disk,ssd))等。152.本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。153.在本技术所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。154.作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。例如,在本技术各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。155.以上该,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以该权利要求的保护范围为准。
图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!
内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!
模型训练方法、语音到语音翻译方法、装置及介质与流程
作者:admin
2022-07-30 22:19:50
680
- 下一篇: 一种基于电力大数据的电力系统信息处理系统的制作方法
- 上一篇: 一种冲牙器的制作方法