首页 > 乐器声学 专利正文
基于深度学习的语音音质增强方法、装置和系统与流程

时间:2022-02-13 阅读: 作者:专利查询

基于深度学习的语音音质增强方法、装置和系统与流程
基于深度学习的语音音质增强方法、装置和系统
1.本技术是2018年6月5日提出的第201810583123.0号中国专利申请的分案申请。
技术领域
2.本发明涉及音质优化技术领域,更具体地涉及一种基于深度学习的语音音质增强方法、装置和系统。


背景技术:

3.近年来,语音无线通信飞速发展,目前广泛应用于各种民用和工业领域。无线通信受带宽限制,要求对语音编码压缩,尽可能地降低语音的采样频率和码率。语音编码尽管降低了语音质量,但也极大节省了资源。早期的数字语音通信编码,如全球移动通信系统

半速率(gms

hr),码率在6.5kbps左右,采用8khz的采样频率,实际带宽小于4k,损失了很多高频信息,使得人声缺乏辨识度,只能满足基本的语音通信需求。
4.随着人们对音质的需求越来越高,低码率低质量语音音质已不能满足需求。随着网络带宽提升,更高码率质量的语音通信也成为了可能。例如,增强语音服务(evs)编码技术可能达到48k采样频率和128kbps的码率。但是这并不意味着所有用户都能享受到高清语音通信的体验,例如这样的场景:打电话用户的运营商支持4g网络,而接电话用户的运营商只支持3g网络,那么双方可能只能选择自适应多速率编码

窄带(amr

nb)编码方式进行语音编码,而不是例如16khz采样频率的自适应多速率编码

宽带(amr

wb)编码方式。由于存在这些因为硬件条件而不得不采用低质量码率语音的场景存在,并不是所有人都能享受到高清语音通信的好处。
5.另一方面,在保持音质情况下尽可能降低编码码率,也是语音通信的主要研究方向。因此,在有限的存储和带宽资源限制下,通过数字信号处理方法,对低质量码率语音进行重构,使其音质接近高质量语音是一个有价值的研究方向。然而,目前用软件方法进行低质量码率语音重构尚无相应可行方案。对于低质量码率语音的重构,通常是采取填充或插值数据的方法,但这种方法过于粗糙,基本无法还原高质量语音的音质。


技术实现要素:

6.为了解决上述问题中的至少一个而提出了本发明。本发明提出了一种关于基于深度学习的语音音质增强的方案,其基于深度学习方法对低质量语音音质进行增强,使低质量语音音质通过深层神经网络重构达到高质量语音的音质,从而能够实现传统方法无法达到的音质提升效果。下面简要描述本发明提出的关于基于深度学习的语音音质增强的方案,更多细节将在后续结合附图在具体实施方式中加以描述。
7.根据本发明一方面,提供了一种基于深度学习的语音音质增强方法,所述方法包括:获取待处理语音数据,并对所述待处理语音数据进行特征提取以得到所述待处理语音数据的特征;以及基于所述待处理语音数据的特征,利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音数据,其中所述输出语音数据的语音质量高于所述待处
理语音数据的语音质量。
8.在本发明的一个实施例中,所述语音重构神经网络的训练包括:获取第一语音样本和第二语音样本,其中所述第二语音样本的语音质量低于所述第一语音样本的语音质量,且所述第二语音样本由所述第一语音样本通过转码而得到;对所述第一语音样本和所述第二语音样本分别进行特征提取以分别得到所述第一语音样本的特征和所述第二语音样本的特征;以及将得到的所述第二语音样本的特征作为所述语音重构神经网络的输入层的输入,并将得到的所述第一语音样本的特征作为所述语音重构神经网络的输出层的目标,以训练所述语音重构神经网络。
9.在本发明的一个实施例中,所述第一语音样本具有第一码率,所述第二语音样本具有第二码率,所述第一码率高于或等于所述第二码率。
10.在本发明的一个实施例中,所述第一语音样本具有第一采样频率,所述第二语音样本具有第二采样频率,所述第一采样频率高于或等于所述第二采样频率。
11.在本发明的一个实施例中,所述特征提取得到的特征包括频域幅度和/或能量信息。
12.在本发明的一个实施例中,所述特征提取得到的特征还包括频谱相位信息。
13.在本发明的一个实施例中,所述特征提取的方式包括短时傅里叶变换。
14.在本发明的一个实施例中,所述语音重构神经网络的训练还包括:在对所述第一语音样本和所述第二语音样本进行特征提取之前,对所述第一语音样本和所述第二语音样本分别进行分帧,并且所述特征提取是针对分帧后得到的语音样本逐帧进行的。
15.在本发明的一个实施例中,所述语音重构神经网络的训练还包括:在对所述第一语音样本和所述第二语音样本进行分帧之前,将所述第一语音样本和所述第二语音样本分别解码为时域波形数据,并且所述分帧是针对解码后得到的时域波形数据进行的。
16.在本发明的一个实施例中,所述利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音数据包括:将所述待处理语音数据的特征作为所述训练好的语音重构神经网络的输入,并由所述训练好的语音重构神经网络输出重构语音特征;以及基于所述重构语音特征生成时域语音波形以作为所述输出语音数据。
17.根据本发明另一方面,提供了一种基于深度学习的语音音质增强装置,所述装置包括:特征提取模块,用于获取待处理语音数据,并对所述待处理语音数据进行特征提取以得到所述待处理语音数据的特征;以及语音重构模块,用于基于所述特征提取模块提取的所述待处理语音数据的特征,利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音数据,其中所述输出语音数据的语音质量高于所述待处理语音数据的语音质量。
18.在本发明的一个实施例中,所述语音重构神经网络的训练包括:获取第一语音样本和第二语音样本,其中所述第二语音样本的语音质量低于所述第一语音样本的语音质量,且所述第二语音样本由所述第一语音样本通过转码而得到;对所述第一语音样本和所述第二语音样本分别进行特征提取以分别得到所述第一语音样本的特征和所述第二语音样本的特征;以及将得到的所述第二语音样本的特征作为所述语音重构神经网络的输入层的输入,并将得到的所述第一语音样本的特征作为所述语音重构神经网络的输出层的目标,以训练所述语音重构神经网络。
19.在本发明的一个实施例中,所述第一语音样本具有第一码率,所述第二语音样本具有第二码率,所述第一码率高于或等于所述第二码率。
20.在本发明的一个实施例中,所述第一语音样本具有第一采样频率,所述第二语音样本具有第二采样频率,所述第一采样频率高于或等于所述第二采样频率。
21.在本发明的一个实施例中,所述特征提取得到的特征包括频域幅度和/或能量信息。
22.在本发明的一个实施例中,所述特征提取得到的特征还包括频谱相位信息。
23.在本发明的一个实施例中,所述特征提取的方式包括短时傅里叶变换。
24.在本发明的一个实施例中,所述语音重构神经网络的训练还包括:在对所述第一语音样本和所述第二语音样本进行特征提取之前,对所述第一语音样本和所述第二语音样本分别进行分帧,并且所述特征提取是针对分帧后得到的语音样本逐帧进行的。
25.在本发明的一个实施例中,所述语音重构神经网络的训练还包括:在对所述第一语音样本和所述第二语音样本进行分帧之前,将所述第一语音样本和所述第二语音样本分别解码为时域波形数据,并且所述分帧是针对解码后得到的时域波形数据进行的。
26.在本发明的一个实施例中,所述语音重构模块进一步包括:重构模块,用于将所述待处理语音数据的特征作为所述训练好的语音重构神经网络的输入,并由所述训练好的语音重构神经网络输出重构语音特征;以及生成模块,用于基于所述重构模块输出的所述重构语音特征生成时域语音波形以作为所述输出语音数据。
27.根据本发明又一方面,提供了一种基于深度学习的语音音质增强系统,所述系统包括存储装置和处理器,所述存储装置上存储有由所述处理器运行的计算机程序,所述计算机程序在被所述处理器运行时执行上述任一项所述的基于深度学习的语音音质增强方法。
28.根据本发明再一方面,提供了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序在运行时执行上述任一项所述的基于深度学习的语音音质增强方法。
29.根据本发明又一方面,提供了一种计算机程序,所述计算机程序被计算机或处理器运行时用于执行上述任一项所述的基于深度学习的语音音质增强方法,所述计算机程序还用于实现上述任一项所述的基于深度学习的语音音质增强装置中的各模块。
30.根据本发明实施例的基于深度学习的语音音质增强方法、装置和系统基于深度学习方法对低质量语音音质进行增强,使低质量语音音质通过深层神经网络重构达到高质量语音的音质,从而能够实现传统方法无法达到的音质提升效果。此外,根据本发明实施例的基于深度学习的语音音质增强方法、装置和系统可以便利地部署在服务端或用户端,能够高效地实现语音音质的增强。
附图说明
31.通过结合附图对本发明实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与本发明实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
32.图1示出用于实现根据本发明实施例的基于深度学习的语音音质增强方法、装置
和系统的示例电子设备的示意性框图;
33.图2示出根据本发明实施例的基于深度学习的语音音质增强方法的示意性流程图;
34.图3示出根据本发明实施例的语音重构神经网络的训练示意图;
35.图4a、图4b以及4c分别示出高质量语音、低质量语音、以及采用根据本发明实施例的基于深度学习的语音音质增强方法将低质量语音重构所得到的语音各自的语谱图;
36.图5示出根据本发明实施例的基于深度学习的语音音质增强装置的示意性框图;以及
37.图6示出根据本发明实施例的基于深度学习的语音音质增强系统的示意性框图。
具体实施方式
38.为了使得本发明的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。基于本发明中描述的本发明实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本发明的保护范围之内。
39.首先,参照图1来描述用于实现本发明实施例的基于深度学习的语音音质增强方法、装置和系统的示例电子设备100。
40.如图1所示,电子设备100包括一个或多个处理器102、一个或多个存储装置104、输入装置106以及输出装置108,这些组件通过总线系统110和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
41.所述处理器102可以是中央处理单元(cpu)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
42.所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(ram)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(rom)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
43.所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。此外,所述输入装置106也可以是任何接收信息的接口。
44.所述输出装置108可以向外部(例如用户)输出各种信息(例如图像或声音),并且可以包括显示器、扬声器等中的一个或多个。此外,所述输出装置108也可以是任何其他具备输出功能的设备。
45.示例性地,用于实现根据本发明实施例的基于深度学习的语音音质增强方法、装
置和系统的示例电子设备可以被实现诸如智能手机、平板电脑等终端。
46.下面,将参考图2描述根据本发明实施例的基于深度学习的语音音质增强方法200。如图2所示,基于深度学习的语音音质增强方法200可以包括如下步骤:
47.在步骤s210,获取待处理语音数据,并对所述待处理语音数据进行特征提取以得到所述待处理语音数据的特征。
48.在一个实施例中,在步骤s210中所获取的待处理语音数据可以为语音通信终端、语音存储/播放设备中接收、存储或播放的需要进行音质增强的低质量语音数据,例如低码率、低采样频率的语音数据。示例性地,待处理语音数据可以包括但不限于:无线语音通话的数据流、用户正在播放的在列表中的语音、或存储在云端、客户端的语音文件等。在其他示例中,在步骤s210中所获取的待处理语音数据也可以为任何需要进行音质增强的数据,例如包括在视频数据中的语音数据等。此外,在步骤s210中所获取的待处理语音数据可以来自离线存放的文件,也可以来自在线播放的文件。
49.在一个实施例中,对所获取的待处理语音数据进行特征提取的方式可以包括但不限于短时傅里叶变换(stft)。示例性地,对所获取的待处理语音数据进行特征提取所得到的待处理语音数据的特征可以包括频域幅度和/或能量信息。示例性地,对所获取的待处理语音数据进行特征提取所得到的待处理语音数据的特征还可以包括频谱相位信息。示例性地,对所获取的待处理语音数据进行特征提取所得到的待处理语音数据的特征也可以是时域特征。在其他示例中,对所获取的待处理语音数据进行特征提取所得到的待处理语音数据的特征还可以包括任何其他可以表征待处理语音数据的特征。
50.在一个实施例中,在对待处理语音数据进行特征提取之前,可以先对其进行分帧处理,并且前述的特征提取针对分帧后得到语音数据逐帧进行。这种情况可以适用于在步骤s210所获取的待处理语音数据是来自于离线存放的文件或来自于任何源的完整文件时。在另一个实施例中,如果在步骤s210所获取的待处理语音数据来自于在线播放的文件,则可以缓存一帧或多帧待处理语音数据后再进行特征提取。示例性地,可以针对分帧后得到的或缓存后得到的每帧待处理语音数据选择部分数据进行特征提取,这样可以有效减少数据量,提高处理效率。
51.在又一个实施例中,在对待处理语音数据进行前述的分帧处理之前,可以先对待处理语音数据进行解码处理,并且前述的分帧处理可以针对解码后得到的时域波形数据进行。这是因为,所获取的待处理语音数据一般为经过编码的形式,为了获得其完整的语音时域信息,可先对其进行解码。
52.在又一个实施例中,在对待处理语音数据进行特征提取之前,还可以先对待处理语音数据进行预处理,并且前述的特征提取可以针对预处理后得到的语音数据进行。示例性地,对待处理语音数据的预处理可以包括但不限于:去噪、回声抑制和自动增益控制等。示例性地,预处理可以是在前述解码处理之后进行。因此,在一个示例中,可以对所获取的待处理语音数据依次进行解码、预处理、分帧和特征提取,以高效地提取具有很好代表性的特征。在其他示例中,前述的预处理操作也可以在分帧之后特征提取之前进行。
53.现在继续参考图2,描述根据本发明实施例的基于深度学习的语音音质增强方法200的后续步骤。
54.在步骤s220,基于所述待处理语音数据的特征,利用训练好的语音重构神经网络
将所述待处理语音数据重构为输出语音数据,其中所述输出语音数据的语音质量高于所述待处理语音数据的语音质量。
55.在本发明的实施例中,将在步骤s210中提取的待处理语音数据的特征输入到训练好的语音重构神经网络,由该语音重构神经网络对输入的特征进行重构得到重构语音特征,该重构得到的重构语音特征可以用于生成相对于所获取的待处理语音数据语音质量更高的输出语音数据。因此,本发明的语音音质增强方法可以基于深度学习精确地补充低质量语音中丢失的语音信息,不仅能够高效地实现低质量语音音质的极大提升,又不影响对通信带宽的兼顾(因为传输的仍然是数据量较小的低质量语音数据,但该低质量语音数据可在接收端被重构为高质量语音数据)。
56.下面结合图3描述根据本发明实施例的上述语音重构神经网络的训练过程。如图3所示,根据本发明实施例的语音重构神经网络的训练可以包括如下过程:
57.在s310,获取第一语音样本和第二语音样本,其中所述第二语音样本的语音质量低于所述第一语音样本的语音质量,且所述第二语音样本由所述第一语音样本通过转码而得到。
58.在一个示例中,第一语音样本可以是高质量语音样本,第二语音样本可以是低质量语音样本。示例性地,第一语音样本可以是一组高码率、高采样频率的语音样本,包括但不限于16khz、24khz、32khz采样频率的语音数据。在一个示例中,可以将第一语音样本进行转码以获得第二语音样本。例如,可以将采样频率为16khz、码率为23.85kbps的amr

wb语音样本作为第一语音样本,通过将其转码为采样频率为8khz、码率为12.2kbps的amr

nb语音来得到第二语音样本。再如,可以通过将flac格式的第一语音样本变换为mp3格式来得到第二语音样本,而不降低码率和采样频率。也就是说,第一语音样本的码率可以高于或等于第二语音样本的码率;第一语音样本的采样频率可以高于或等于第二语音样本的采样频率。当然,这仅是示例性的。第一语音样本(即高质量语音样本)转码得到第二语音样本(即低质量语音样本)也可以是其他的情况,这可以基于实际应用场景来适应性调整。具体地,可以基于对步骤s210获取的待处理语音数据的重构需求来确定应选择的第一语音样本和第二语音样本,也就是说可以基于上述重构需求确定应选择的第一语音样本和应采用的将其转码为第二语音样本的转码方式。
59.继续参考图3,在s320,对所述第一语音样本和所述第二语音样本分别进行特征提取以分别得到所述第一语音样本的特征和所述第二语音样本的特征。
60.与前文在步骤s210中所描述的类似的,在一个实施例中,对第一语音样本和第二语音样本各自进行特征提取的方式可以包括但不限于短时傅里叶变换。示例性地,对第一语音样本和第二语音样本各自进行特征提取所得到的特征可以包括其各自的频域幅度和/或能量信息。示例性地,对第一语音样本和第二语音样本进行特征提取所得到的特征还可以包括其各自的频谱相位信息。示例性地,对第一语音样本和第二语音样本进行特征提取所得到的特征也可以是其各自的时域特征。在其他示例中,对第一语音样本和第二语音样本各自进行特征提取所得到的特征还可以包括任何其他可以表征其各自的特征。
61.此外,仍与前文在步骤s210中所描述的类似的,在一个实施例中,在对第一语音样本和第二语音样本各自进行特征提取之前,可以先对第一语音样本和第二语音样本各自进行分帧处理,并且前述的特征提取可以针对第一语音样本和第二语音样本各自分帧后得到
的其各自的语音样本逐帧进行。示例性地,可以针对每帧语音样本选择部分数据进行特征提取,这样可以有效减少数据量,提高处理效率。
62.在又一个实施例中,在对第一语音样本和第二语音样本各自进行前述的分帧处理之前,可以先对第一语音样本和第二语音样本各自进行解码处理,并且前述的分帧处理可以针对第一语音样本和第二语音样本各自解码后得到的其各自的时域波形数据进行。
63.在又一个实施例中,在对第一语音样本和第二语音样本进行特征提取之前,还可以先对第一语音样本和第二语音样本各自进行预处理,并且前述的特征提取可以针对预处理后得到的语音样本进行。示例性地,对第一语音样本和第二语音样本各自进行的预处理可以包括但不限于:去噪、回声抑制和自动增益控制等。示例性地,预处理可以是前述解码处理之后进行。因此,在一个示例中,可以对第一语音样本和第二语音样本各自依次进行解码、预处理、分帧和特征提取,以高效地提取具有很好代表性的特征。在其他示例中,前述的预处理操作也可以在对第一语音样本和第二语音样本分别分帧之后特征提取之前进行。
64.在s330,将得到的所述第二语音样本的特征作为所述语音重构神经网络的输入层的输入,并将得到的所述第一语音样本的特征作为所述语音重构神经网络的输出层的目标,以训练所述语音重构神经网络。
65.在一个实施例中,可以将一帧或多帧第二语音样本的特征作为语音重构神经网络的输入层的输入,可以将一帧或多帧第一语音样本的特征作为语音重构神经网络的输出层的目标,从而训练一个神经网络回归器作为在步骤s220中采用的语音重构神经网络。
66.以上结合图3示例性地描述了根据本发明实施例的语音重构神经网络的训练过程。现在继续参考图2,如前所述,在步骤s220中,基于训练好的语音重构神经网络,可将待处理语音数据的特征重构为重构语音特征,由于该重构语音特征为频域特征,因此可基于该重构语音特征生成时域语音波形输出。示例性地,可以通过傅里叶逆变换来对该重构语音特征进行变换得到时域语音波形。输出的语音波形可被存储或经缓存用于播放,从而为用户提供更好的经提升的语音音质体验。下面可以结合图4a

图4c来体会根据实施例的基于深度学习的语音音质增强方法的语音音质增强效果。
67.图4a、图4b以及4c分别示出高质量语音、低质量语音、以及采用根据本发明实施例的基于深度学习的语音音质增强方法将低质量语音重构所得到的语音各自的语谱图。其中,图4a示出以pcm格式、16khz采样频率、16bit量化位数为例的高质量语音的语谱图400;图4b示出对该高质量语音进行转码得到的mp3格式、8khz采样频率、8kbps码率的低质量语音的语谱图401;图4c示出采用根据本发明实施例的基于深度学习的语音音质增强方法将该低质量语音重构得到的16khz采样频率的重构语音的语谱图402。从图4a

图4c很明显可以看出,与图4a示出的高质量语音的语谱图相比,图4b示出的低质量语音的语谱图缺少了很多高频成分,而经过根据本发明实施例的基于深度学习的语音音质增强方法的重构,图4c示出的重构语音的语谱图又恢复了这些高频成分,实现窄带语音的超分辨率,使得低质量语音的音质得到了较好的提升。
68.基于上面的描述,根据本发明实施例的基于深度学习的语音音质增强方法基于深度学习方法对低质量语音音质进行增强,使低质量语音音质通过深层神经网络重构达到高质量语音的音质,从而能够实现传统方法无法达到的音质提升效果。
69.以上示例性地描述了根据本发明实施例的基于深度学习的语音音质增强方法。示
例性地,根据本发明实施例的基于深度学习的语音音质增强方法可以在具有存储器和处理器的设备、装置或者系统中实现。
70.此外,根据本发明实施例的基于深度学习的语音音质增强方法可以方便地部署到智能手机、平板电脑、个人计算机、耳机、音箱等移动设备上。替代地,根据本发明实施例的基于深度学习的语音音质增强方法还可以部署在服务器端(或云端)。替代地,根据本发明实施例的基于深度学习的语音音质增强方法还可以分布地部署在服务器端(或云端)和个人终端处。
71.下面结合图5描述本发明另一方面提供的基于深度学习的语音音质增强装置。图5示出了根据本发明实施例的基于深度学习的语音音质增强装置500的示意性框图。
72.如图5所示,根据本发明实施例的基于深度学习的语音音质增强装置500包括特征提取模块510和语音重构模块520。所述各个模块可分别执行上文中结合图2描述的基于深度学习的语音音质增强方法的各个步骤/功能。以下仅对基于深度学习的语音音质增强装置500的各模块的主要功能进行描述,而省略以上已经描述过的细节内容。
73.特征提取模块510用于获取待处理语音数据,并对所述待处理语音数据进行特征提取以得到所述待处理语音数据的特征。语音重构模块520用于基于所述特征提取模块提取的所述待处理语音数据的特征,利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音数据,其中所述输出语音数据的语音质量高于所述待处理语音数据的语音质量。特征提取模块510和语音重构模块520均可以由图1所示的电子设备中的处理器102运行存储装置104中存储的程序指令来实现。
74.在一个实施例中,特征提取模块510所获取的待处理语音数据可以为语音通信终端、语音存储/播放设备中接收、存储或播放的需要进行音质增强的低质量语音数据,例如低码率、低采样频率的语音数据。示例性地,待处理语音数据可以包括但不限于:无线语音通话的数据流、用户正在播放的在列表中的语音、或存储在云端、客户端的语音文件等。在其他示例中,特征提取模块510所获取的待处理语音数据也可以为任何需要进行音质增强的数据,例如包括在视频数据中的语音数据等。此外,特征提取模块510所获取的待处理语音数据可以来自离线存放的文件,也可以来自在线播放的文件。
75.在一个实施例中,特征提取模块510对所获取的待处理语音数据进行特征提取的方式可以包括但不限于短时傅里叶变换(stft)。示例性地,特征提取模块510对所获取的待处理语音数据进行特征提取所得到的待处理语音数据的特征可以包括频域幅度和/或能量信息。示例性地,特征提取模块510对所获取的待处理语音数据进行特征提取所得到的待处理语音数据的特征还可以包括频谱相位信息。示例性地,特征提取模块510对所获取的待处理语音数据进行特征提取所得到的待处理语音数据的特征也可以是时域特征。在其他示例中,特征提取模块510对所获取的待处理语音数据进行特征提取所得到的待处理语音数据的特征还可以包括任何其他可以表征待处理语音数据的特征。
76.在一个实施例中,在特征提取模块510对待处理语音数据进行特征提取之前,可以先对其进行分帧处理,并且前述的特征提取针对分帧后得到语音数据逐帧进行。这种情况可以适用于在特征提取模块510所获取的待处理语音数据是来自于离线存放的文件或来自于任何源的完整文件时。在另一个实施例中,如果特征提取模块510所获取的待处理语音数据来自于在线播放的文件,则可以缓存一帧或多帧待处理语音数据后再进行特征提取。示
例性地,特征提取模块510可以针对分帧后得到的或缓存后得到的每帧待处理语音数据选择部分数据进行特征提取,这样可以有效减少数据量,提高处理效率。
77.在又一个实施例中,在特征提取模块510对待处理语音数据进行前述的分帧处理之前,可以先对待处理语音数据进行解码处理,并且前述的分帧处理可以针对解码后得到的时域波形数据进行。这是因为,所获取的待处理语音数据一般为经过编码的形式,为了获得其完整的语音时域信息,可先对其进行解码。
78.在又一个实施例中,在特征提取模块510对待处理语音数据进行特征提取之前,还可以先对待处理语音数据进行预处理,并且前述的特征提取可以针对预处理后得到的语音数据进行。示例性地,特征提取模块510对待处理语音数据的预处理可以包括但不限于:去噪、回声抑制和自动增益控制等。示例性地,预处理可以是在前述解码处理之后进行。因此,在一个示例中,特征提取模块510可以对所获取的待处理语音数据依次进行解码、预处理、分帧和特征提取,以高效地提取具有很好代表性的特征。在其他示例中,前述的预处理操作也可以在分帧之后特征提取之前进行。
79.基于特征提取模块510所提取的待处理语音数据的特征,语音重构模块520可以利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音数据。
80.在本发明的实施例中,语音重构模块520可以进一步包括重构模块(未在图5中示出)和生成模块(未在图5中示出)。其中,重构模块可以包括训练好的语音重构神经网络,该语音重构神经网络将特征提取模块510提取的待处理语音数据的特征作为输入,对输入的特征进行重构得到重构语音特征。生成模块基于重构模块输出的重构语音特征生成相对于所获取的待处理语音数据语音质量更高的输出语音数据。因此,本发明的语音音质增强装置可以基于深度学习精确地补充低质量语音中丢失的语音信息,不仅能够高效地实现低质量语音音质的极大提升,又不影响对通信带宽的兼顾(因为传输的仍然是数据量较小的低质量语音数据,但该低质量语音数据可在接收端被重构为高质量语音数据)。
81.在本发明的实施例中,语音重构模块520所利用的语音重构神经网络的训练可以包括:获取第一语音样本和第二语音样本,其中所述第二语音样本的语音质量低于所述第一语音样本的语音质量,且所述第二语音样本由所述第一语音样本通过转码而得到;对所述第一语音样本和所述第二语音样本分别进行特征提取以分别得到所述第一语音样本的特征和所述第二语音样本的特征;以及将得到的所述第二语音样本的特征作为所述语音重构神经网络的输入层的输入,并将得到的所述第一语音样本的特征作为所述语音重构神经网络的输出层的目标,以训练所述语音重构神经网络。可以结合图3参照上文关于图3的描述理解根据本发明实施例的基于深度学习的语音音质增强装置500的语音重构模块520所利用的语音重构神经网络的训练过程。为了简洁,此处不赘述过多的细节。
82.在一个示例中,第一语音样本可以是高质量语音样本,第二语音样本可以是低质量语音样本。示例性地,第一语音样本可以是一组高码率、高采样频率的语音样本,包括但不限于16khz、24khz、32khz采样频率的语音数据。在一个示例中,可以将第一语音样本进行转码以获得第二语音样本。例如,可以将采样频率为16khz、码率为23.85kbps的amr

wb语音样本作为第一语音样本,通过将其转码为采样频率为8khz、码率为12.2kbps的amr

nb语音来得到第二语音样本。再如,可以通过将flac格式的第一语音样本变换为mp3格式来得到第二语音样本,而不降低码率和采样频率。也就是说,第一语音样本的码率可以高于或等于第
二语音样本的码率;第一语音样本的采样频率可以高于或等于第二语音样本的采样频率。当然,这仅是示例性的。第一语音样本(即高质量语音样本)转码得到第二语音样本(即低质量语音样本)也可以是其他的情况,这可以基于实际应用场景来适应性调整。具体地,可以基于对特征提取模块510获取的待处理语音数据的重构需求来确定应选择的第一语音样本和第二语音样本,也就是说可以基于上述重构需求确定应选择的第一语音样本和应采用的将其转码为第二语音样本的转码方式。
83.在一个实施例中,对第一语音样本和第二语音样本各自进行特征提取的方式可以包括但不限于短时傅里叶变换。示例性地,对第一语音样本和第二语音样本各自进行特征提取所得到的特征可以包括其各自的频域幅度和/或能量信息。示例性地,对第一语音样本和第二语音样本进行特征提取所得到的特征还可以包括其各自的频谱相位信息。示例性地,对第一语音样本和第二语音样本进行特征提取所得到的特征也可以是其各自的时域特征。在其他示例中,对第一语音样本和第二语音样本各自进行特征提取所得到的特征还可以包括任何其他可以表征其各自的特征。
84.在一个实施例中,在对第一语音样本和第二语音样本各自进行特征提取之前,可以先对第一语音样本和第二语音样本各自进行分帧处理,并且前述的特征提取可以针对第一语音样本和第二语音样本各自分帧后得到的其各自的语音样本逐帧进行。示例性地,可以针对每帧语音样本选择部分数据进行特征提取,这样可以有效减少数据量,提高处理效率。
85.在又一个实施例中,在对第一语音样本和第二语音样本各自进行前述的分帧处理之前,可以先对第一语音样本和第二语音样本各自进行解码处理,并且前述的分帧处理可以针对第一语音样本和第二语音样本各自解码后得到的其各自的时域波形数据进行。
86.在又一个实施例中,在对第一语音样本和第二语音样本进行特征提取之前,还可以先对第一语音样本和第二语音样本各自进行预处理,并且前述的特征提取可以针对预处理后得到的语音样本进行。示例性地,对第一语音样本和第二语音样本各自进行的预处理可以包括但不限于:去噪、回声抑制和自动增益控制等。示例性地,预处理可以是在前述解码处理之后进行。因此,在一个示例中,可以对第一语音样本和第二语音样本各自依次进行解码、预处理、分帧和特征提取,以高效地提取具有很好代表性的特征。在其他示例中,前述的预处理操作也可以在对第一语音样本和第二语音样本分别分帧之后特征提取之前进行。
87.在一个实施例中,可以将一帧或多帧第二语音样本的特征作为语音重构神经网络的输入层的输入,可以将一帧或多帧第一语音样本的特征作为语音重构神经网络的输出层的目标,从而训练一个神经网络回归器作为在语音重构模块520中采用的语音重构神经网络。
88.基于训练好的语音重构神经网络,语音重构模块520的重构模块可将待处理语音数据的特征重构为重构语音特征,由于该重构语音特征为频域特征,因此语音重构模块520的生成模块可基于该重构语音特征生成时域语音波形输出。示例性地,生成模块可以通过傅里叶逆变换来对该重构语音特征进行变换得到时域语音波形。输出的语音波形可被存储或经缓存用于播放,从而为用户提供更好的经提升的语音音质体验。可以结合图4a

图4c参照前述关于图4a

图4c的描述来体会根据实施例的基于深度学习的语音音质增强装置的语音音质增强效果。为了简洁,此处不再赘述。
89.基于上面的描述,根据本发明实施例的基于深度学习的语音音质增强装置基于深度学习方法对低质量语音音质进行增强,使低质量语音音质通过深层神经网络重构达到高质量语音的音质,从而能够实现传统方法无法达到的音质提升效果。此外,根据本发明实施例的基于深度学习装置可以便利地部署在服务端或用户端,能够高效地实现语音音质的增强。
90.图6示出了根据本发明实施例的基于深度学习的语音音质增强系统600的示意性框图。基于深度学习的语音音质增强系统600包括存储装置610以及处理器620。
91.其中,存储装置610存储用于实现根据本发明实施例的基于深度学习的语音音质增强方法中的相应步骤的程序。处理器620用于运行存储装置610中存储的程序,以执行根据本发明实施例的基于深度学习的语音音质增强方法的相应步骤,并且用于实现根据本发明实施例的基于深度学习的语音音质增强装置中的相应模块。
92.在一个实施例中,在所述程序被处理器620运行时使得基于深度学习的语音音质增强系统600执行以下步骤:获取待处理语音数据,并对所述待处理语音数据进行特征提取以得到所述待处理语音数据的特征;以及基于所述待处理语音数据的特征,利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音数据,其中所述输出语音数据的语音质量高于所述待处理语音数据的语音质量。
93.在一个实施例中,所述语音重构神经网络的训练包括:获取第一语音样本和第二语音样本,其中所述第二语音样本的语音质量低于所述第一语音样本的语音质量,且所述第二语音样本由所述第一语音样本通过转码而得到;对所述第一语音样本和所述第二语音样本分别进行特征提取以分别得到所述第一语音样本的特征和所述第二语音样本的特征;以及将得到的所述第二语音样本的特征作为所述语音重构神经网络的输入层的输入,并将得到的所述第一语音样本的特征作为所述语音重构神经网络的输出层的目标,以训练所述语音重构神经网络。
94.在一个实施例中,所述第一语音样本具有第一码率,所述第二语音样本具有第二码率,所述第一码率高于或等于所述第二码率。
95.在一个实施例中,所述第一语音样本具有第一采样频率,所述第二语音样本具有第二采样频率,所述第一采样频率高于或等于所述第二采样频率。
96.在一个实施例中,所述特征提取得到的特征包括频域幅度和/或能量信息。
97.在一个实施例中,所述特征提取得到的特征还包括频谱相位信息。
98.在一个实施例中,所述特征提取的方式包括短时傅里叶变换。
99.在一个实施例中,所述语音重构神经网络的训练还包括:在对所述第一语音样本和所述第二语音样本进行特征提取之前,对所述第一语音样本和所述第二语音样本分别进行分帧,并且所述特征提取是针对分帧后得到的语音样本逐帧进行的。
100.在一个实施例中,所述语音重构神经网络的训练还包括:在对所述第一语音样本和所述第二语音样本进行分帧之前,将所述第一语音样本和所述第二语音样本分别解码为时域波形数据,并且所述分帧是针对解码后得到的时域波形数据进行的。
101.在一个实施例中,在一个实施例中,在所述程序被处理器620运行时使得基于深度学习的语音音质增强系统600执行的所述利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音数据包括:将所述待处理语音数据的特征作为所述训练好的语音重
构神经网络的输入,并由所述训练好的语音重构神经网络输出重构语音特征;以及基于所述重构语音特征生成时域语音波形以作为所述输出语音数据。
102.此外,根据本发明实施例,还提供了一种存储介质,在所述存储介质上存储了程序指令,在所述程序指令被计算机或处理器运行时用于执行本发明实施例的基于深度学习的语音音质增强方法的相应步骤,并且用于实现根据本发明实施例的基于深度学习的语音音质增强装置中的相应模块。所述存储介质例如可以包括智能电话的存储卡、平板电脑的存储部件、个人计算机的硬盘、只读存储器(rom)、可擦除可编程只读存储器(eprom)、便携式紧致盘只读存储器(cd

rom)、usb存储器、或者上述存储介质的任意组合。所述计算机可读存储介质可以是一个或多个计算机可读存储介质的任意组合。
103.在一个实施例中,所述计算机程序指令在被计算机运行时可以实现根据本发明实施例的基于深度学习的语音音质增强装置的各个功能模块,并且/或者可以执行根据本发明实施例的基于深度学习的语音音质增强方法。
104.在一个实施例中,所述计算机程序指令在被计算机或处理器运行时使计算机或处理器执行以下步骤:获取待处理语音数据,并对所述待处理语音数据进行特征提取以得到所述待处理语音数据的特征;以及基于所述待处理语音数据的特征,利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音数据,其中所述输出语音数据的语音质量高于所述待处理语音数据的语音质量。
105.在一个实施例中,所述语音重构神经网络的训练包括:获取第一语音样本和第二语音样本,其中所述第二语音样本的语音质量低于所述第一语音样本的语音质量,且所述第二语音样本由所述第一语音样本通过转码而得到;对所述第一语音样本和所述第二语音样本分别进行特征提取以分别得到所述第一语音样本的特征和所述第二语音样本的特征;以及将得到的所述第二语音样本的特征作为所述语音重构神经网络的输入层的输入,并将得到的所述第一语音样本的特征作为所述语音重构神经网络的输出层的目标,以训练所述语音重构神经网络。
106.在一个实施例中,所述第一语音样本具有第一码率,所述第二语音样本具有第二码率,所述第一码率高于或等于所述第二码率。
107.在一个实施例中,所述第一语音样本具有第一采样频率,所述第二语音样本具有第二采样频率,所述第一采样频率高于或等于所述第二采样频率。
108.在一个实施例中,所述特征提取得到的特征包括频域幅度和/或能量信息。
109.在一个实施例中,所述特征提取得到的特征还包括频谱相位信息。
110.在一个实施例中,所述特征提取的方式包括短时傅里叶变换。
111.在一个实施例中,所述语音重构神经网络的训练还包括:在对所述第一语音样本和所述第二语音样本进行特征提取之前,对所述第一语音样本和所述第二语音样本分别进行分帧,并且所述特征提取是针对分帧后得到的语音样本逐帧进行的。
112.在一个实施例中,所述语音重构神经网络的训练还包括:在对所述第一语音样本和所述第二语音样本进行分帧之前,将所述第一语音样本和所述第二语音样本分别解码为时域波形数据,并且所述分帧是针对解码后得到的时域波形数据进行的。
113.在一个实施例中,所述计算机程序指令在被计算机或处理器运行时使计算机或处理器执行的所述利用训练好的语音重构神经网络将所述待处理语音数据重构为输出语音
数据包括:将所述待处理语音数据的特征作为所述训练好的语音重构神经网络的输入,并由所述训练好的语音重构神经网络输出重构语音特征;以及基于所述重构语音特征生成时域语音波形以作为所述输出语音数据。
114.根据本发明实施例的基于深度学习的语音音质增强装置中的各模块可以通过根据本发明实施例的基于深度学习的语音音质增强的电子设备的处理器运行在存储器中存储的计算机程序指令来实现,或者可以在根据本发明实施例的计算机程序产品的计算机可读存储介质中存储的计算机指令被计算机运行时实现。
115.此外,根据本发明实施例,还提供了一种计算机程序,该计算机程序可以存储在云端或本地的存储介质上。在该计算机程序被计算机或处理器运行时用于执行本发明实施例的基于深度学习的语音音质增强方法的相应步骤,并且用于实现根据本发明实施例的基于深度学习的语音音质增强装置中的相应模块。
116.根据本发明实施例的基于深度学习的语音音质增强方法、装置、系统、存储介质和计算机程序基于深度学习方法对低质量语音音质进行增强,使低质量语音音质通过深层神经网络重构达到高质量语音的音质,从而能够实现传统方法无法达到的音质提升效果。此外,根据本发明实施例的基于深度学习的语音音质增强方法、装置、系统、存储介质和计算机程序可以便利地部署在服务端或用户端,能够高效地实现语音音质的增强。
117.尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本发明的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本发明的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本发明的范围之内。
118.本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
119.在本技术所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。
120.在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
121.类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该本发明的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如相应的权利要求书所反映的那样,其发明点在于可以用少于某个公开的单个实施例的所有特征的特征来解决相应的技术问题。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
122.本领域的技术人员可以理解,除了特征之间相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
123.此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
124.本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(dsp)来实现根据本发明实施例的一些模块的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
125.应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
126.以上所述,仅为本发明的具体实施方式或对具体实施方式的说明,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。本发明的保护范围应以权利要求的保护范围为准。