1.本技术涉及互联网技术领域,尤其涉及一种语音分类模型的训练方法、装置、计算机设备及存储介质。
背景技术:2.近年来,随着人工智能技术的飞跃式发展,智能语音技术已经在智能电话机器人、手机助手、物联网等应用场景中快速普及。语音分类是智能语音技术领域中的重要内容之一,旨在对给定的一段语音信号的属性进行分类,具体包括语种分类、情绪分类等等。例如在语音语种分类任务中,判断出某一段音频属于汉语、英语、还是日语等,在语音情绪分类任务中,判断出某一段音频属于开心、难过、还是紧张等。
3.为了实现语音分类任务,现有技术通常的做法是针对特定的分类任务,搜集并标记相应的语音数据,并设计相应的分类模型,最后利用标记的数据对语音分类模型进行训练。
4.这种方式下,由于不同的语音分类任务的问题特点不尽相同,因此,不同的语音分类模型的设计过程往往存在较大的差异,数据标注的成本较高,并且模型设计的工作量较大。
技术实现要素:5.本技术旨在至少在一定程度上解决相关技术中的技术问题之一。
6.本技术提出一种语音分类模型的训练方法、装置、计算机设备及存储介质,以实现仅在小规模训练集上,采用样本谐音结果进行分类训练,以获得语音分类模型,从而降低了语音分类模型训练的标注成本,并且针对不同的语音分类任务,采用相同的模型结构,从而降低了模型的训练成本,用于解决现有技术中不同的语音分类模型的设计过程往往存在较大的差异,数据标注的成本较高,并且模型设计的工作量较大的技术问题。
7.本技术第一方面实施例提出了一种语音分类模型的训练方法,包括:获取多个样本语音数据;对所述多个样本语音数据进行转换以生成多个样本频谱信息序列;将所述多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个所述样本语音数据对应的样本谐音结果;以及根据多个所述样本谐音结果对语音分类模型进行训练。
8.本技术实施例的语音分类模型的训练方法,通过获取多个样本语音数据,并对多个样本语音数据进行转换以生成多个样本频谱信息序列,将多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果;以及根据多个样本谐音结果对语音分类模型进行训练,由于是根据样本语音数据的样本谐音结果训练语音分类模型,实现仅在小规模训练集上,采用样本谐音结果进行分类训练,以获得语音分类模型,从而降低了语音分类模型训练的标注成本,并且针对不同的语音分类任务,采用相同的模型结构,从而降低了模型的训练成本。
9.本技术第二方面实施例提出了一种语音分类模型的训练装置,包括:获取模块,用
于获取多个样本语音数据;转换模块,用于对所述多个样本语音数据进行转换以生成多个样本频谱信息序列;生成模块,用于将所述多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个所述样本语音数据对应的样本谐音结果;以及训练模块,用于根据多个所述样本谐音结果对语音分类模型进行训练。
10.本技术实施例的语音分类模型的训练装置,通过获取多个样本语音数据,并对多个样本语音数据进行转换以生成多个样本频谱信息序列,将多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果;以及根据多个样本谐音结果对语音分类模型进行训练,由于是根据样本语音数据的样本谐音结果训练语音分类模型,实现仅在小规模训练集上,采用样本谐音结果进行分类训练,以获得语音分类模型,从而降低了语音分类模型训练的标注成本,并且针对不同的语音分类任务,采用相同的模型结构,从而降低了模型的训练成本。
11.本技术第三方面实施例提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如本技术第一方面实施例提出的语音分类模型的训练方法。
12.本技术第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本技术第一方面实施例提出的语音分类模型的训练方法。
13.本技术第五方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行如本技术第一方面实施例提出的语音分类模型的训练方法。
14.本技术附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本技术的实践了解到。
附图说明
15.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理,并不构成对本技术的不当限定。
16.图1是根据一示例性实施例示出的一种语音分类模型的训练方法的流程图;
17.图2是根据另一示例性实施例示出的一种语音分类模型的训练方法的流程图;
18.图3为本技术实施例中神经网络模型的结构示意图;
19.图4是根据一示例性实施例示出的一种语音分类模型的训练装置的结构图;
20.图5示出了适于用来实现本技术实施方式的示例性计算机设备的框图。
具体实施方式
21.为了使本领域普通人员更好地理解本技术的技术方案,下面将结合附图,对本技术实施例中的技术方案进行清楚、完整地描述。
22.需要说明的是,本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本技术相一致的所有实施方式。
23.图1是根据一示例性实施例示出的一种语音分类模型的训练方法的流程图。
24.其中,需要说明的是,本实施例的语音分类模型的训练方法的执行主体为语音分类模型的训练装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
25.如图1所示,包括以下步骤。
26.在步骤s101中,获取多个样本语音数据。
27.其中,用于训练语音分类模型的语音数据,可以被称为样本语音数据,样本语音数据可以包含海量的语音数据,一份语音数据可以比如一段语音。
28.本技术实施例中,可以根据具体语音分类场景的任务需求,准备相应的训练用的样本语音数据,对此不做限制。
29.也即是说,针对不同的语音分类任务,准备对应于该语音分类任务的训练用的样本语音数据,从而采用对应于该语音分类任务的训练用的样本语音数据来训练一个语音分类模型,实现针对不同的语音分类任务,采用相同的模型结构,从而降低了模型的训练成本。
30.在步骤s102中,对多个样本语音数据进行转换以生成多个样本频谱信息序列。
31.一些实施例中,在获取多个样本语音数据之后,可以对各个样本语音数据进行相应的预处理,比如可以去噪处理等等。
32.本技术实施例中可以对多个样本语音数据进行转换以生成多个样本频谱信息序列,便于后续的模型识别以训练语音分类模型。
33.举例而言,记任意一个语音分类任务的样本语音数据的数据集为s
i
={x
i
,y
i
},其中i∈[1,n],n为数据集中样本语音数据的数量,x
i
为每一条样本语音数据的频谱特征,y
i
为该样本语音数据的类别标注结果(该类别标注结果用于在训练模型的过程中作为参考内容),其中y
i
∈[1,k],k代表数据集中所有标注语音类别的种类数量。
[0034]
也即是说,在本技术实施例中,可以是首先对多个样本语音数据进行转换以生成多个样本频谱信息序列,并且根据多个样本频谱信息序列以及对应的标注语音类别形成上述示例中的样本语音数据的数据集为s
i
={x
i
,y
i
}。
[0035]
而在对多个样本语音数据进行转换以生成多个样本频谱信息序列时,其中的每个样本频谱信息序列是对应于一个样本语音数据的,该样本频谱信息可以用于表示对应样本语音数据的频谱特征矢量,该频谱特征矢量可以采用短时傅立叶变换(short
‑
time fourier transform,stft)的方式获得,其中,窗口大小可以为20ms,窗口滑动步长可以为10ms,则通过stft可以获得每一段样本语音数据的81维的频谱信息序列(可以被称为样本频谱信息序列),样本语音数据的采样率为16khz,每条样本语音数据的时长在0.5s到15s之间。
[0036]
在步骤s103中,将多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果。
[0037]
上述在对多个样本语音数据进行转换以生成多个样本频谱信息序列之后,可以将多个样本频谱信息序列输入至自动语音识别(automatic speech recognition,asr)预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果。
[0038]
也即是说,本技术实施例中,为了降低语音分类模型训练的数据成本,利用了基于
ctc(connectionist temporal classification,基于神经网络的时序类分类)的asr预训练模型,获得每条样本语音数据对应的样本谐音结果。
[0039]
其中,所谓的谐音,指利用汉字同音或近音字来代替本音的一种方法。例如在粤语中“你与我”的谐音为“内与偶”,英文中“i love you”的谐音为“爱老虎油”等等。给定一段样本语音数据输入至普通话的asr预训练模型,asr预训练模型能够识别出一个结果,这个结果可以被视作汉字谐音,类似于一个只懂汉语的人去听粤语一样,虽然不懂目标语言,但是可以用谐音结果表示听到的内容。
[0040]
一些实施例中,可以采用隐变量矩阵描述样本谐音结果,样本频谱信息序列包括:多帧样本频谱信息,隐变量矩阵中的元素,表示一帧样本频谱信息,映射为一个对应的候选谐音结果的概率值。
[0041]
也即是说,本技术实施例中,可以采用asr预训练模型生成与各个样本语音数据对应的样本谐音结果,使得输出为隐变量矩阵形式的样本谐音结果,该隐变量矩阵描述获得样本谐音结果的概率分布矩阵,由此,本技术实施例相比于直接用汉字结果表示音频的谐音,采用每一帧样本谐音结果的概率分布矩阵能够保留更多的音频特征信息,便于用于后续的音频分类任务。
[0042]
举例而言,可以记基于ctc的asr预训练模型为非线性函数f
a
(θ
a
),θ
a
为基于ctc的asr预训练模型的参数,则给定一段样本语音数据的频谱特征x
i
,则可以计算获得该样本语音数据的谐音结果h
i
(可以被称为样本谐音结果),即asr输出的隐变量矩阵形式的样本谐音结果,示例如下:
[0043]
h
i
=f
a
(x
i
,θ
a
);
ꢀꢀ
(1)
[0044]
其中,h
i
∈r
d
×
t
,d为基于ctc的asr预训练模型输出的建模单元个数,t为输出特征的时间帧长度。
[0045]
在本技术实施例中,d=7228,对应7228个常用汉字的个数,h
i
每一列的所有元素的总和为1,分别对应该时间帧上观测量属于每一个候选谐音结果的概率值。
[0046]
上述的h
i
即为asr预训练模型输出的样本谐音结果。例如,在语音语种分类任务中,英文的“and”会被普通话的asr模型识别为“按的”,实际上,其对应的样本谐音结果可能会在某一时间帧上“按”的概率较大,且在后续时间帧上“的”的概率较大。
[0047]
上述在分别生成与各个样本语音数据对应的样本谐音结果之后,可以采用与不同样本语音数据对应的样本谐音结果训练人工智能网络模型,以使得该人工智能网络模型能够对语音进行分类,实现语音分类模型的训练。
[0048]
在步骤s104中,根据多个样本谐音结果对语音分类模型进行训练。
[0049]
其中,语音分类模型可以是人工智能中的网络模型,比如神经网络模型,或者机器学习模型等等,对此不做限制。
[0050]
也即是说,本技术实施例可以采用上述的样本谐音结果来训练人工智能中的网络模型,从而实现仅在小规模训练集上,采用样本谐音结果进行分类训练,以获得语音分类模型。
[0051]
可选地,一些实施例中,根据多个样本谐音结果对语音分类模型进行训练,可以是将多个样本谐音结果分别输入至初始的神经网络模型以生成预测语音类别,根据预测语音类别和与样本语音数据对应的标注语音类别,对初始的神经网络模型进行训练,以及将训
练得到的神经网络模型作为语音分类模型,从而实现快速地训练得到语音分类模型,并且由于语音分类模型是人工智能当中的神经网络模型,能够使得训练得到的语音分类模型,具有较好的语音分类效果。
[0052]
一些实施例中,当采用隐变量矩阵描述样本谐音结果,样本频谱信息序列包括:多帧样本频谱信息,隐变量矩阵中的元素,表示一帧样本频谱信息,映射为一个对应的候选谐音结果的概率值,则将多个样本谐音结果分别输入至初始的神经网络模型以生成预测语音类别,可以具体是将各帧样本频谱信息,和其映射为一个对应的候选谐音结果的概率值输入至初始的神经网络模型以生成预测语音类别,从而实现样本谐音结果与神经网络模型的高效融合,使得神经网络模型能够学习并预测得到样本谐音结果及与其对应的语音类别之间的关联关系。
[0053]
本实施例中,通过获取多个样本语音数据,并对多个样本语音数据进行转换以生成多个样本频谱信息序列,将多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果;以及根据多个样本谐音结果对语音分类模型进行训练,由于是根据样本语音数据的样本谐音结果训练语音分类模型,实现仅在小规模训练集上,采用样本谐音结果进行分类训练,以获得语音分类模型,从而降低了语音分类模型训练的标注成本,并且针对不同的语音分类任务,采用相同的模型结构,从而降低了模型的训练成本。
[0054]
图2是根据另一示例性实施例示出的一种语音分类模型的训练方法的流程图。
[0055]
如图2所示,包括以下步骤。
[0056]
在步骤s201中,获取多个样本语音数据。
[0057]
在步骤s202中,对多个样本语音数据进行转换以生成多个样本频谱信息序列。
[0058]
在步骤s203中,将多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果。
[0059]
步骤s201至步骤s203的描述可以具体参见上述实施例,在此不再赘述。
[0060]
在步骤s204中,构建与初始的神经网络模型对应的目标函数。
[0061]
其中,参见图3,图3为本技术实施例中神经网络模型的结构示意图,初始的神经网络模型包括:顺序连接的双向长短期记忆网络bi
‑
lstm层、时间最大池化tmp层、全连接层fc,以及柔性最大值传输函数softmax层。
[0062]
举例而言,为了对asr识别得到的样本谐音结果进行分类,本实施例可以构建初始的神经网络模型(可以被称为语音分类模型)f
c
,比如可以包括1层双向长短期记忆网络(bi
‑
directional long short
‑
term memory,bi
‑
lstm),1层时间最大池化层(time max
‑
pooling,tmp),1层全连接层fc和1层柔性最大值传输函数softmax层,该网络模型f
c
的参数可以随机初始化。
[0063]
上述的初始的神经网络模型对应的函数表示,可以举例如下:
[0064]
记语音分类模型为函数f
c
,则语音分类模型的输出为:
[0065]
o
i
=f
c
(h
i
,θ
c
);
ꢀꢀ
(2)
[0066]
其中,θ
c
为语音分类模型的参数的集合,o
i
=[o
i,1
,o
i,2
,...,o
i,k
]为k维输出矢量,o
i,k
分别为语音分类模型输出o
i
的第k个元素,其中,k∈[1,k],且o
i,k
分别指代将
该样本谐音结果识别为不同的预测语音类别的概率。
[0067]
在步骤s205中,对初始的神经网络模型的参数进行初始化处理。
[0068]
本技术实施例在对初始的神经网络模型进行训练的过程中,在构建与初始的神经网络模型对应的目标函数后,还可以动态地调整初始的神经网络模型的参数,直至目标函数收敛。
[0069]
也即是说,本技术实施例中,在利用样本语音数据对应的样本谐音结果,对初始的神经网络模型进行训练的过程中,可以设计优化目标函数,并且在训练过程中,可以动态地调整初始的神经网络模型的参数,直至目标函数收敛,从而实现使得训练得到的语义分类模型对样本语音数据的意图进行分类。
[0070]
在本技术中,可以设计交叉熵作为优化的目标函数,进行意图分类,具体如下
[0071][0072]
其中,n
b
为训练中每一个批次的数量,在本技术中n
b
=32。
[0073]
而后,获得的正则化网络模型的损失函数(可以被称为目标函数)可以示例如下:
[0074]
l=l1+λ|θ
c
||;
ꢀꢀ
(4)
[0075]
其中,正则项||θ
c
||为网络模型f
c
中所有参数的2范数的总和,正则项参数λ=10
‑4。
[0076]
则上述动态地调整初始的神经网络模型的参数,直至目标函数收敛,可以是固定asr预训练模型为非线性函数f
a
(θ
a
)中的模型参数θ
a
,仅更新语音分类模型f
c
的网络模型参数θ
c
,对此不做限制。
[0077]
在步骤s206中,将各帧样本频谱信息,和其映射为一个对应的候选谐音结果的概率值输入至初始的神经网络模型,得到输出结果,输出结果包括:将样本语音数据识别为不同的候选语音类别的概率值。
[0078]
在步骤s207中,将不同的候选语音类别的概率值和样本语音数据数量输入目标函数,得到函数值。
[0079]
也即是说,将不同的候选语音类别的概率值和样本语音数据数量输入至上述的目标函数(4)中,并结合函数(1)(2)(3)运算得到相应的目标函数输出的函数值,而后触发执行后续步骤。
[0080]
在步骤s208中,根据函数值从不同的概率值之中选取目标概率值,并将目标概率值对应的候选语音类别作为预测语音类别。
[0081]
步骤s206
‑
步骤s208中,可以采用反向传播算法进行初始的神经网络模型训练,比如可以采用adam优化算法(adam优化算法是一种对随机梯度下降法的扩展),adam的初始值设为10
‑5。
[0082]
上述在结合函数(1)(2)(3)运算得到相应的目标函数输出的函数值之后,可以根据函数值从不同的概率值之中选取目标概率值(比如可以将概率值的大小排序前设定个数的概率值,作为目标概率值,当目标概率值较大时,表示将样本语音数据识别为与其对应的候选语音类别的概率较大),而后,将目标概率值对应的候选语音类别作为预测语音类别。
[0083]
在步骤s209中,根据预测语音类别和与样本语音数据对应的标注语音类别,对初始的神经网络模型进行训练。
[0084]
可选地,一些实施例中,可以根据预测语音类别和标注语音类别生成损失值,并根据损失值对初始的神经网络模型进行训练,从而不仅仅保障了模型识别的准确性,还能够大幅度地提升模型识别的效率。
[0085]
在步骤s210中,将训练得到的神经网络模型作为语音分类模型。
[0086]
本实施例中,通过获取多个样本语音数据,并对多个样本语音数据进行转换以生成多个样本频谱信息序列,将多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果;以及根据多个样本谐音结果对语音分类模型进行训练,由于是根据样本语音数据的样本谐音结果训练语音分类模型,实现仅在小规模训练集上,采用样本谐音结果进行分类训练,以获得语音分类模型,从而降低了语音分类模型训练的标注成本,并且针对不同的语音分类任务,采用相同的模型结构,从而降低了模型的训练成本。动态地调整初始的神经网络模型的参数,直至目标函数收敛,从而实现使得训练得到的语义分类模型对样本语音数据的意图进行分类。将各帧样本频谱信息,和其映射为一个对应的候选谐音结果的概率值输入至初始的神经网络模型以生成预测语音类别,从而实现样本谐音结果与神经网络模型的高效融合,使得神经网络模型能够学习并预测得到样本谐音结果及与其对应的语音类别之间的关联关系。
[0087]
图4是根据一示例性实施例示出的一种语音分类模型的训练装置的结构图。
[0088]
如图4所示,该语音分类模型的训练装置40包括:
[0089]
获取模块401,用于获取多个样本语音数据;
[0090]
转换模块402,用于对多个样本语音数据进行转换以生成多个样本频谱信息序列;
[0091]
生成模块403,用于将多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果;以及
[0092]
训练模块404,用于根据多个样本谐音结果对语音分类模型进行训练。
[0093]
在本技术的一些实施例中,根据多个样本谐音结果对语音分类模型进行训练,包括:
[0094]
将多个样本谐音结果分别输入至初始的神经网络模型以生成预测语音类别;
[0095]
根据预测语音类别和与样本语音数据对应的标注语音类别,对初始的神经网络模型进行训练;以及
[0096]
将训练得到的神经网络模型作为语音分类模型。
[0097]
在本技术的一些实施例中,根据预测语音类别和与样本语音数据对应的标注语音类别,对初始的神经网络模型进行训练,包括:
[0098]
根据预测语音类别和标注语音类别生成损失值;
[0099]
根据损失值对初始的神经网络模型进行训练。
[0100]
在本技术的一些实施例中,采用隐变量矩阵描述样本谐音结果,样本频谱信息序列包括:多帧样本频谱信息,隐变量矩阵中的元素,表示一帧样本频谱信息,映射为一个对应的候选谐音结果的概率值。
[0101]
在本技术的一些实施例中,将多个样本谐音结果分别输入至初始的神经网络模型以生成预测语音类别,包括:
[0102]
将各帧样本频谱信息,和其映射为一个对应的候选谐音结果的概率值输入至初始的神经网络模型以生成预测语音类别。
[0103]
在本技术的一些实施例中,将各帧样本频谱信息,和其映射为一个对应的候选谐音结果的概率值输入至初始的神经网络模型以生成预测语音类别,包括:
[0104]
构建与初始的神经网络模型对应的目标函数;
[0105]
对初始的神经网络模型的参数进行初始化处理;
[0106]
将各帧样本频谱信息,和其映射为一个对应的候选谐音结果的概率值输入至初始的神经网络模型,得到输出结果,输出结果包括:将样本语音数据识别为不同的候选语音类别的概率值;
[0107]
将不同的候选语音类别的概率值和样本语音数据数量输入目标函数,得到函数值;
[0108]
根据函数值从不同的概率值之中选取目标概率值,并将目标概率值对应的候选语音类别作为预测语音类别。
[0109]
在本技术的一些实施例中,构建与初始的神经网络模型对应的目标函数后,还包括:
[0110]
调整初始的神经网络模型的参数,直至目标函数收敛。
[0111]
在本技术的一些实施例中,初始的神经网络模型包括:顺序连接的双向长短期记忆网络bi
‑
lstm层、时间最大池化tmp层、全连接层,以及柔性最大值传输函数softmax层。
[0112]
与上述图1至图3实施例提供的语音分类模型的训练方法相对应,本技术还提供一种语音分类模型的训练装置,由于本技术实施例提供的语音分类模型的训练装置与上述图1至图3实施例提供的语音分类模型的训练方法相对应,因此在语音分类模型的训练方法的实施方式也适用于本技术实施例提供的语音分类模型的训练装置,在本技术实施例中不再详细描述。
[0113]
本实施例中,通过获取多个样本语音数据,并对多个样本语音数据进行转换以生成多个样本频谱信息序列,将多个样本频谱信息序列输入至自动语音识别asr预训练模型,以分别生成与各个样本语音数据对应的样本谐音结果;以及根据多个样本谐音结果对语音分类模型进行训练,由于是根据样本语音数据的样本谐音结果训练语音分类模型,实现仅在小规模训练集上,采用样本谐音结果进行分类训练,以获得语音分类模型,从而降低了语音分类模型训练的标注成本,并且针对不同的语音分类任务,采用相同的模型结构,从而降低了模型的训练成本。
[0114]
为了实现上述实施例,本技术还提出一种计算机设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现如本技术前述实施例提出的语音分类模型的训练方法。
[0115]
为了实现上述实施例,本技术还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本技术前述实施例提出的语音分类模型的训练方法。
[0116]
为了实现上述实施例,本技术还提出一种计算机程序产品,当计算机程序产品中的指令处理器执行时,执行如本技术前述实施例提出的语音分类模型的训练方法。
[0117]
图5示出了适于用来实现本技术实施方式的示例性计算机设备的框图。图5显示的计算机设备12仅仅是一个示例,不应对本技术实施例的功能和使用范围带来任何限制。
[0118]
如图5所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以
包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
[0119]
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(industry standard architecture;以下简称:isa)总线,微通道体系结构(micro channel architecture;以下简称:mac)总线,增强型isa总线、视频电子标准协会(video electronics standards association;以下简称:vesa)局域总线以及外围组件互连(peripheral component interconnection;以下简称:pci)总线。
[0120]
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
[0121]
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(random access memory;以下简称:ram)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(compact disc read only memory;以下简称:cd
‑
rom)、数字多功能只读光盘(digital video disc read only memory;以下简称:dvd
‑
rom)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本技术各实施例的功能。
[0122]
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本技术所描述的实施例中的功能和/或方法。
[0123]
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(local area network;以下简称:lan),广域网(wide area network;以下简称:wan)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。
[0124]
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的语音分类模型的训练方法。
[0125]
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本技术的其它实施方案。本技术旨在涵盖本技术的任何变型、用途或者适应性变化,这些变型、用途或
者适应性变化遵循本技术的一般性原理并包括本技术未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本技术的真正范围和精神由下面的权利要求指出。
[0126]
应当理解的是,本技术并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本技术的范围仅由所附的权利要求来限制。