首页 > 乐器声学 专利正文
语音情感识别方法及装置与流程

时间:2022-02-13 阅读: 作者:专利查询

语音情感识别方法及装置与流程

1.本发明涉及计算机技术领域,尤其涉及一种语音情感识别方法及装置。


背景技术:

2.现有技术中对语音情感识别通常是对单一语音片段进行语音情感识别。现有技术中的语音情感识别方法将单一的原始语音数据输入至语音识别模块,获得转换后的文字,将转换后的文字输入至文本特征提取模块,得到文本特征,将原始语音数据输入至语音特征提取模块得到语音特征,再将语音特征和文本特征对齐后输入分类模块,获得分类结果。
3.虽然现有技术将单一语音片段的语音特征和文本特征进行了融合,但没有考虑到在真实语境中,某一片段的情感状态是和上下文语音有关的,现有技术中的语音情感识别方法中忽略了对说话者的上下文信息,导致语音情感识别存在识别准确率低的问题。


技术实现要素:

4.本发明提供一种语音情感识别方法及装置,用以解决现有技术中语音情感识别存在识别准确率低的缺陷,提高了语音情感识别的准确率。
5.第一方面,本发明提供一种语音情感识别方法,包括:获取原始语音集,所述原始语音集包括待识别语音和上下文语音;将所述原始语音集输入至语音情感识别模型,获得所述语音情感识别模型输出的所述待识别语音的识别结果;其中,所述语音情感识别模型是基于语音样本以及对应的识别标签进行训练后得到的,用于基于所述上下文语音对所述待识别语音进行语音情感识别;所述识别标签是根据所述语音样本预先确定的,并与所述语音样本一一对应;所述语音样本包括待识别语音样本和上下文语音样本。
6.可选的,所述语音情感识别模型包括:特征提取模块、说话者上下文模块、二级特征融合模块和分类模块;所述将所述原始语音集输入至语音情感识别模型,输出所述待识别语音的识别结果,具体包括:将所述原始语音集输入至所述特征提取模块,获得所述特征提取模块输出的所述原始语音集的句级特征、所述待识别语音的帧级特征和第一矩阵;将所述句级特征和所述第一矩阵输入至所述说话者上下文模块,获得所述说话者上下文模块输出的上下文融合特征;将所述上下文融合特征和所述帧级特征输入至所述二级特征融合模块,获得所述二级特征融合模块输出的二级融合特征;将所述二级融合特征输入至所述分类模块,获得所述分类模块输出的识别结果;其中,所述第一矩阵用于分离所述上下文语音对所述待识别语音的影响。
7.可选的,所述将句级特征和第一矩阵输入至说话者上下文模块,获得说话者上下文模块输出的上下文融合特征,具体包括:基于所述句级特征和所述第一矩阵获得影响信息矩阵,所述影响信息矩阵用于表示所述上下文语音对所述待识别语音的影响;将所述影响信息矩阵与内容向量拼接融合获得语音集融合特征,所述内容向量是基于所述句级特征获得的;在所述语音集融合特征中提取所述待识别语音对应的融合特征,获得所述上下文融合特征。
8.可选的,所述基于句级特征和第一矩阵获得影响信息矩阵,具体包括:将所述句级特征经过第一全连接层,获得查询矩阵;将所述句级特征经过第二全连接层,获得被查矩阵;将所述句级特征经过第三全连接层,获得所述内容向量;基于所述第一矩阵、所述查询矩阵、所述被查矩阵、所述内容向量和预设影响力公式获得所述影响信息矩阵。
9.可选的,所述预设影响力公式为:其中,y为所述影响信息矩阵,为softmax函数,k为所述查询矩阵,q
t
为所述被查矩阵的转置,mask1为所述第一矩阵,v为所述内容向量。
10.可选的,所述将所述上下文融合特征和所述帧级特征输入至所述二级特征融合模块,获得所述二级特征融合模块输出的二级融合特征,具体包括:帧级特征输入至长短期记忆循环神经网络,获得循环帧级特征;将上下文融合特征和循环帧级特征进行拼接融合,得到二级融合特征。
11.可选的,将二级融合特征输入至分类模块,获得分类模块输出的识别结果,具体包括:
12.将二级融合特征依次输入全连接层和softmax函数,获得分类结果。
13.第二方面,本发明还提供一种语音情感识别装置,包括:获取单元,用于获取原始语音集,原始语音集包括待识别语音和上下文语音;识别单元,用于将原始语音集输入至语音情感识别模型,获得语音情感识别模型输出的待识别语音的识别结果;其中,语音情感识别模型是基于语音样本以及对应的识别标签进行训练后得到的,用于基于上下文语音对待识别语音进行语音情感识别;识别标签是根据语音样本预先确定的,并与语音样本一一对应;语音样本包括待识别语音样本和上下文语音样本。
14.第三方面,本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述语音情感识别方法的步骤。
15.第四方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述语音情感识别方法的步骤。
16.第五方面,本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述语音情感识别方法的步骤。
17.本发明提供的语音情感识别方法及装置,通过基于上下文语音对待识别语音进行语音情感识别,结合上下文语音情感特征和待识别语音的语音情感特征,实现了提高语音情感识别正确率。
附图说明
18.为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
19.图1是本发明实施例提供的语音情感识别方法的流程示意图;
20.图2是本发明实施例提供的语音情感识别模型的数据处理示意图;
21.图3是本发明实施例提供的说话者上下文模块的数据处理示意图;
22.图4是本发明实施例提供的二级特征融合模块的数据处理示意图;
23.图5是本发明实施例提供的语音情感识别装置的结构示意图;
24.图6是本发明实施例提供的电子设备的结构示意图。
具体实施方式
25.为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
26.下面结合图1

图4描述本发明实施例提供的语音情感识别方法。
27.参考图1,图1是本发明实施例提供的语音情感识别方法的流程示意图。本发明实施例提供的语音情感识别方法,包括:
28.步骤110,获取原始语音集,原始语音集包括待识别语音和上下文语音;
29.步骤120,将原始语音集输入至语音情感识别模型,获得语音情感识别模型输出的待识别语音的识别结果;
30.其中,语音情感识别模型是基于语音样本以及对应的识别标签进行训练后得到的,用于基于上下文语音对待识别语音进行语音情感识别;识别标签是根据语音样本预先确定的,并与语音样本一一对应;语音样本包括待识别语音样本和上下文语音样本。
31.下面,对上述步骤在具体实施例中的可能的实现方式做进一步说明。
32.步骤110,获取原始语音集,原始语音集包括待识别语音和上下文语音;
33.具体地,原始语音集包括说话者的多句语音,待识别语音是多句语音中需要进行情感分析的一句语音,上下文语音为在待识别语音之前或之后的、说话者所说的一句或多句语音。原始语音集中可以包括2n+1句语音,即选取说话者待识别语音的前n条和后n条参与情感分析,前后语音不足n条时,可以补零填充。可以理解的是,语音的前后顺序会对语音情感识别造成影响,因此原始语音集是预先按照语音的时间先后顺序排列的。
34.步骤120,将原始语音集输入至语音情感识别模型,获得语音情感识别模型输出的待识别语音的识别结果;
35.具体地,识别标签可以包括生气、高兴、伤心和中性等情感标签,识别结果可以包括生气、高兴、伤心和中性等。
36.现有技术在单一语音片段上进行语音情感识别,没有考虑到在真实语境中,某一片段的情感状态是和上下文语音有关的,忽略了说话者的上下文信息。情绪并不是瞬间的状态,它是一种受真实动态交互场景中的上下文影响的进化状态。在人际互动情境中,一个人的情绪状态会受到自身情绪演化的影响。
37.本发明实施例中的原始语音集中除了待识别语音外,还包括上下文语音,并将原始语音集输入至语音情感识别模型,基于上下文语音对待识别语音进行语音情感识别,由于说话者当前的情感状态受到该说话者前一时刻情感状态的影响,并将继续对该说话者下一时刻的情感状态产生影响,因此结合上下文语音情感特征和待识别语音的语音情感特征,对待识别语音的情感类别进行识别,提高了语音情感识别正确率。
38.可选的,参考图2,图2是本发明实施例提供的语音情感识别模型的数据处理示意图。本发明实施例提供的语音情感识别模型包括:特征提取模块、说话者上下文模块、二级特征融合模块和分类模块;
39.将原始语音集输入至语音情感识别模型,输出待识别语音的识别结果,具体包括:
40.步骤210,将原始语音集输入至特征提取模块,获得特征提取模块输出的原始语音集的句级特征、待识别语音的帧级特征和第一矩阵;
41.步骤220,将句级特征和第一矩阵输入至说话者上下文模块,获得说话者上下文模块输出的上下文融合特征;
42.步骤230,将上下文融合特征和帧级特征输入至二级特征融合模块,获得二级特征融合模块输出的二级融合特征;
43.步骤240,将二级融合特征输入至分类模块,获得分类模块输出的识别结果;
44.其中,第一矩阵用于分离上下文语音对待识别语音的影响。
45.下面,对上述步骤在具体实施例中的可能的实现方式做进一步说明。
46.步骤210,将原始语音集输入至特征提取模块,获得特征提取模块输出的原始语音集的句级特征、待识别语音的帧级特征和第一矩阵;
47.对于将原始语音集输入至特征提取模块,获得特征提取模块输出的原始语音集的句级特征的情况,可以使用opensmile工具对原始语音集中的每一句直接提取特征,每一句语音的特征向量为行向量,特征长度为88,将所有语音的特征按照对话中语音的时间先后顺序合并为矩阵,得到句级特征矩阵。特征矩阵大小为n
×
88,n为原始语音集中的语音句数,如原始语音集中有11句语音时,特征矩阵大小为11
×
88。
48.对于将原始语音集输入至特征提取模块,获得特征提取模块输出的待识别语音的帧级特征的情况,首先对待识别语音分帧,通过裁剪和填充的方式将帧数固定为32帧,然后使用opensmile工具对每一帧提取特征,将所有帧的特征按照帧顺序合并为矩阵,得到帧级特征矩阵。
49.对于将原始语音集输入至特征提取模块,获得特征提取模块输出的第一矩阵的情况,第一矩阵在说话者上下文模块参与计算,用于分离上下文语音对待识别语音的影响,第一矩阵的矩阵大小均为n
×
n,n为原始语音集中的语音数量。第一矩阵公式如下所示:
[0050][0051]
式中,mask
i,j
为第一矩阵第i行第j列的矩阵元素,p为待识别语音的序号。
[0052]
如以5句原始语音作为输入,待识别语音排序为序号3时,第一矩阵如下:
[0053][0054]
可以理解的是,当原始语音集中的语音数量和待识别语音的序号确定时,可以确定第一矩阵,因此当确定原始语音集时,第一矩阵可以在参与说话者上下文模块计算之前
的任意时间点得到,本实施例将第一矩阵作为特征提取模块的输出,是为了预先得到第一矩阵,便于第一矩阵参与后续计算。
[0055]
步骤220,将句级特征和第一矩阵输入至说话者上下文模块,获得说话者上下文模块输出的上下文融合特征;
[0056]
说话者上下文模块的作用是融合当前句的上下文信息。使用注意力机制获取说话者的上下文句对当前句的影响权重,然后将上下文语音信息与当前语音进行融合。
[0057]
可选的,参考图3,图3是本发明实施例提供的说话者上下文模块的数据处理示意图。将句级特征和第一矩阵输入至说话者上下文模块,获得说话者上下文模块输出的上下文融合特征,具体包括:
[0058]
步骤310,基于句级特征和第一矩阵获得影响信息矩阵,影响信息矩阵用于表示上下文语音对待识别语音的影响;
[0059]
第一矩阵用于分离上下文语音对待识别语音的影响,通过第一矩阵可以分离出句级特征中上下文语音对待识别语音的影响,得到影响信息矩阵。
[0060]
可选的,基于句级特征和第一矩阵获得影响信息矩阵,具体包括:
[0061]
将句级特征经过第一全连接层,获得查询矩阵;
[0062]
将句级特征经过第二全连接层,获得被查矩阵;
[0063]
将句级特征经过第三全连接层,获得内容向量;
[0064]
基于第一矩阵、查询矩阵、被查矩阵、内容向量和预设影响力公式获得影响信息矩阵。
[0065]
一个实施例中,一个原始语音集中包括11句语音,通过特征提取模块获得原始语音集的句级特征矩阵s,矩阵大小为11
×
88。
[0066]
将句级特征s经过第一全连接层,获得查询矩阵k,矩阵大小仍为11
×
88。
[0067]
将句级特征s经过第二全连接层,获得被查矩阵q,矩阵大小仍为11
×
88。
[0068]
将句级特征s经过第三全连接层,获得内容向量v,矩阵大小仍为11
×
88。
[0069]
查询矩阵k、被查矩阵q和内容向量v的矩阵大小均为n
×
856,n为原始语音集中的语音数量。查询矩阵k,被查矩阵q和内容向量v均由句级特征矩阵s经过全连接层得到,但是作用不同。查询矩阵k和被查矩阵q由多个特征向量组成的,每一个特征向量代表一句语音。内容向量v,仍是特征矩阵,每一个特征向量代表一句语音,用于表征句级特征s的内容。
[0070]
可选的,预设影响力公式为:
[0071][0072]
其中,y为影响信息矩阵,为softmax函数,k为查询矩阵,q
t
为被查矩阵的转置,mask1为第一矩阵,v为内容向量,k
×
q
t
为第一权重矩阵,(k
×
q
t
·
mask1)为第二权重矩阵,为第三权重矩阵。
[0073]
查询矩阵k和被查矩阵q用于做相似度计算,得到第一权重矩阵wa。将被查矩阵q的转置和查询矩阵k做外积,得到第一权重矩阵w
a
,由查询矩阵k和被查矩阵q得到的第一权重矩阵wa中,第一权重矩阵元素wa
i,j
代表第i句与第j句的相似度,即第i句对第j句的重要程度。相似度越高,表明第i句对第j句影响越大,因此权重也越高。
[0074]
由于只需要上下文语音对待识别语音的影响,因此将第一权重矩阵wa与第一矩阵
做点乘,只保留待识别语音所在列的值,得到第二权重矩阵w
b
。第二权重矩阵w
b
矩阵大小为n
×
n,n为原始语音集中的语音数量。第二权重矩阵w
b
表示每一句上下文语音对待识别语音的重要程度,即每一句上下文语音对待识别语音的影响力。
[0075]
将第二权重矩阵w
b
通过softmax函数得到第三权重矩阵wc,第三权重矩阵w
c
矩阵大小为n
×
n,n为原始语音集中的语音数量。该步骤用于将矩阵的值转化为非负数,且所有值的和为1。
[0076]
用第三权重矩阵w
c
和内容向量v做外积,即对内容向量v加权,得到影响信息矩阵y。影响信息矩阵y中的待识别语音序号行的值代表上下文语音对当前语音的影响,其他行的值为零。
[0077]
步骤320,将影响信息矩阵与内容向量拼接融合获得语音集融合特征,内容向量是基于句级特征获得的;
[0078]
一个实施例中,将影响信息矩阵y和内容向量v进行矩阵拼接,从而融合得到语音集融合特征v

。原始语音集中语音数量为n时,影响信息矩阵y和内容向量v大小均为n
×
88。拼接公式为:
[0079]
v

=con(v,y);
[0080]
其中con()表示拼接函数,v

维度为n
×
176。
[0081]
以简化后的影响信息矩阵y和内容向量v做一简单的示例:
[0082][0083][0084][0085]
将影响信息矩阵y和内容向量v的对阵进行首尾拼接形成一个新的矩阵,即语音集融合特征v


[0086]
步骤330在语音集融合特征中提取待识别语音对应的融合特征,获得上下文融合特征。
[0087]
上下文融合特征是融合了上下文影响的待识别语音,大小为176维。在语音集融合特征中,待识别语音序号对应的矩阵行是待识别语音对应的融合特征,提取出的待识别语音对应的融合特征即为上下文融合特征。上下文融合特征如下式所示:
[0088]
r=v

[n,;]

[0089]
式中,r为上下文融合特征,n为待识别语音序号,v

[n,;]
表示待识别语音序号对应的语音集融合特征矩阵行。
[0090]
一个实施例中,原始语音集中有3句语音,待识别语音为第二句语音,即语音序号为2,语音集融合特征则待识别语音对应的融合特征为语音集融合特征v

中第二行特征,即上下文融合特征r为:
[0091]
r=[0 1]。
[0092]
步骤230,将上下文融合特征和帧级特征输入至二级特征融合模块,获得二级特征融合模块输出的二级融合特征;
[0093]
二级特征融合模块将上下文融合特征和帧级语音特征进行融合,能够通过二级融合特征体现说话者上下文的上下文信息和说话者对待识别语音的影响。
[0094]
可选的,参考图4,图4是本发明实施例提供的二级特征融合模块的数据处理示意图。将所述上下文融合特征和所述帧级特征输入至所述二级特征融合模块,获得所述二级特征融合模块输出的二级融合特征,具体包括:
[0095]
步骤410,将帧级特征输入至长短期记忆循环神经网络,获得循环帧级特征;
[0096]
步骤420,将上下文融合特征和循环帧级特征进行拼接融合,得到二级融合特征。
[0097]
一个实施例中,将帧级特征输入到长短期记忆循环神经网络lstm中得到循环帧级特征x2,大小为88维。循环帧级特征公式为:
[0098]
x2=lstm(z);
[0099]
式中,x2表示循环帧级特征,z表示帧级特征,lstm()表示长循环神经网络。
[0100]
然后将上下文融合特征r和x2进行拼接得到融合后的二级融合特征x,大小为254维。二级融合特征的公式为:
[0101]
x=con(r,x2);
[0102]
式中,x表示二级融合特征,con()表示拼接函数,r表示上下文融合特征,x2表示循环帧级特征。
[0103]
步骤240,将二级融合特征输入至分类模块,获得分类模块输出的识别结果;
[0104]
可选的,将二级融合特征输入至分类模块,获得分类模块输出的识别结果,具体包括:
[0105]
将二级融合特征依次输入全连接层和softmax函数,获得分类结果。
[0106]
一个实施例中,首先将二级融合特征通过全连接层降维,然后使用softmax函数进行分类。分类公式为:
[0107][0108]
其中,x表示二级融合特征,表示softmax函数,fc表示全连接层。
[0109]
本发明实施例提供的语音情感识别方法,基于上下文语音对待识别语音进行语音情感识别,由于说话者当前的情感状态受到该说话者前一时刻情感状态的影响,并将继续对该说话者下一时刻的情感状态产生影响,因此结合上下文语音情感特征和待识别语音的语音情感特征,对待识别语音的情感类别进行识别,能够提高语音情感识别正确率。
[0110]
下面对本发明提供的语音情感识别装置进行描述,下文描述的语音情感识别装置与上文描述的语音情感识别方法可相互对应参照。
[0111]
参考图5,图5是本发明实施例提供的语音情感识别装置的结构示意图。本发明实施例提供的语音情感识别装置,包括:获取单元510和识别单元520;
[0112]
获取单元510,用于获取原始语音集,原始语音集包括待识别语音和上下文语音;
[0113]
识别单元520,用于将原始语音集输入至语音情感识别模型,获得语音情感识别模型输出的待识别语音的识别结果;
[0114]
其中,语音情感识别模型是基于语音样本以及对应的识别标签进行训练后得到的,用于基于上下文语音对待识别语音进行语音情感识别;识别标签是根据语音样本预先
确定的,并与语音样本一一对应;语音样本包括待识别语音样本和上下文语音样本。
[0115]
在此需要说明的是,本发明实施例提供的上述装置,能够实现上述方法实施例所实现的所有方法步骤,且能够达到相同的技术效果,在此不再对本实施例中与方法实施例相同的部分及有益效果进行具体赘述。
[0116]
图6示例了一种电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(processor)610、通信接口(communications interface)620、存储器(memory)630和通信总线660,其中,处理器610,通信接口620,存储器630通过通信总线660完成相互间的通信。处理器610可以调用存储器630中的逻辑指令,以执行语音情感识别方法,该方法包括:获取原始语音集,原始语音集包括待识别语音和上下文语音;将原始语音集输入至语音情感识别模型,获得语音情感识别模型输出的待识别语音的识别结果;其中,语音情感识别模型是基于语音样本以及对应的识别标签进行训练后得到的,用于基于上下文语音对待识别语音进行语音情感识别;识别标签是根据语音样本预先确定的,并与语音样本一一对应;语音样本包括待识别语音样本和上下文语音样本。
[0117]
此外,上述的存储器630中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read

only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0118]
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的语音情感识别方法,该方法包括:获取原始语音集,原始语音集包括待识别语音和上下文语音;将原始语音集输入至语音情感识别模型,获得语音情感识别模型输出的待识别语音的识别结果;其中,语音情感识别模型是基于语音样本以及对应的识别标签进行训练后得到的,用于基于上下文语音对待识别语音进行语音情感识别;识别标签是根据语音样本预先确定的,并与语音样本一一对应;语音样本包括待识别语音样本和上下文语音样本。
[0119]
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的语音情感识别方法,该方法包括:获取原始语音集,原始语音集包括待识别语音和上下文语音;将原始语音集输入至语音情感识别模型,获得语音情感识别模型输出的待识别语音的识别结果;其中,语音情感识别模型是基于语音样本以及对应的识别标签进行训练后得到的,用于基于上下文语音对待识别语音进行语音情感识别;识别标签是根据语音样本预先确定的,并与语音样本一一对应;语音样本包括待识别语音样本和上下文语音样本。
[0120]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其
中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0121]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0122]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。