首页 > 乐器声学 专利正文
一种语音识别方法及系统与流程

时间:2022-02-13 阅读: 作者:专利查询

一种语音识别方法及系统与流程

1.本技术涉及语音识别技术领域,更具体地说,涉及一种语音识别方法及系统。


背景技术:

2.语音识别是将人类语音声波转换成相应文字输出的一门交叉学科,其更自然、更便利、更高效的沟通形式使得其成为当前及未来相当长一段时间内人机交互最重要的接口之一。
3.语音是一种时序信号,对语音进行识别都是基于时域分析后的语音频谱完成的,在语音识别的过程中,需要克服语音信号所面临的多样性,包括说话人的语音的多样性和环境的多样性,现有的端到端语音识别技术主要依赖卷积神经网络(cnn)和时序神经网络(rnn、gru、lstm等)等深度学习技术,来解决上述问题实现较高精度的识别率。
4.然而,申请人发现,基于深度学习的语音识别技术目前在干净环境下已超越人类水平,具有较好的识别效果,但在强噪声环境下对语音信号进行识别的识别率低。


技术实现要素:

5.有鉴于此,本技术公开了一种语音识别方法及系统,利用预设深度残差收缩网络模型中的深度残差收缩网络去除原始语音频谱所包含的无关特征,使得在噪声环境下得到无噪声等特征的文本信息,旨在提高在噪声环境下对语音信号的识别率。
6.为了实现上述目的,其公开的技术方案如下:
7.本技术第一方面公开了一种语音识别方法,所述方法包括:
8.获取待识别的原始语音信号;
9.利用预设深度残差收缩网络模型中的深度残差收缩网络对所述待识别的原始语音信号进行滤除处理,得到目标语音频谱;所述预设深度残差收缩网络模型为通过在深度神经网络中融入所述深度残差收缩网络所构建的模型;所述目标语音频谱用于指征未包含无关特征的语音频谱;所述无关特征至少包括噪声特征和环境特征;
10.从所述目标语音频谱中提取语音时序特征;
11.通过所述深度残差收缩网络的预设分类层对所述语音时序特征进行分类,得到所述目标语音频谱对应的字符概率;所述字符概率用于指示所述目标语音频谱对应的各个字符所出现的概率;
12.通过预设预测模型对所述字符概率进行预测,得到文本信息。
13.优选的,所述利用预设深度残差收缩网络模型中的深度残差收缩网络对所述待识别的原始语音信号进行滤除处理,得到目标语音频谱,包括:
14.利用预设深度残差收缩网络模型中的深度残差收缩网络的频谱函数,对所述待识别的原始语音信号进行预处理,得到原始语音频谱;
15.通过所述深度残差收缩网络的预设软阈值函数去除所述原始语音频谱所包含的无关特征,得到目标语音频谱。
16.优选的,所述从所述目标语音频谱中提取语音时序特征,包括:
17.通过所述预设深度残差收缩网络模型的循环神经网络层,从所述目标语音频谱中提取语音时序特征;所述循环神经网络层包括单向循环神经网络层或双向循环神经网络层;
18.若所述循环神经网络层为单向循环神经网络层,通过所述单向循环神经网络层,从所述目标语音频谱中提取语音时序特征;
19.若所述循环神经网络层为双向循环神经网络层,通过所述双向循环神经网络层,从所述目标语音频谱中提取语音时序特征。
20.优选的,预设分类层包括全连接层和逻辑回归层,所述全连接层包括第一全连接层和第二全连接层,所述通过所述深度残差收缩网络的预设分类层对所述语音时序特征进行分类,得到所述目标语音频谱对应的字符概率,包括:
21.将所述语音时序特征输入至所述第一全连接层和所述第二全连接层中,得到语音输出向量;
22.将所述语音输出向量输入至所述逻辑回归层进行分类,得到所述目标语音频谱对应的第一字符概率和第二字符概率;所述第一字符概率用于指示在音频中文本信息出现的概率;所述第二字符概率用于指示在预设语音模型中文本信息出现的概率。
23.优选的,所述通过预设预测模型对所述字符概率进行预测,得到文本信息,包括:
24.获取所述第一字符概率对应的第一字符和所述第二字符概率对应的第二字符;
25.将所述第一字符和所述第二字符进行组合,得到字符串;
26.通过预设函数和预设算法对所述字符串进行计算,得到文本信息。
27.本技术第二方面公开了一种语音识别系统,所述系统包括:
28.获取单元,用于获取待识别的原始语音信号;
29.滤除单元,用于利用预设深度残差收缩网络模型中的深度残差收缩网络对所述待识别的原始语音信号进行滤除处理,得到目标语音频谱;所述预设深度残差收缩网络模型为通过在深度神经网络中融入所述深度残差收缩网络所构建的模型;所述目标语音频谱用于指征未包含无关特征的语音频谱;所述无关特征至少包括噪声特征和环境特征;
30.提取单元,用于从所述目标语音频谱中提取语音时序特征;
31.分类单元,用于通过所述深度残差收缩网络的预设分类层对并所述语音时序特征进行分类,得到所述目标语音频谱对应的字符概率;所述字符概率用于指示所述目标语音频谱对应的各个字符所出现的概率;
32.预测单元,用于通过预设预测模型对所述字符概率进行预测,得到文本信息。
33.优选的,所述滤除单元,包括:
34.预处理模块,用于利用预设深度残差收缩网络模型中的深度残差收缩网络的频谱函数,对所述待识别的原始语音信号进行预处理,得到原始语音频谱;
35.去除模块,用于通过所述深度残差收缩网络的预设软阈值函数去除所述原始语音频谱所包含的噪声特征,得到目标语音频谱。
36.优选的,所述提取单元,包括:
37.第一提取模块,用于通过所述预设深度残差收缩网络模型的循环神经网络层,从所述目标语音频谱中提取语音时序特征;所述循环神经网络层包括单向循环神经网络层或
双向循环神经网络层;
38.第二提取模块,用于若所述循环神经网络层为单向循环神经网络层,通过所述单向循环神经网络层,从所述目标语音频谱中提取语音时序特征;
39.第三提取模块,用于若所述循环神经网络层为双向循环神经网络层,通过所述双向循环神经网络层,从所述目标语音频谱中提取语音时序特征。
40.优选的,所述分类单元,包括:
41.输入模块,用于将所述语音时序特征输入至所述第一全连接层和所述第二全连接层中,得到语音输出向量;
42.分类模块,用于将所述语音输出向量输入至所述分类层进行分类,得到所述目标语音频谱对应的第一字符概率和第二字符概率;所述第一字符概率用于指示在音频中文本信息出现的概率;所述第二字符概率用于指示在预设语音模型中文本信息出现的概率。
43.优选的,所述预测单元,包括:
44.获取模块,用于获取所述第一字符概率对应的第一字符和所述第二字符概率对应的第二字符;
45.组合模块,用于将所述第一字符和所述第二字符进行组合,得到字符串;
46.计算模块,用于通过预设函数和预设算法对所述字符串进行计算,得到文本信息。
47.经由上述技术方案可知,本技术公开了一种语音识别方法及系统,获取待识别的原始语音信号,利用预设深度残差收缩网络模型中的深度残差收缩网络对待识别的原始语音信号进行滤除处理,得到目标语音频谱,预设深度残差收缩网络模型为通过在深度神经网络中融入深度残差收缩网络所构建的模型;目标语音频谱用于指征未包含无关特征的语音频谱;无关特征至少包括噪声特征和环境特征,从目标语音频谱中提取语音时序特征,通过深度残差收缩网络的预设分类层对语音时序特征进行分类,得到目标语音频谱对应的字符概率;字符概率用于指示目标语音频谱对应的各个字符所出现的概率,通过预设预测模型对字符概率进行预测,得到文本信息。通过上述方案,由于预设深度残差收缩网络模型中融入了残差模块和软阈值函数,因此具有特征提取能力强和去除噪声的特性,利用预设深度残差收缩网络模型中的深度残差收缩网络去除原始语音频谱所包含的无关特征,使得在强噪声环境下得到无噪声等特征的文本信息,提高在强噪声环境下对语音信号的识别率。
附图说明
48.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
49.图1为本技术实施例公开的一种语音识别方法的流程示意图;
50.图2为本技术实施例公开的预设深度残差收缩网络模型的结构示意图;
51.图3为本技术实施例公开的软阈值函数的示意图;
52.图4为本技术实施例公开的残差模式下的senet的结构示意图;
53.图5为本技术实施例公开的一种语音识别系统的结构示意图。
具体实施方式
54.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
55.在本技术中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
56.由背景技术可知,申请人发现,基于深度学习的语音识别技术目前在干净环境下已超越人类水平,具有较好的识别效果,但在强噪声环境下对语音信号进行识别的识别率低。
57.受限于卷积神经网络的网络层数和cnn本身提取特征能力等影响,因此申请人研究得出,在强噪声环境下对语音信号进行识别的识别率低。
58.为了解决上述问题,本技术实施例公开了一种语音识别方法及系统,由于预设深度残差收缩网络模型中融入了残差模块和软阈值函数,因此具有特征提取能力强和去除噪声的特性,将原始语音信号输入至预设深度残差收缩网络模型,去除原始语音频谱所包含的无关特征,使得在强噪声环境下得到无噪声等特征的文本信息,提高在强噪声环境下对语音信号的识别率。具体实现方式通过下述实施例进行说明。
59.参考图1所示,为本技术实施例公开的一种语音识别方法的流程示意图,语音识别方法应用于服务器,该语音识别方法主要包括如下步骤:
60.s101:获取待识别的原始语音信号。
61.在s101中,待识别的原始语音信号由采集用户的语音得到。具体的,通过对外提供的请求接口,获取用户基于网络通信模块socket发送的声音文件,通过该声音文件获取待识别的原始语音信号。
62.其中,原始语音信号是一种常见的时间序列,它以离散信号的形式被编码,然后使用一定的声音文件的格式来存储。
63.声音文件的格式类型可以是wav格式文件、也可以是微软音频格式(windows media audio,wma)文件等,具体声音文件的类型本技术不做具体限定。
64.s102:利用预设深度残差收缩网络模型中的深度残差收缩网络对待识别的原始语音信号进行滤除处理,得到目标语音频谱;预设深度残差收缩网络模型为通过在深度神经网络中融入深度残差收缩网络所构建的模型;目标语音频谱用于指征未包含无关特征的语音频谱;无关特征至少包括噪声特征和环境特征。
65.在s102中,利用预设深度残差收缩网络模型中的深度残差收缩网络对待识别的原始语音信号进行滤除处理,得到目标语音频谱的过程如下:
66.首先,利用预设深度残差收缩网络模型中的深度残差收缩网络的频谱函数spectrogram,对待识别的原始语音信号进行预处理,得到原始语音频谱,然后,通过深度残差收缩网络的预设软阈值函数去除原始语音频谱所包含的无关特征,得到目标语音频谱。
67.其中,通过预设深度残差收缩网络模型(drsn

deepspeech)的频谱函数spectrogram,对待识别的原始语音信号进行短时傅里叶变换,得到原始语音频谱。
68.预处理为将待识别的原始语音信号经分帧、加窗、特征提取等处理。
69.无关特征包括噪声特征、环境特征等,其中,环境特征包括远场、近场等特征。
70.具体预设深度残差收缩网络模型的结构,可参考图2所示。
71.图2中,预设深度残差收缩网络模型是以开源模型deepspeech2为基础,将原始的卷积神经网络(convolutional neural networks,cnn)输入层替换成面向强噪声信号的深度残差收缩网络(deep residual shrinkage networks with channel

wise,drsn

cw)。深度残差收缩网络模型增加了跨层恒等路径。
72.图2中,前面的两个卷积层,在语言识别场景中,将环境特征或噪声特征等无关特征,转换成接近于零的值,去除无关特征后,将得到的有用的特征(目标语音频谱)转换成远离零的值,然后自动学习一组阈值,利用软阈值化(软阈值函数)将无关特征删除掉,使得目标语音频谱保留下来。
73.将得到原始语音频谱传入到深度残差收缩网络的drsn

cw中去除多样性和噪声等无关特征。
74.图2中,spectrogram为频谱函数;batchnormalization和bn均为批标准化,每批数据进行前向传播时做标准化处理,有利于训练收敛;rnn为循环神经网络,通过rnn提取音频时序特征;lookahead convolution为前瞻卷积网络,通过lookahead convolution融入未来序列的信息、特征;fc为全连接网络;联结时序类(connectionist temporal classification,ctc),通过ctc使得序列的输入与输出之间不需要一一对齐,ctc函数是一种损失函数,用来衡量输入的序列数据经过神经网络之后,和真实的输出相差有多少;relu和sigmoid均为激活函数;c为特征图的通道数;w为特征图的宽度;1为特征图的高度,fully connected为全连接网络,vanilla or gru、uni or bi和directional为各种类型的卷积神经网络rnn,conv为卷积,k为卷积核数目,m为全连接层的网络单元数目,absolute为对特征取绝对值,gap为global average pooling全局平均池化,x为信号特征,identity shortcut为恒等路径表示残差模块。
75.整个网络模型是建立在深度残差网络、软阈值函数和注意力机制三部分基础上。深度残差网络采用跨层恒等路径的方式大大降低了训练深层网络的难度,解决了网络退化问题,从而使得更深的网络拥有更好的特征提取能力。
76.软阈值函数的表达式如公式(1)所示。
[0077][0078]
其中,y为优化变量,x为小波变换的系数,τ为阈值。
[0079]
首先,需要设置一个正数阈值。该阈值不能太大,即不能大于输入数据绝对值的最大值,然后,软阈值函数会将绝对值低于这个阈值的输入数据设置为零,并且将绝对值大于这个阈值的输入数据也朝着零收缩,其输入与输出的关系如图3所示。
[0080]
图3中,软阈值函数为λ=2;x为小波变换的系数,x轴包括

3τ、

2τ、

τ、0、τ、2τ和3τ;y为优化变量,y轴包括

2τ、

τ、0、τ、2τ;τ为阈值。
neural network)。
[0100]
单向循环神经网络层可以看到不同时刻(如t时刻、t

1时刻、t+1时刻,)对应不同的输出,而且上一时刻的隐含层会影响当前时刻的输出。这种结构就是单向循环神经网络结构。
[0101]
在某些任务中,当前时刻的输出不仅和过去的信息有关,还和后续时刻的信息有关。比如给定一个句子,即单词序列,每个单词的词性和上下文有关,因此可以增加一个按照时间的逆序来传递信息的网络层,增强网络的能力。于是就有了双向循环神经网络(bidirectional recurrentneural network,bi

rnn),它由两层循环神经网络组成,这两层网络都输入序列,但是信息传递方向相反。
[0102]
a2:若循环神经网络层为单向循环神经网络层,通过单向rnn层,从目标语音频谱中提取语音时序特征。
[0103]
a3:若循环神经网络层为双向循环神经网络层,通过双向rnn层,从目标语音频谱中提取语音时序特征。
[0104]
s104:通过深度残差收缩网络的预设分类层对语音时序特征进行分类,得到目标语音频谱对应的字符概率;字符概率用于指示目标语音频谱对应的各个字符所出现的概率。
[0105]
在s104中,深度残差收缩网络的预设分类层起到分类器的作用,预设分类层包括全连接层和逻辑回归层(softmax logical regression,softmax),全连接层的层数可以为多个,本方案全连接层包括第一权连接层和第二全连接层。
[0106]
全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。
[0107]
具体通过预设分类层对语音时序特征进行分类,得到目标语音频谱对应的字符概率的过程如下:
[0108]
首先,将语音时序特征输入至第一全连接层和第二全连接层中,得到语音输出向量,然后,将语音输出向量输入至逻辑回归层进行分类,得到目标语音频谱对应的第一字符概率和第二字符概率;第一字符概率用于指示在音频中文本信息出现的概率;第二字符概率用于指示在预设语音模型中文本信息出现的概率。
[0109]
s105:通过预设预测模型对字符概率进行预测,得到文本信息。
[0110]
在s105中,预设预测模型由ctc函数和在大规模文本上训练得到的语言模型结合得到。
[0111]
通过预设预测模型对字符概率进行预测,得到文本信息的过程如下:
[0112]
首先,获取第一字符概率对应的第一字符和第二字符概率对应的第二字符,然后,将第一字符和第二字符进行组合,得到字符串,通过预设函数和预设算法对字符串进行计算,得到文本信息。
[0113]
其中,预设函数可以是ctc函数,也可以是其他函数,具体预设函数的确定由技术人员根据实际情况进行设置,本技术不做具体限定,本技术的预设函数优选ctc函数。
[0114]
预设算法可以是集束搜索(breadthfirst search,beam search)算法,也可以是最佳优先算法等,具体预设算法的确定由技术人员根据实际情况进行设置,本技术不做具体限定,本技术的预设算法优选beam search算法。
[0115]
beam search算法是一种启发式图搜索算法,通常用在图的解空间比较大的情况下,为了减少搜索所占用的空间和时间,在每一步深度扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。这样减少了空间消耗,提高了时间效率。
[0116]
利用预设预测模型对字符概率进行预测的计算式如公式(5)所示。
[0117]
q(y)=log(p(y|x))+αlog(p
lm
(y))+β
·
wc(y) (5)
[0118]
其中,q(y)为变量,通过最大化这个变量来确定字符y;p(y|x)为音频x下字符y出现的概率;α为调整语言模型和ctc函数的权重;p
lm
(y)为字符y在语言模型中出现的概率;β为预测文本长度,即预测字符串长度;wc(y)为转录文本(字符串)中的字符数或者单词数。
[0119]
在语音识别模型deepspeech2的基础上,本方案采用深度残差收缩模型来处理语音信号多样性和噪声问题,对识别含噪声语音的识别精度有明显提升。一方面,该深度残差收缩模型融入了残差模块,解决了网格退化问题,能采用更深的网络层数来增强模型提取特征的能力;另一方面,深度残差收缩模型植入了传统线性信号处理中的软阈值函数来过滤信号中的噪声成分。算法将深度学习的非线性和传统信号处理的线性融合,更符合实际语音信号的成分构成,因而能明显提高模型对含噪声语音的解析能力,具有更强的鲁棒性。
[0120]
本技术实施例中,由于预设深度残差收缩网络模型中融入了残差模块和软阈值函数,因此具有特征提取能力强和去除噪声的特性,利用预设深度残差收缩网络模型中的深度残差收缩网络去除原始语音频谱所包含的无关特征,使得在强噪声环境下得到无噪声等特征的文本信息,提高在强噪声环境下对语音信号的识别率。
[0121]
基于上述实施例图1公开的一种语音识别方法,本技术实施例还对应公开了一种语音识别系统,如图5所示,该语音识别系统包括获取单元501、滤除单元502、提取单元503、分类单元504和预测单元505。
[0122]
获取单元501,用于获取待识别的原始语音信号。
[0123]
滤除单元502,用于利用预设深度残差收缩网络模型中的深度残差收缩网络对待识别的原始语音信号进行滤除处理,得到目标语音频谱;预设深度残差收缩网络模型为通过在深度神经网络中融入深度残差收缩网络所构建的模型;目标语音频谱用于指征未包含无关特征的语音频谱;无关特征至少包括噪声特征和环境特征。
[0124]
提取单元503,用于从目标语音频谱中提取语音时序特征。
[0125]
分类单元504,用于通过深度残差收缩网络的预设分类层数对语音时序特征进行分类,得到目标语音频谱对应的字符概率;字符概率用于指示目标语音频谱对应的各个字符所出现的概率。
[0126]
预测单元505,用于通过预设预测模型对字符概率进行预测,得到文本信息。
[0127]
进一步的,滤除单元502包括预处理模块和去除模块。
[0128]
预处理模块,用于利用预设深度残差收缩网络模型中的深度残差收缩网络的频谱函数,对待识别的原始语音信号进行预处理,得到原始语音频谱。
[0129]
去除模块,用于通过深度残差收缩网络的预设软阈值函数去除原始语音频谱所包含的无关特征,得到目标语音频谱。
[0130]
进一步的,提取单元503包括第一提取模块、第二提取模块和第三提取模块。
[0131]
第一提取模块,用于通过预设深度残差收缩网络模型的循环神经网络层,从目标语音频谱中提取语音时序特征;循环神经网络层包括单向循环神经网络层或双向循环神经
网络层。
[0132]
第二提取模块,用于若循环神经网络层为单向循环神经网络层,通过单向循环神经网络层,从目标语音频谱中提取语音时序特征。
[0133]
第三提取模块,用于若循环神经网络层为双向循环神经网络层,通过双向循环神经网络层,从目标语音频谱中提取语音时序特征。
[0134]
进一步的,分类单元包括输入模块和分类模块。
[0135]
输入模块,用于将语音时序特征输入至第一全连接层和第二全连接层中,得到语音输出向量。
[0136]
分类模块,用于将语音输出向量输入至逻辑回归层进行分类,得到目标语音频谱对应的第一字符概率和第二字符概率;第一字符概率用于指示在音频中文本信息出现的概率;第二字符概率用于指示在预设语音模型中文本信息出现的概率。
[0137]
进一步的,预测单元505包括获取模块、组合模块和计算模块。
[0138]
获取模块,用于获取第一字符概率对应的第一字符和第二字符概率对应的第二字符。
[0139]
组合模块,用于将第一字符和第二字符进行组合,得到字符串。
[0140]
计算模块,用于通过预设函数和预设算法对字符串进行计算,得到文本信息。
[0141]
本技术实施例中,由于预设深度残差收缩网络模型具有特征提取能力强和去除噪声的特性,利用预设深度残差收缩网络模型中的深度残差收缩网络去除原始语音频谱所包含的无关特征,使得在强噪声环境下得到无噪声等特征的文本信息,提高在强噪声环境下对语音信号的识别率。
[0142]
上述各个实施例的具体实施过程及其衍生方式,均在本技术的保护范围之内。
[0143]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0144]
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[0145]
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本技术。对这些实施例的多种修改对本领域技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的
范围。
[0146]
以上所述仅是本技术的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本技术的保护范围。