首页 > 乐器声学 专利正文
语音数据处理方法、装置、电子设备及存储介质与流程

时间:2022-02-24 阅读: 作者:专利查询

语音数据处理方法、装置、电子设备及存储介质与流程

1.本技术属于语音数据处理技术领域,具体涉及一种语音数据处理方法、装置、电子设备及存储介质。


背景技术:

2.在日常生活和工作中,用户经常会出现佩戴口罩、面具等面部遮挡物遮挡口鼻的情况。在这种情况下,用户通过电子设备与其他用户通话,会影响到用户的通信质量。


技术实现要素:

3.本技术实施例的目的是提供一种语音数据处理方法、装置、电子设备及存储介质,以解决用户的通信质量差的问题。
4.为了解决上述技术问题,本技术是这样实现的:
5.第一方面,本技术实施例提供了一种语音数据处理方法,该方法包括:
6.获取第一电子设备的用户通话时的通话数据;所述通话数据包括语音数据;
7.在根据所述通话数据确定出所述第一电子设备的用户佩戴面部遮挡物的情况下,对所述语音数据进行处理,得到目标语音数据;所述目标语音数据的清晰度大于所述语音数据的清晰度;
8.将所述目标语音数据发送至第二电子设备。
9.第二方面,本技术实施例提供了一种语音数据处理的装置,该装置包括:
10.获取模块,用于获取第一电子设备的用户通话时的通话数据;所述通话数据包括语音数据;
11.处理模块,用于在根据所述通话数据确定出所述第一电子设备的用户佩戴面部遮挡物的情况下,对所述语音数据进行处理,得到目标语音数据;所述目标语音数据的清晰度大于所述语音数据的清晰度;
12.发送模块,用于将所述目标语音数据发送至第二电子设备。
13.第三方面,本技术实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤。
14.第四方面,本技术实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤。
15.第五方面,本技术实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法的步骤。
16.在本技术实施例中,通过在根据第一电子设备的用户通话时的通话数据确定第一电子设备的用户佩戴面部遮挡物的情况下,对语音数据进行处理,得到清晰度较高的目标语音数据,将清晰度较高的目标语音数据发送给与第一电子设备通话的第二电子设备。这
样,即使第一电子设备的用户佩戴了面部遮挡物,第二电子设备也依旧可以接收到处理后的清晰度较高的目标语音数据,从而可以有效提高通信质量,提高用户体验。
附图说明
17.图1是本技术一个实施例提供的语音数据处理方法的流程示意图;
18.图2是本技术实施例中第一电子设备的用户佩戴面部遮挡物的一种示意图;
19.图3是本技术实施例中第一电子设备的用户佩戴面部遮挡物的另一种示意图;
20.图4是本技术实施例提供的语音数据处理方法的一个场景实施例的流程示意图;
21.图5是本技术另一个实施例提供的语音数据处理装置的结构示意图;
22.图6是本技术又一个实施例提供的电子设备的结构示意图。
具体实施方式
23.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
24.本技术的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
25.下面结合附图,通过具体的实施例及其应用场景对本技术实施例提供的语音数据处理方法进行详细地说明。
26.图1是本技术一个实施例提供的语音数据处理方法的流程示意图,如图1所示,本技术实施例提供一种语音数据处理方法,该方法可以包括:
27.步骤s101,获取第一电子设备的用户通话时的通话数据;通话数据包括语音数据。
28.其中,通话数据可以包括第一电子设备的用户的语音数据和面部图像数据等,通话数据可以是第一电子设备的用户在进行语音通话、视频通话时获取到的通话数据,还可以是第一电子设备的用户在发送语音消息时获取到的通话数据等。
29.步骤s102,在根据通话数据确定出第一电子设备的用户佩戴面部遮挡物的情况下,对语音数据进行处理,得到目标语音数据;目标语音数据的清晰度大于语音数据的清晰度。
30.其中,面部遮挡物可以是口罩、面具、头套等会遮挡住第一电子设备的用户口鼻的物件,为了便于理解本技术实施例的方案,下文中主要以面部遮挡物为口罩进行说明。
31.在获取第一电子设备的用户通话时的通话数据之后,可以根据通话数据确定第一电子设备的用户是否佩戴面部遮挡物。在确定了第一电子设备的用户佩戴面部遮挡物的情况下,可以采用现有的声音算法对第一电子设备的用户的语音数据进行处理,提高语音数据的清晰度,从而得到清晰度更高的目标语音数据。
32.步骤s103,将目标语音数据发送至第二电子设备。
33.得到目标语音数据之后,可以将目标语音数据发给第二电子设备,相比于语音数据,因为目标语音数据的清晰度更高,因此,第二电子设备在通话中更容易听清第一电子设备的用户的声音,提高了通信质量。
34.在本技术实施例中,通过在根据第一电子设备的用户通话时的通话数据确定第一电子设备的用户佩戴面部遮挡物的情况下,对语音数据进行处理,得到清晰度较高的目标语音数据,将清晰度较高的目标语音数据发送给与第一电子设备通话的第二电子设备。这样,即使第一电子设备的用户佩戴了面部遮挡物,第二电子设备也依旧可以接收到处理后的清晰度较高的目标语音数据,从而可以有效提高通信质量,提高用户体验。
35.为了更准确的确定第一电子设备的用户是否佩戴面部遮挡物,在一些实施例中,通话数据还包括第一电子设备的用户的面部图像数据:
36.上述步骤s101之后,步骤s102之前,语音数据处理方法还可以执行如下步骤:
37.根据第一电子设备的用户的语音数据和/或面部图像数据,确定第一电子设备的用户是否佩戴面部遮挡物。
38.其中,第一电子设备的用户的语音数据可以是第一电子设备的用户通话时第一电子设备采集到的第一电子设备的用户的通话声音,还可以是第一电子设备的用户发送语音消息时第一电子设备采集到的语音。第一电子设备的用户的面部图像数据可以是第一电子设备拍摄到的第一电子设备的用户的面部图像。面部图像数据可以是在第一电子设备的用户进行视频通话时获取到的面部图像。面部图像数据也可以是基于第一电子设备的用户的设置,在第一电子设备的用户进行语音通话、发送语音消息时,通过第一电子设备的摄像头获取到第一电子设备的用户的面部图像,例如,在第一电子设备的用户使用扩音模式,将电子设备置于正面通话时,摄像头可以获取第一电子设备的用户的正面面部图像,在第一电子设备的用户将电子设备放到耳边通话时,摄像头可以获取第一电子设备的用户的侧面面部图像。
39.根据第一电子设备的用户的语音数据确定第一电子设备的用户是否佩戴面部遮挡物,可以是根据第一电子设备的用户的语音数据的语音特征参数,确定第一电子设备的用户是否佩戴面部遮挡物。其中,语音特征参数可以包括清晰度、明亮度等。
40.可以理解的是,在用户佩戴口罩时,其发音可能会受到口罩的影响,因此,用户佩戴口罩时的声音相比于用户没有佩戴口罩时会较为低沉、不清楚,换而言之,佩戴口罩时语音数据的清晰度和明亮度相比于没有佩戴口罩时更低。基于此,可以结合实际情况,根据经验值预设一个清晰度和/或明亮度的阈值,当第一电子设备的用户的语音数据的清晰度和/或明亮度小于该阈值时,可以认为第一电子设备的用户佩戴了口罩,反之,可以认为第一电子设备的用户没有佩戴口罩。
41.作为一个具体的示例,为了实现根据语音数据的语音特征参数确定第一电子设备的用户是否佩戴面部遮挡物,可以采用现有的语音识别算法对获取到的语音数据进行语音特征参数的提取。具体的,可以对获取到的语音数据进行声音信号的分割,再采用线性预测倒谱技术(lpcc)或者mel频率倒谱系数(mfcc)等方法对语音特征参数进行提取,然后可以根据提取到的语音特征参数确定第一电子设备的用户是否佩戴面部遮挡物。
42.为了避免语音数据的不确定性影响判断结果,本实施例还可以根据第一电子设备的用户的面部图像数据,来确定第一电子设备的用户佩戴面部遮挡物。
43.在一个具体示例中,在根据通话数据确定第一电子设备的用户是否佩戴面部遮挡物时,面部图像数据的优先级可以高于语音数据的优先级,换而言之,在获取到的通话数据包括第一电子设备的用户的语音数据和面部图像数据的情况下,根据第一电子设备的用户的面部图像数据来确定第一电子设备的用户是否佩戴面部遮挡物。
44.在另一个具体示例中,考虑到第一电子设备可能无法获取到面部图像数据的情况,例如,第一电子设备的用户将电子设备收纳在口袋中,使用耳机进行语音通话时,可以根据第一电子设备的用户的语音数据来确定第一电子设备的用户是否佩戴面部遮挡物。
45.在又一个具体示例中,为了更准确的判断用户是否佩戴面部遮挡物,在通话数据包括第一电子设备的用户的语音数据和面部图像数据的情况下,可以根据第一电子设备的用户的语音数据和面部图像数据共同来确定第一电子设备的用户是否佩戴面部遮挡物。即当根据语音数据判断第一电子设备的用户佩戴了面部遮挡物,且根据面部图像数据也判断第一电子设备的用户佩戴了面部遮挡物时,才可以确定第一电子设备的用户佩戴了面部遮挡物;当根据语音数据和面部图像数据中任意一者判断第一电子设备的用户没有佩戴面部遮挡物时,可以确定第一电子设备的用户没有佩戴面部遮挡物。
46.在这些实施例中,可以根据获取到的第一电子设备的用户通话时的语音数据和/或面部图像数据来确定第一电子设备的用户佩戴面部遮挡物,这样,可以避免因为语音数据的不确定性较高,导致根据语音数据得到的判断结果不准确的问题,也可以避免电子设备因无法获取面部图像数据而无法确定第一电子设备的用户佩戴面部遮挡物的情况,因此,根据语音数据和/或面部图像数据确定第一电子设备的用户佩戴面部遮挡物更加灵活,适用性更广,得到的判断结果更加准确。
47.为了避免目标语音数据失真,从而进一步提高通信质量和用户体验,在一些实施例中,上述步骤s102的具体实现方式可以包括如下步骤:
48.将语音数据输入预设模型;预设模型基于第一电子设备的用户的历史通话数据训练得到,历史通话数据包括第一电子设备的用户在未佩戴面部遮挡物和佩戴面部遮挡物时的历史语音数据;
49.利用预设模型对语音数据进行处理,得到目标语音数据。
50.其中,预设模型可以是基于第一电子设备的用户的历史通话数据训练得到。例如,可以将第一电子设备的用户的历史通话数据中,未佩戴面部遮挡物时的历史语音数据和佩戴了面部遮挡物时的历史语音数据作为训练样本,进行训练,识别训练样本中历史语音数据的语音特征参数,得到预设模型。
51.在第一电子设备的用户在通话时佩戴了面部遮挡物,影响到语音数据的清晰度时,可以将语音数据输入预设模型中,利用预设模型对语音数据进行处理,从而得到第一电子设备的用户未佩戴面部遮挡物时对应的语音数据。可以理解的是,处理后的语音数据的清晰度高于未经过处理的语音数据,可以将该处理后的语音数据作为目标语音数据。
52.在这些实施例中,考虑到采用现有的声音算法来处理第一电子设备的用户的语音数据,虽然可以提高清晰度,但是处理后的语音数据可能存在与第一电子设备的用户本身的声音差异较大的情况,即目标语音数据可能失真,因此可以利用基于第一电子设备的用户的历史通话数据训练得到的预设模型对语音数据进行处理,得到对应第一电子设备的用户未佩戴面部遮挡物时的目标语音数据,保证了目标语音数据的真实性,进一步提高了通
信质量和用户体验。
53.在一些示例中,考虑到不同用户的声音特性,为了更加准确的判断用户是否佩戴面部遮挡物,也可以基于第一电子设备的用户的语音数据和预设模型,确定用户是否佩戴面部遮挡物。例如,可以将语音数据分别与历史通话数据中未佩戴面部遮挡物时的历史语音数据和佩戴了面部遮挡物时的历史语音数据进行比对,当与未佩戴面部遮挡物时的历史语音数据的相似度大于与佩戴了面部遮挡物时的历史语音数据的相似度时,可以认为第一电子设备的用户未佩戴面部遮挡物,反之,当与未佩戴面部遮挡物时的历史语音数据的相似度小于与佩戴了面部遮挡物时的历史语音数据的相似度时,可以认为第一电子设备的用户佩戴了面部遮挡物。
54.为了更直观准确的判断用户是否佩戴面部遮挡物,在一个具体的示例中,历史通话数据还可以包括第一电子设备的用户在未佩戴面部遮挡物和佩戴面部遮挡物时的历史面部图像数据。可以先根据历史面部图像数据确定第一电子设备的用户佩戴面部遮挡物的情况,在第一电子设备的用户佩戴面部遮挡物时,获取此时第一电子设备的用户的语音数据,存储第一电子设备的用户在佩戴面部遮挡物时的历史语音数据;在第一电子设备的用户未佩戴面部遮挡物时,获取此时第一电子设备的用户的语音数据,存储第一电子设备的用户在未佩戴面部遮挡物时的历史语音数据。再将第一电子设备的用户佩戴面部遮挡物时的历史语音数据和第一电子设备的用户未佩戴面部遮挡物时的历史语音数据作为训练样本,训练得到预设模型。
55.这样,可以保证训练样本的准确度,在后续通话中根据预设模型来识别确定第一电子设备的用户是否佩戴面部遮挡物时,得到的判断结果更加准确,因此,可以保证在第一电子设备的用户佩戴面部遮挡物的情况下,更及时准确的对语音数据进行处理,进而提高通信质量和用户体验。
56.为了提高语音数据处理的灵活性,在一些实施例中,在根据通话数据确定出第一电子设备的用户佩戴面部遮挡物的情况下,语音数据处理方法还可以执行如下步骤:
57.输出提示信息;提示信息用于提示第一电子设备的用户语音数据的清晰度受到面部遮挡物的影响。
58.在检测到第一电子设备的用户佩戴面部遮挡物的情况下,可以输出提示信息,提示第一电子设备的用户语音数据的清晰度受到面部遮挡物的影响,此时第一电子设备的用户可以决定是否摘下面部遮挡物。
59.在一些实施例中,第一电子设备的用户佩戴面部遮挡物时也可能存在两种情况。例如,如图2所示,第一电子设备的用户佩戴口罩,口罩在嘴部曲线顺滑,在该情况下,说明第一电子设备的用户佩戴口罩的方式正确,此时对通信质量影响较小。如图3所示,第一电子设备的用户佩戴口罩,口罩在嘴部出现凹陷,在该情况下,说明第一电子设备的用户佩戴口罩的方式错误,此时对通信质量影响较大,语音数据的清晰度更低。
60.历史通话数据还可以包括未佩戴面部遮挡物时的语音数据、佩戴面部遮挡物正确时的语音数据和佩戴面部遮挡物错误时的语音数据,将这些语音数据作为训练样本训练得到预设模型。
61.在后续通话中,可以根据通话数据获取第一电子设备的用户佩戴面部遮挡物的情况,根据不同的情况执行不同的步骤。例如,当确定第一电子设备的用户未佩戴口罩时,可
以不进行处理,直接将获取到的语音数据发送至第二电子设备;当确定第一电子设备的用户佩戴口罩正确时,可以输出提示信息,也可以不进行提示,直接对语音数据进行处理,得到清晰度更高的目标语音数据后,将目标语音数据发送至第二电子设备;当确定第一电子设备的用户佩戴口罩错误时,可以输出提示信息,提醒第一电子设备的用户正确佩戴口罩或摘下口罩,在第一电子设备的用户正确佩戴口罩后可以对语音数据进行处理,得到清晰度更高的目标语音数据后,将目标语音数据发送至第二电子设备。
62.在这些实施例中,在第一电子设备的用户因为佩戴面部遮挡物而对通信质量造成影响时,除了可以对语音数据进行处理,提高清晰度之外,还可以输出提示信息,提示用户当前语音数据清晰度受到面部遮挡物的影响,导致通信质量较低,这样,可以让第一电子设备的用户选择是否摘下面部遮挡物以消除影响,还是通过对语音数据进行处理以消除影响,使得语音数据处理的灵活性更高。
63.为了进一步提高语音数据处理的灵活性,在一些实施例中,输出提示信可以包括:
64.获取第一电子设备的地理位置信息;
65.在地理位置信息不属于目标地理位置的情况下,输出提示信息;或者,
66.在地理位置信息属于目标地理位置的情况下,输出提示信息,提示信息还用于提示第一电子设备的用户保持佩戴面部遮挡物。
67.其中,目标地理位置可以是例如大型商场等人流量大的公共场所。
68.可以结合gps等现有的定位算法获取第一电子设备的地理位置信息,在地理位置信息不属于目标地理位置,且第一电子设备的用户佩戴面部遮挡物的情况下,可以输出提示信息,提示第一电子设备的用户语音数据的清晰度受到面部遮挡物的影响,此时第一电子设备的用户可以决定是否摘下面部遮挡物。
69.在一些示例中,在地理位置信息属于目标地理位置的情况下,可以不输出提示,即在地理位置信息属于公共场所时,可以不提示第一电子设备的用户语音数据的清晰度受到面部遮挡物的影响,此时可以直接对语音数据进行处理,得到清晰度更高的目标语音数据后发送至第二电子设备。
70.在另一些示例中,在地理位置信息属于目标地理位置,且第一电子设备的用户佩戴面部遮挡物的情况下,可以输出提示信息,提示信息除了用于提示第一电子设备的用户语音数据的清晰度受到面部遮挡物的影响外,还可以用于提示第一电子设备的用户保持佩戴面部遮挡物。即在地理位置信息属于公共场所时,可以提示第一电子设备的用户保持佩戴面部遮挡物。
71.在本实施例中,可以结合第一电子设备的地理位置信息,确定地理位置信息是否属于目标地理位置,在地理位置信息不属于目标地理位置的情况下,提示第一电子设备的用户当前语音数据清晰度受到面部遮挡物的影响,或者在地理位置信息属于目标地理位置的情况下,提示第一电子设备的用户保持佩戴面部遮挡物,这样,输出提示信息可以根据实际需求适用于更多场景下,使得语音数据处理的适用范围更广,语音数据处理的灵活性更高。
72.在一些示例中,还可以在第一电子设备的用户未佩戴面部遮挡物,且地理位置信息属于目标地理位置的情况下,输出提示信息,提示信息可以用于提示第一电子设备的用户佩戴面部遮挡物。例如,在第一电子设备的用户通话时,获取第一电子设备的地理位置信
息,根据通话数据确定第一电子设备的用户未佩戴面部遮挡物,且地理位置信息属于目标地理位置的情况下,提示第一电子设备的用户佩戴面部遮挡物。
73.为了便于理解上述实施例提供的语音数据处理方法,以下以一个具体的场景实施例对上述语音数据处理方法进行说明。图4示出了上述语音数据处理方法的场景实施例流程图。
74.如图4所示,该场景实施例的应用场景可以是第一电子设备与第二电子设备进行通话时,第一电子设备的用户佩戴了面部遮挡物,影响到语音数据的清晰度,导致通信质量较差的情况。场景实施例具体可以包括如下步骤:
75.步骤s401,根据面部图像数据确定第一电子设备的用户是否佩戴面部遮挡物,面部图像数据可以是在第一电子设备的用户通话时,通过第一电子设备的摄像头采集到的,面部图像数据可以包括第一电子设备的用户佩戴面部遮挡物的面部图像和第一电子设备的用户未佩戴面部遮挡物的面部图像。
76.步骤s402,获取第一电子设备的用户佩戴面部遮挡物时和未佩戴面部遮挡时的历史语音数据。
77.步骤s403,将第一电子设备的用户佩戴面部遮挡物时和未佩戴面部遮挡时的历史语音数据作为训练样本,训练得到预设模型。
78.步骤s404,获取第一电子设备的用户通话时的通话数据,通话数据可以包括第一电子设备的用户的语音数据。
79.步骤s405,根据通话数据确定第一电子设备的用户是否佩戴面部遮挡物,具体的,可以根据语音数据与预设模型,确定第一电子设备的用户是否佩戴面部遮挡物。其中,通话数据还可以包括第一电子设备的用户的面部图像数据,此时也可以根据面部图像数据确定第一电子设备的用户是否佩戴面部遮挡物。若是,则执行步骤s406;若否,则执行步骤s408。
80.步骤s406,对语音数据进行处理,得到目标语音数据。
81.步骤s407,将目标语音数据发送至第二电子设备。
82.步骤s408,将语音数据发送至第二电子设备。
83.本场景实施例通过根据第一电子设备的用户通话时的通话数据,确定第一电子设备的用户是否佩戴面部遮挡物,并在第一电子设备的用户佩戴面部遮挡物的情况下,对语音数据进行处理,得到清晰度较高的目标语音数据,将清晰度较高的目标语音数据发送给第二电子设备。这样,即使第一电子设备的用户佩戴了面部遮挡物,第二电子设备也依旧可以接收到处理后的清晰度较高的目标语音数据,从而可以有效提高通信质量,提高用户体验。
84.需要说明的是,本技术实施例提供的语音数据处理方法,执行主体可以为语音数据处理装置,或者,或者该语音数据处理装置中的用于执行加载语音数据处理方法的控制模块。本技术实施例中以语音数据处理装置执行加载语音数据处理方法为例,说明本技术实施例提供的语音数据处理方法。
85.图5是本技术另一个实施例提供的语音数据处理装置的结构示意图,如图5所示,语音数据处理装置500可以包括:
86.获取模块501,用于获取第一电子设备的用户通话时的通话数据;通话数据包括语音数据;
87.处理模块502,用于在根据通话数据确定出第一电子设备的用户佩戴面部遮挡物的情况下,对语音数据进行处理,得到目标语音数据;目标语音数据的清晰度大于语音数据的清晰度;
88.发送模块503,用于将目标语音数据发送至第二电子设备。
89.在本技术实施例中,通过在根据第一电子设备的用户通话时的通话数据确定第一电子设备的用户佩戴面部遮挡物的情况下,对语音数据进行处理,得到清晰度较高的目标语音数据,将清晰度较高的目标语音数据发送给与第一电子设备通话的第二电子设备。这样,即使第一电子设备的用户佩戴了面部遮挡物,第二电子设备也依旧可以接收到处理后的清晰度较高的目标语音数据,从而可以有效提高通信质量,提高用户体验。
90.在一些实施例中,通话数据还可以包括第一电子设备的用户的面部图像数据:
91.语音数据处理装置500还可以包括:
92.确定模块,用于根据第一电子设备的用户的语音数据和/或面部图像数据,确定第一电子设备的用户是否佩戴面部遮挡物。
93.在这些实施例中,可以根据获取到的第一电子设备的用户通话时的语音数据和/或面部图像数据来确定第一电子设备的用户是否佩戴面部遮挡物,这样,可以避免因为语音数据的不确定性较高,导致根据语音数据得到的判断结果不准确的问题,也可以避免电子设备因无法获取面部图像数据而无法确定第一电子设备的用户佩戴面部遮挡物的情况,因此,根据语音数据和/或面部图像数据确定第一电子设备的用户佩戴面部遮挡物更加灵活,适用性更广,得到的判断结果更加准确。
94.在一些实施例中,处理模块502,可以包括:
95.第一输入单元,用于将语音数据输入预设模型;预设模型基于第一电子设备的用户的历史通话数据训练得到,历史通话数据包括第一电子设备的用户在未佩戴面部遮挡物和佩戴面部遮挡物时的历史语音数据;
96.处理单元,用于利用预设模型对语音数据进行处理,得到目标语音数据。
97.在这些实施例中,考虑到采用现有的声音算法来处理第一电子设备的用户的语音数据,虽然可以提高清晰度,但是处理后的语音数据可能存在与第一电子设备的用户本身的声音差异较大的情况,即目标语音数据可能失真,因此可以利用基于第一电子设备的用户的历史通话数据训练得到的预设模型对语音数据进行处理,得到对应第一电子设备的用户未佩戴面部遮挡物时的目标语音数据,保证了目标语音数据的真实性,进一步提高了通信质量和用户体验。
98.在一些实施例中,语音数据处理装置还可以包括:
99.输出模块,用于输出提示信息;提示信息用于提示第一电子设备的用户通话数据的清晰度受到面部遮挡物的影响。
100.在这些实施例中,在第一电子设备的用户因为佩戴面部遮挡物而对通信质量造成影响时,除了可以对语音数据进行处理,提高清晰度之外,还可以输出提示信息,提示用户当前语音数据清晰度受到面部遮挡物的影响,导致通信质量较低,这样,可以让第一电子设备的用户选择是否摘下面部遮挡物以消除影响,还是通过对语音数据进行处理以消除影响,使得语音数据处理的灵活性更高。
101.在一些实施例中,输出模块,可以包括:
102.获取单元,用于获取第一电子设备的地理位置信息;
103.输出单元,用于在地理位置信息不属于目标地理位置的情况下,输出提示信息;或者,
104.在地理位置信息属于目标地理位置的情况下,输出提示信息,提示信息还用于提示第一电子设备的用户保持佩戴面部遮挡物。
105.在本实施例中,可以结合第一电子设备的地理位置信息,确定地理位置信息是否属于目标地理位置,在地理位置信息不属于目标地理位置的情况下,提示第一电子设备的用户当前语音数据清晰度受到面部遮挡物的影响,或者在地理位置信息属于目标地理位置的情况下,提示第一电子设备的用户保持佩戴面部遮挡物,这样,输出提示信息可以根据实际需求适用于更多场景下,使得语音数据处理的适用范围更广,语音数据处理的灵活性更高。
106.本技术实施例中的语音数据处理装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra

mobile personal computer,umpc)、上网本或者个人数字助理(personal digital assistant,pda)等,非移动电子设备可以为服务器、网络附属存储器(network attached storage,nas)、个人计算机(personal computer,pc)、电视机(television,tv)、柜员机或者自助机等,本技术实施例不作具体限定。
107.本技术实施例中的语音数据处理装置可以为具有操作系统的装置。该操作系统可以为安卓(android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本技术实施例不作具体限定。
108.本技术实施例提供的语音数据处理装置能够实现图1至图4的方法实施例中语音数据处理装置实现的各个过程,为避免重复,这里不再赘述。
109.可选的,本技术实施例还提供一种电子设备,包括处理器610,存储器609,存储在存储器609上并可在所述处理器610上运行的程序或指令,该程序或指令被处理器610执行时实现上述语音数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
110.需要注意的是,本技术实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
111.图6为实现本技术实施例的一种电子设备的硬件结构示意图。
112.该电子设备600包括但不限于:射频单元601、网络模块602、音频输出单元603、输入单元604、传感器605、显示单元606、用户输入单元607、接口单元608、存储器609、以及处理器610等部件。
113.本领域技术人员可以理解,电子设备600还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器610逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图6中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
114.其中,处理器610,用于:
115.获取第一电子设备的用户通话时的通话数据;通话数据包括语音数据;
116.在根据通话数据确定出第一电子设备的用户佩戴面部遮挡物的情况下,对语音数据进行处理,得到目标语音数据;目标语音数据的清晰度大于语音数据的清晰度;
117.将目标语音数据发送至第二电子设备。
118.在本技术实施例中,通过在根据第一电子设备的用户通话时的通话数据确定第一电子设备的用户佩戴面部遮挡物的情况下,对语音数据进行处理,得到清晰度较高的目标语音数据,将清晰度较高的目标语音数据发送给与第一电子设备通话的第二电子设备。这样,即使第一电子设备的用户佩戴了面部遮挡物,第二电子设备也依旧可以接收到处理后的清晰度较高的目标语音数据,从而可以有效提高通信质量,提高用户体验。
119.在一些实施例中,通话数据还可以包括第一电子设备的用户的面部图像数据:
120.处理器610还可以用于:
121.根据第一电子设备的用户的语音数据和/或面部图像数据,确定第一电子设备的用户是否佩戴面部遮挡物。
122.在这些实施例中,可以根据获取到的第一电子设备的用户通话时的语音数据和/或面部图像数据来确定第一电子设备的用户佩戴面部遮挡物,这样,可以避免因为语音数据的不确定性较高,导致根据语音数据得到的判断结果不准确的问题,也可以避免电子设备因无法获取面部图像数据而无法确定第一电子设备的用户佩戴面部遮挡物的情况,因此,根据语音数据和/或面部图像数据确定第一电子设备的用户佩戴面部遮挡物更加灵活,适用性更广,得到的判断结果更加准确。
123.在一些实施例中,处理器610还可以用于:
124.将语音数据输入预设模型;预设模型基于第一电子设备的用户的历史通话数据训练得到,历史通话数据包括第一电子设备的用户在未佩戴面部遮挡物和佩戴面部遮挡物时的历史语音数据;
125.利用预设模型对语音数据进行处理,得到目标语音数据。
126.在这些实施例中,考虑到采用现有的声音算法来处理第一电子设备的用户的语音数据,虽然可以提高清晰度,但是处理后的语音数据可能存在与第一电子设备的用户本身的声音差异较大的情况,即目标语音数据可能失真,因此可以利用基于第一电子设备的用户的历史通话数据训练得到的预设模型对语音数据进行处理,得到对应第一电子设备的用户未佩戴面部遮挡物时的目标语音数据,保证了目标语音数据的真实性,进一步提高了通信质量和用户体验。
127.在一些实施例中,处理器610还可以用于:
128.输出提示信息;提示信息用于提示第一电子设备的用户通话数据的清晰度受到面部遮挡物的影响。
129.在这些实施例中,在第一电子设备的用户因为佩戴面部遮挡物而对通信质量造成影响时,除了可以对语音数据进行处理,提高清晰度之外,还可以输出提示信息,提示用户当前语音数据清晰度受到面部遮挡物的影响,导致通信质量较低,这样,可以让第一电子设备的用户选择是否摘下面部遮挡物以消除影响,还是通过对语音数据进行处理以消除影响,使得语音数据处理的灵活性更高。
130.在一些实施例中,处理器610还可以用于:
131.获取第一电子设备的地理位置信息;
132.在地理位置信息不属于目标地理位置的情况下,输出提示信息;或者,
133.在地理位置信息属于目标地理位置的情况下,输出提示信息,提示信息还用于提示第一电子设备的用户保持佩戴面部遮挡物。
134.在本实施例中,可以结合第一电子设备的地理位置信息,确定地理位置信息是否属于目标地理位置,在地理位置信息不属于目标地理位置的情况下,提示第一电子设备的用户当前语音数据清晰度受到面部遮挡物的影响,或者在地理位置信息属于目标地理位置的情况下,提示第一电子设备的用户保持佩戴面部遮挡物,这样,输出提示信息可以根据实际需求适用于更多场景下,使得语音数据处理的适用范围更广,语音数据处理的灵活性更高。
135.本技术实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述语音数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
136.其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(read

only memory,rom)、随机存取存储器(random access memory,ram)、磁碟或者光盘等。
137.本技术实施例另提供提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述语音数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
138.应理解,本技术实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
139.需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本技术实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
140.通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本技术各个实施例所述的方法。
141.上面结合附图对本技术的实施例进行了描述,但是本技术并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本技术的启示下,在不脱离本技术宗旨和权利要求所保护的范围情况下,还可做出很多
形式,均属于本技术的保护之内。