首页 > 乐器声学 专利正文
一种基于语音识别的辅助面试方法及系统与流程

时间:2022-02-15 阅读: 作者:专利查询

一种基于语音识别的辅助面试方法及系统与流程

1.本发明涉及数据处理领域,具体而言,涉及一种基于语音识别的辅助面试方法及系统。


背景技术:

2.面试是公司挑选职工的一种重要方法。面试是通过书面、面谈或线上交流(视频、电话)的形式来考察一个人的工作能力与综合素质,通过面试可以初步判断应聘者是否可以融入自己的团队。是一种经过组织者精心策划的招聘活动。在特定场景下,以面试官对应聘者的交谈与观察为主要手段,由表及里测评应聘者的知识、能力、经验和综合素质等有关素质的考试活动。
3.目前,越来越多的公司需要对面试者的性格进行了解,现有的面试都是依靠面试官作出主观评价得到,这样得到的面试者的性格结果往往不够客观。


技术实现要素:

4.本发明的目的在于提供一种基于语音识别的辅助面试方法及系统,用以改善现有技术中面试者的性格结果由面试官主观评价得到,往往不够客观的问题。
5.第一方面,本技术实施例提供一种基于语音识别的辅助面试方法,包括以下步骤:
6.获取面试者的多条语音信息;
7.将各条语音信息分别进行特征提取,生成多个语音特征参数;
8.将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;
9.将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;
10.获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;
11.将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;
12.根据匹配结果生成面试者的面试辅助报告。
13.上述实现过程中,通过获取面试者的多条语音信息;然后将各条语音信息分别进行特征提取,生成多个语音特征参数;然后将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;然后将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;然后获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;然后将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;最后根据匹配结果生成面试者的面试辅助报告。通过对面试者的语音信息进行提取并识别,得到面试者的情感识别结果,再通过情感识别结果进行分析得到面试者的性格结果,从而反映出面试者的性格特征,再将得到面试者的性格与对应的岗位性格进行对比,得到对比结果,从而得到面试辅助报告,这样得到的面试者的性格结果更加客观,更能反映出面试者的实际性格,有助于面试官决策。
14.基于第一方面,在本发明的一些实施例中,上述获取面试者的多条语音信息的步
骤包括以下步骤:
15.获取面试过程的语音信息;
16.将面试过程的语音信息进行语音降噪处理,得到优化的语音信息;
17.将优化的语音信息进行语音识别,生成面试者的多条语音信息。
18.基于第一方面,在本发明的一些实施例中,上述将各条语音信息分别进行特征提取,生成多个语音特征参数的步骤还包括以下步骤:
19.将各条语音信息分别进行频谱特征提取,生成多个频谱特征;
20.分别提取各个频谱特征中的梅尔倒谱系数作为多个语音特征参数。
21.基于第一方面,在本发明的一些实施例中,还包括以下步骤:
22.获取样本语音信息;
23.将样本语音信息进行特征提取,生成样本语音特征参数;
24.根据样本语音特征参数采用卷积神经网络算法对样本语音特征参数进行训练,生成第一训练结果;
25.根据第一训练结果采用lstm神经网络算法对第一训练结果进行训练,生成第二训练结果,以形成情感识别模型。
26.基于第一方面,在本发明的一些实施例中,上述将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果还包括以下步骤:
27.将多个情感识别结果分别带入预置的性格模型中,得到多个人格结果;
28.将多个人格结果按照大五人格理论的分类进行统计,得到统计结果并作为面试者的性格结果。
29.第二方面,本技术实施例提供一种基于语音识别的辅助面试系统,包括:
30.语音获取模块,用于获取面试者的多条语音信息;
31.特征提取模块,用于将各条语音信息分别进行特征提取,生成多个语音特征参数;
32.情感识别模块,用于将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;
33.性格预测模块,用于将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;
34.岗位性格提取模块,用于获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;
35.匹配模块,用于将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;
36.辅助报告生成模块,用于根据匹配结果生成面试者的面试辅助报告。
37.上述实现过程中,通过语音获取模块获取面试者的多条语音信息;然后特征提取模块将各条语音信息分别进行特征提取,生成多个语音特征参数;然后情感识别模块将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;然后性格预测模块将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;然后岗位性格提取模块获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;然后匹配模块将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;最后辅助报告生成模块根据匹配结果生成面试者的面试辅助报告。通过对面试者的语音信息进行提取并识别,得到面试者的情感识别结果,再通过情感识别结果进行分析得到面试者的
性格结果,从而反映出面试者的性格特征,再将得到面试者的性格与对应的岗位性格进行对比,得到对比结果,从而得到面试辅助报告,这样得到的面试者的性格结果更加客观,更能反映出面试者的实际性格,有助于面试官决策。
38.基于第二方面,在本发明的一些实施例中,上述语音获取模块包括:
39.第一语音获取单元:用于获取面试过程的语音信息;
40.降噪处理单元:用于将面试过程的语音信息进行语音降噪处理,得到优化的语音信息;
41.语音识别单元,用于将优化的语音信息进行语音识别,生成面试者的多条语音信息。
42.基于第二方面,在本发明的一些实施例中,上述特征提取模块包括:
43.频谱特征提取单元,用于将各条语音信息分别进行频谱特征提取,生成多个频谱特征;
44.语音特征参数单元,用于分别提取各个频谱特征中的梅尔倒谱系数作为多个语音特征参数。
45.第三方面,本技术实施例提供一种电子设备,其包括存储器,用于存储一个或多个程序;处理器。当上述一个或多个程序被上述处理器执行时,实现如上述第一方面中任一项上述的方法。
46.第四方面,本技术实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述第一方面中任一项上述的方法。
47.本发明实施例至少具有如下优点或有益效果:
48.本发明实施例提供一种基于语音识别的辅助面试方法及系统,通过获取面试者的多条语音信息;然后将各条语音信息分别进行特征提取,生成多个语音特征参数;然后将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;然后将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;然后获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;然后将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;最后根据匹配结果生成面试者的面试辅助报告。通过对面试者的语音信息进行提取并识别,得到面试者的情感识别结果,再通过情感识别结果进行分析得到面试者的性格结果,从而反映出面试者的性格特征,再将得到面试者的性格与对应的岗位性格进行对比,得到对比结果,从而得到面试辅助报告,这样得到的面试者的性格结果更加客观,更能反映出面试者的实际性格,有助于面试官决策。
附图说明
49.为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
50.图1为本发明实施例提供的一种基于语音识别的辅助面试方法流程图;
51.图2为本发明实施例提供的一种基于语音识别的辅助面试系统结构框图;
52.图3为本发明实施例提供的一种电子设备的结构框图。
53.图标:110

语音获取模块;120

特征提取模块;130

情感识别模块;140

性格预测模块;150

岗位性格提取模块;160

匹配模块;170

辅助报告生成模块;101

存储器;102

处理器;103

通信接口。
具体实施方式
54.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本技术实施例的组件可以以各种不同的配置来布置和设计。
55.因此,以下对在附图中提供的本技术的实施例的详细描述并非旨在限制要求保护的本技术的范围,而是仅仅表示本技术的选定实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
56.实施例
57.下面结合附图,对本技术的一些实施方式作详细说明。在不冲突的情况下,下述的各个实施例及实施例中的各个特征可以相互组合。
58.请参看图1,图1为本发明实施例提供的一种基于语音识别的辅助面试方法流程图。该基于语音识别的辅助面试方法,包括以下步骤:
59.步骤s110:获取面试者的多条语音信息;上述面试者的多条语音信息是指在面试过程中面试者的语音信息。可以是在面试过程中通过录音装置进行录入,得到整个面试过程的语音信息,进而再进行语音识别得到面试者的语音信息。上述得到面试者的多条语音信息可以通过以下步骤得到:
60.首先,获取面试过程的语音信息;上述语音信息可以是通过录音装置对面试过程进行录音得到。上述语音信息包括有面试者的语音信息、面试官的语音信息以及周围环境信息等。上述面试过程可以是现场面试过程,也可以是线上面试过程。
61.然后,将面试过程的语音信息进行语音降噪处理,得到优化的语音信息;上述语音降噪处理是指将语音信息中的周围环境信息及其他的杂音去除,从而只保留有用的语音信息。上述优化的语音信息是指去除噪声后的语音信息,通过降噪处理,便于后期语音识别,也可以提高识别准确度。对上述对语音信息进行语音降噪处理可以采用现有的技术就能实现,在此就不再赘述。
62.最后,将优化的语音信息进行语音识别,生成面试者的多条语音信息。上述语音识别是指根据不同的音色从优化的语音信息中提取出不同的人的语音信息,由于在面试过程中,面试者与面试官是通过一问一答的方式进行,因此得到的不同的人的语音信息包括有多条语音信息。例如:优化的语音信息中包括有面试者a的语音信息、面试官b和面试官c的语音信息,经过语音识别可以提取出面试者a的语音信息、面试官b的语音信息和面试官c的语音信息。上述语音识别采用现有的语音识别技术就能实现,因此,在此就不再赘述。
63.步骤s120:将各条语音信息分别进行特征提取,生成多个语音特征参数;上述语音特征参数用来表示语音特征,上述语音特征可以用频谱特征中的梅尔倒谱系数来表示。梅尔倒谱系数是基于人耳的听觉特性提出的,它采用一种非线性的频率单位来模拟人的听觉
系统,因而,更能准确表示语音信息。上述进行特征提取的步骤包括以下过程:
64.首先,将各条语音信息分别进行频谱特征提取,生成多个频谱特征;上述频谱特征提取是将每一条语音信息进行频谱特征提取,上述频谱特征包括有梅尔倒谱系数、线性预测倒谱系数等。上述频谱特征提取采用现有的技术就能实现,因此,在此不再赘述。
65.然后,分别提取各个频谱特征中的梅尔倒谱系数作为多个语音特征参数。上述提取是指分别在各个频谱特征中查找并提取出梅尔倒谱系数。提取出的梅尔倒谱系数就是语音特征参数。
66.步骤s130:将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;上述预置的情感识别模型通过对输入的语音特征进行情感预判得到情感识别结果。上述情感识别结果包括有生气、害怕、高兴、惊讶、悲伤和中性6种基本情感。上述情感识别结果可以是以上6中基本情感中一种。上述预置的情感识别模型是基于神经网络建立的模型,上述情感识别模型建立的过程包括以下步骤:
67.首先,获取样本语音信息;上述样本语音信息可以采用casia汉语情感预料库信息,该语料库是用来进行语音情感识别的离散情感语料库。
68.然后,将样本语音信息进行特征提取,生成样本语音特征参数;上述特征提取是指提取样本语音信息中的频谱特征中的梅尔倒谱系数。上述进行特征提取可以采用现有技术就可以实现,在此就不再赘述。
69.然后,根据样本语音特征参数采用卷积神经网络算法对样本语音特征参数进行训练,生成第一训练结果;上述样本语音特征参数是指casia汉语情感预料库信息中的语言信息经过特征提取得到的梅尔倒谱系数,上述训练过程是指通过卷积神经网络算法进行分类,可以利用卷积的不变性来克服语音信号本身的多样性,输出维度为128的信息。上述第一训练结果是指经过卷积神经网络算法进行分类得到的新的维度的语音信息。上述卷积神经网络算法属于现有技术,在此就不再赘述。
70.最后,根据第一训练结果采用lstm神经网络算法对第一训练结果进行训练,生成第二训练结果,以形成情感识别模型。上述训练过程是指将第一训练结果通过lstm神经网络算法对情感进行预判,上述情感包括了生气、害怕、高兴、惊讶、悲伤和中性6种基本情感,通过对第一训练结果中的语音信息进行分类,得到不同语音信息预判得到不同的情感。上述在进行lstm神经网络算法训练时,可以设置单元数量为128,输入时间步长为200,深度为768,lstm神经网络算法中可以采用adam优化器,损失函数采用多分类损失函数,经过多轮训练得到情感识别模型。上述lstm神经网络算法属于现有技术,在此就不再赘述。
71.步骤s140:将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;上述预置的性格模型是指采用大五人格理论进行分析的模型,经过预置的性格模型可以得到的人格类型有外倾性、宜人性、尽责性、情绪稳定性、开放性。性格类型与情感表达存在一定联系。上述生成面试者的性格结果包括以下过程:
72.首先,将多个情感识别结果分别带入预置的性格模型中,得到多个人格结果;上述每一条语音信息可以得到一个情感识别结果,将每一个情感识别结果带入预置的性格模型中,可以得到每一条语音信息对应的人格结果。
73.然后,将多个人格结果按照大五人格理论的分类进行统计,得到统计结果并作为面试者的性格结果。上述统计过程是指将每条语音信息得到的人格结果进行统计分类,算
出每个分类的占比,并将占比最高的分类作为统计结果。大五人格理论的分类有:外倾性、宜人性、尽责性、情绪稳定性、开放性。例如:面试者a的语音信息有5条语音信息,这5条语音信息分别进行预测,得到的人格结果分别为外倾性、宜人性、尽责性、情绪稳定性、开放性,经过统计得到的外倾性为60%,宜人性为20%,尽责性为20%。因此该面试者a的性格结果为外倾性。
74.步骤s150:获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;上述面试者的面试岗位信息可以是由面试官输入,也可以是从语音信息中提取得到。通过获得的面试岗位信息在预置的岗位性格池中进行匹配,得到与面试岗位信息匹配的岗位性格。例如:获取到的面试岗位信息为销售经理,在预置的岗位性格池中按照销售经理进行查找,得到销售经理对应的岗位性格为外倾性。
75.步骤s160:将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;上述匹配的过程是指将面试者的性格结果与对应的岗位性格进行对比,得到匹配结果,上述匹配结果可以是相同和不相同。例如:面试者的性格结果为开放性,对应的岗位性格为责任心,经过匹配得到匹配结果为不相同。
76.步骤s170:根据匹配结果生成面试者的面试辅助报告。上述面试辅助报告包括有匹配结果、面试者的信息、面试者的性格结果等。例如,面试者a的性格结果为责任心,面试者的姓名为王xx,匹配结果为不相同。
77.上述实现过程中,通过获取面试者的多条语音信息;然后将各条语音信息分别进行特征提取,生成多个语音特征参数;然后将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;然后将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;然后获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;然后将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;最后根据匹配结果生成面试者的面试辅助报告。通过对面试者的语音信息进行提取并识别,得到面试者的情感识别结果,再通过情感识别结果进行分析得到面试者的性格结果,从而反映出面试者的性格特征,再将得到面试者的性格与对应的岗位性格进行对比,得到对比结果,从而得到面试辅助报告,这样得到的面试者的性格结果更加客观,更能反映出面试者的实际性格,有助于面试官决策。
78.基于同样的发明构思,本发明还提出一种基于语音识别的辅助面试系统,请参看图2,图2为本发明实施例提供的一种基于语音识别的辅助面试系统结构框图。该基于语音识别的辅助面试系统包括:
79.语音获取模块110,用于获取面试者的多条语音信息;
80.特征提取模块120,用于将各条语音信息分别进行特征提取,生成多个语音特征参数;
81.情感识别模块130,用于将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;
82.性格预测模块140,用于将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;
83.岗位性格提取模块150,用于获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;
84.匹配模块160,用于将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;
85.辅助报告生成模块170,用于根据匹配结果生成面试者的面试辅助报告。
86.上述实现过程中,通过语音获取模块110获取面试者的多条语音信息;然后特征提取模块120将各条语音信息分别进行特征提取,生成多个语音特征参数;然后情感识别模块130将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;然后性格预测模块140将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;然后岗位性格提取模块150获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;然后匹配模块160将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;最后辅助报告生成模块170根据匹配结果生成面试者的面试辅助报告。通过对面试者的语音信息进行提取并识别,得到面试者的情感识别结果,再通过情感识别结果进行分析得到面试者的性格结果,从而反映出面试者的性格特征,再将得到面试者的性格与对应的岗位性格进行对比,得到对比结果,从而得到面试辅助报告,这样得到的面试者的性格结果更加客观,更能反映出面试者的实际性格,有助于面试官决策。
87.其中,上述语音获取模块110包括:
88.第一语音获取单元:用于获取面试过程的语音信息。
89.降噪处理单元:用于将面试过程的语音信息进行语音降噪处理,得到优化的语音信息。
90.语音识别单元,用于将优化的语音信息进行语音识别,生成面试者的多条语音信息。
91.其中,上述特征提取模块120包括:
92.频谱特征提取单元,用于将各条语音信息分别进行频谱特征提取,生成多个频谱特征。
93.语音特征参数单元,用于分别提取各个频谱特征中的梅尔倒谱系数作为多个语音特征参数。
94.其中,还包括:
95.样本信息获取模块,用于获取样本语音信息。
96.样本特征提取模块120,用于将样本语音信息进行特征提取,生成样本语音特征参数;
97.第一训练模块,用于根据样本语音特征参数采用卷积神经网络算法对样本语音特征参数进行训练,生成第一训练结果;
98.第二训练模块,用于根据第一训练结果采用lstm神经网络算法对第一训练结果进行训练,生成第二训练结果,以形成情感识别模型。
99.其中,上述性格预测模块140还包括以下单元:
100.性格模型单元,用于将多个情感识别结果分别带入预置的性格模型中,得到多个人格结果;
101.统计单元,用于将多个人格结果按照大五人格理论的分类进行统计,得到统计结果并作为面试者的性格结果。
102.请参阅图3,图3为本技术实施例提供的电子设备的一种示意性结构框图。电子设
备包括存储器101、处理器102和通信接口103,该存储器101、处理器102和通信接口103相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器101可用于存储软件程序及模块,如本技术实施例所提供的基于语音识别的辅助面试系统对应的程序指令/模块,处理器102通过执行存储在存储器101内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口103可用于与其他节点设备进行信令或数据的通信。
103.其中,存储器101可以是但不限于,随机存取存储器(random access memory,ram),只读存储器(read only memory,rom),可编程只读存储器(programmable read

only memory,prom),可擦除只读存储器(erasable programmable read

only memory,eprom),电可擦除只读存储器(electric erasable programmable read

only memory,eeprom)等。
104.处理器102可以是一种集成电路芯片,具有信号处理能力。该处理器102可以是通用处理器,包括中央处理器(central processing unit,cpu)、网络处理器(network processor,np)等;还可以是数字信号处理器(digital signal processing,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
105.可以理解,图3所示的结构仅为示意,电子设备还可包括比图3中所示更多或者更少的组件,或者具有与图3所示不同的配置。图3中所示的各组件可以采用硬件、软件或其组合实现。
106.在本技术所提供的实施例中,应该理解到,所揭露的系统和方法,也可以通过其它的方式实现。以上所描述的系统实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本技术的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
107.另外,在本技术各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
108.所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read

only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
109.综上所述,本技术实施例提供的一种基于语音识别的辅助面试方法及系统,该基
于语音识别的辅助面试方法通过获取面试者的多条语音信息;然后将各条语音信息分别进行特征提取,生成多个语音特征参数;然后将各个语音特征参数分别输入到预置的情感识别模型中,生成多个情感识别结果;然后将多个情感识别结果输入到预置的性格模型中,生成面试者的性格结果;然后获取并根据面试者的面试岗位信息在预置的岗位性格池中提取对应的岗位性格;然后将面试者的性格结果与对应的岗位性格进行匹配,生成匹配结果;最后根据匹配结果生成面试者的面试辅助报告。通过对面试者的语音信息进行提取并识别,得到面试者的情感识别结果,再通过情感识别结果进行分析得到面试者的性格结果,从而反映出面试者的性格特征,再将得到面试者的性格与对应的岗位性格进行对比,得到对比结果,从而得到面试辅助报告,这样得到的面试者的性格结果更加客观,更能反映出面试者的实际性格,有助于面试官决策。
110.以上所述仅为本技术的优选实施例而已,并不用于限制本技术,对于本领域的技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本技术的保护范围之内。
111.对于本领域技术人员而言,显然本技术不限于上述示范性实施例的细节,而且在不背离本技术的精神或基本特征的情况下,能够以其它的具体形式实现本技术。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本技术的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本技术内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。