首页 > 运动玩具 专利正文
基于增强现实的触感生成方法、装置及存储介质与流程

时间:2022-02-24 阅读: 作者:专利查询

基于增强现实的触感生成方法、装置及存储介质与流程

1.本公开涉及增强现实领域,具体而言,涉及一种基于增强现实的触感生成方法、装置及存储介质。


背景技术:

2.随着科学技术的快速发展,人们娱乐方式变得更加立体贴近现实生活,利用增强现实技术结合相关设备,使玩家能够在游戏中感受到眼前的事物。
3.现有的基于增强现实开发的虚拟游戏中,通过将真实环境和虚拟物体相结合来提供虚拟场景画面,但是没有很好的利用或结合身体触感产生立体感觉;一方面,玩家需要结合实物环境才能获得立体触摸感受,比如,在部分ar游戏中,虚拟场景中的虚拟枪械需要外部有外接实体枪械设备配合,才能获得触觉方面的游戏体验;另一方面,游戏所提供外接实体枪械设备通常是单一固定的,而对于不同类型的虚拟枪械来说,采用同一种外接实体枪械设备,无法还原不同类型的枪械的真实触感,比如,对于虚拟冲锋枪和虚拟手枪,如果均采用同一实体外接枪械设备进行模拟,其握持体验度较差。
4.针对上述的问题,目前尚未提出有效的解决方案。


技术实现要素:

5.本公开实施例提供了一种基于增强现实的触感生成方法、装置及存储介质,以至少解决现有技术中可穿戴设备需要外部实体配合才能获得感知触感的技术问题。
6.根据本公开实施例的一个方面,提供了一种基于增强现实的触感生成方法,包括:通过增强现实设备拍摄目标对象得到虚拟场景画面,其中,上述虚拟场景画面中的显示内容至少包括:目标虚拟模型;响应针对上述目标虚拟模型的触摸指令,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力;通过穿戴设备输出上述触感作用力,其中,上述穿戴设备与上述增强现实设备配套使用。
7.根据本公开实施例的另一方面,还提供了一种基于增强现实的触感生成装置,包括:拍摄模块,用于通过增强现实设备拍摄目标对象得到虚拟场景画面,其中,上述虚拟场景画面中的显示内容至少包括:目标虚拟模型;计算模块,用于响应针对上述目标虚拟模型的触摸指令,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力;输出模块,用于通过穿戴设备输出上述触感作用力,其中,上述穿戴设备与上述增强现实设备配套使用。
8.根据本公开实施例的另一方面,还提供了一种计算机可读存储介质,包括:上述计算机可读存储介质包括存储的程序,其中,在上述程序运行时控制上述计算机可读存储介质所在设备执行任意一项上述的基于增强现实的触感生成方法。
9.根据本公开实施例的另一方面,还提供了一种电子设备,包括:存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为运行上述计算机程序以执行任意一
项上述的基于增强现实的触感生成方法。
10.根据本公开实施例的另一方面,还提供了一种处理器,上述处理器用于运行程序,其中,上述程序被设置为运行时执行任意一项上述的基于增强现实的触感生成方法。
11.在本公开实施例中,通过增强现实设备拍摄目标对象得到虚拟场景画面,其中,上述虚拟场景画面中的显示内容至少包括:目标虚拟模型;响应针对上述目标虚拟模型的触摸指令,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力;通过穿戴设备输出上述触感作用力,其中,上述穿戴设备与上述增强现实设备配套使用,达到了在虚拟现实场景中,可穿戴设备无需外部实体配合即可获得感知触感的目的,从而实现了使玩家能够在游戏场景中获得更加真实的感游戏体验的技术效果,进而解决了现有技术中可穿戴设备需要外部实体配合才能获得感知触感的技术问题。
附图说明
12.此处所说明的附图用来提供对本公开的进一步理解,构成本技术的一部分,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。在附图中:
13.图1是根据本公开实施例的一种基于增强现实的触感生成方法的流程图;
14.图2是根据本公开实施例的一种可选的目标虚拟模型生成过程的示意图;
15.图3是根据本公开实施例的一种可选的目标枪械虚拟三维模型获取过程的示意图;
16.图4是根据本公开实施例的一种可选的目标虚拟模型的外形参数的生成方法示意图;
17.图5是根据本公开实施例的一种可选的虚拟枪械的外形参数计算方法的示意图;
18.图6是根据本公开实施例的一种可选的目标虚拟模型数据编辑的示意图;
19.图7是根据本公开实施例的一种可选的可穿戴设备生成触感作用力的示意图;
20.图8a是根据本公开实施例的一种可选的侧视的拍摄角度下观察到的侧视图中的枪械的示意图;
21.图8b是根据本公开实施例的一种可选俯视的拍摄角度下观察到的俯视图中的枪械的示意图;
22.图9是根据本公开实施例的一种基于增强现实的触感生成装置的结构示意图。
具体实施方式
23.为了使本技术领域的人员更好地理解本公开方案,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分的实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
24.需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或
描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
25.根据本公开实施例,提供了一种基于增强现实的触感生成的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
26.该方法实施例的技术方案可以在移动终端、计算机终端或者类似的运算装置中执行。以运行在移动终端上为例,该移动终端可以是智能手机(如android手机、ios手机等)、平板电脑、掌上电脑以及移动互联网设备(mobile internet devices,简称为mid)、pad等终端设备。移动终端可以包括一个或多个处理器(处理器可以包括但不限于中央处理器(cpu)、图形处理器(gpu)、数字信号处理(dsp)芯片、微处理器(mcu)、可编程逻辑器件(fpga)、神经网络处理器(npu)、张量处理器(tpu)、人工智能(ai)类型处理器等的处理装置)和用于存储数据的存储器。可选地,上述移动终端还可以包括用于通信功能的传输设备、输入输出设备以及显示设备。本领域普通技术人员可以理解,上述结构描述仅为示意,其并不对上述移动终端的结构造成限定。例如,移动终端还可包括比上述结构描述更多或者更少的组件,或者具有与上述结构描述不同的配置。
27.存储器可用于存储计算机程序,例如,应用软件的软件程序以及模块,如本公开实施例中的基于增强现实的触感生成方法对应的计算机程序,处理器通过运行存储在存储器内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的基于增强现实的触感生成方法。存储器可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至移动终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
28.传输设备用于经由一个网络接收或者发送数据。上述的网络具体实例可包括移动终端的通信供应商提供的无线网络。在一个实例中,传输设备包括一个网络适配器(network interface controller,简称为nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备可以为射频(radio frequency,简称为rf)模块,其用于通过无线方式与互联网进行通讯。该方法实施例的技术方案可以应用于各种通信系统,例如:全球移动通讯(global system of mobile communication,简称为gsm)系统、码分多址(code division multiple access,简称为cdma)系统、宽带码分多址(wideband code division multiple access,简称为wcdma)系统、通用分组无线业务(general packet radio service,简称为gprs)、长期演进(long term evolution,简称为lte)系统、lte频分双工(frequency division duplex,简称为fdd)系统、lte时分双工(time division duplex,简称为tdd)、通用移动通信系统(universal mobile telecommunication system,简称为umts)、全球互联微波接入(worldwide interoperability for microwave access,简称为wimax)通信系统或5g系统等。可选地,多个移动终端之间可以进行设备到设备(device to device,简称为d2d)通信。可选地,5g
系统或5g网络又被称为新无线(new radio,简称为nr)系统或nr网络。
29.显示设备可以例如触摸屏式的液晶显示器(lcd)和触摸显示器(也被称为“触摸屏”或“触摸显示屏”)。该液晶显示器可使得玩家能够与移动终端的玩家界面进行交互。在一些实施例中,上述移动终端具有图形用户界面(gui),玩家可以通过触摸触敏表面上的手指接触和/或手势来与gui进行人机交互,此处的人机交互功能可选的包括如下交互:创建网页、绘图、文字处理、制作电子文档、游戏、视频会议、即时通信、收发电子邮件、通话界面、播放数字视频、播放数字音乐和/或网络浏览等、用于执行上述人机交互功能的可执行指令被配置/存储在一个或多个处理器可执行的计算机程序产品或可读计算机可读存储介质中。
30.在本公开其中一种实施例中的基于增强现实的触感生成方法可以运行于终端设备或者是服务器。其中,终端设备可以为本地终端设备,服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。当基于增强现实的触感生成方法运行于服务器时,该方法则可以基于云交互系统来实现与执行,其中,云交互系统包括服务器和客户端设备。
31.在一可选的实施方式中,云交互系统下可以运行各种云应用,例如:云游戏。以云游戏为例,云游戏是指以云计算为基础的游戏方式。在云游戏的运行模式下,游戏程序的运行主体和游戏画面呈现主体是分离的,基于增强现实的触感生成方法的储存与运行是在云游戏服务器上完成的,客户端设备的作用用于数据的接收、发送以及游戏画面的呈现,举例而言,客户端设备可以是靠近玩家侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑等;但是进行信息处理的终端设备为云端的云游戏服务器。在进行游戏时,玩家操作客户端设备向云游戏服务器发送操作指令,云游戏服务器根据操作指令运行游戏,将游戏画面等数据进行编码压缩,通过网络返回客户端设备,最后,通过客户端设备进行解码并输出游戏画面。
32.在一可选的实施方式中,终端设备可以为本地终端设备。以游戏为例,本地终端设备存储有游戏程序并用于呈现游戏画面。本地终端设备用于通过图形用户界面与玩家进行交互,即,常规的通过电子设备下载安装游戏程序并运行。该本地终端设备将图形用户界面提供给玩家的方式可以包括多种,例如,可以渲染显示在终端的显示屏上,或者,通过全息投影提供给玩家。举例而言,本地终端设备可以包括显示屏和处理器,该显示屏用于呈现图形用户界面,该图形用户界面包括游戏画面,该处理器用于运行该游戏、生成图形用户界面以及控制图形用户界面在显示屏上的显示。
33.本公开的技术方案中,所涉及的玩家个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
34.在一种可能的实施方式中,本公开实施例提供了一种基于增强现实的触感生成方法,通过终端设备提供图形用户界面,其中,终端设备可以是前述提到的本地终端设备,也可以是前述提到的云交互系统中的客户端设备。
35.图1是根据本公开实施例的一种基于增强现实的触感生成方法的流程图,如图1所示,该方法包括如下步骤:
36.步骤s102,通过增强现实设备拍摄目标对象得到虚拟场景画面,其中,上述虚拟场景画面中的显示内容至少包括:目标虚拟模型;
37.步骤s104,响应针对上述目标虚拟模型的触摸指令,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力;
38.步骤s106,通过穿戴设备输出上述触感作用力,其中,上述穿戴设备与上述增强现实设备配套使用。
39.在本公开实施例中,通过增强现实设备拍摄目标对象得到虚拟场景画面,其中,上述虚拟场景画面中的显示内容至少包括:目标虚拟模型;响应针对上述目标虚拟模型的触摸指令,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力;通过穿戴设备输出上述触感作用力,其中,上述穿戴设备与上述增强现实设备配套使用。
40.需要说明的是,上述目标虚拟模型不限定具体目标对象类型,可以为现实中的水杯、桌子、砖头等实体物,通过上述增强现实设备拍摄上述实体物得到上述目标虚拟模型;根据上述目标虚拟模型的外形参数,例如:长、宽、高等,以及拍摄上述目标对象的当前拍摄视角,例如:正视图、俯视图、侧视图等,计算上述目标虚拟模型各个角度的对应相关数据值;基于上述目标对象的相关数据值可以获得上述目标虚拟模型对应的触感作用力;配合上述穿戴设备,例如:手指上的芯片或者压力手套,基于获取到的上述目标虚拟模型对应的触感作用力,将上述目标虚拟模型对应的触感作用力作用于可穿戴设备的触控介质上。
41.在本公开实施例中,如图2所示的目标虚拟模型生成过程示意图,通过上述现实设备拍摄目标对象的深度信息照片,对物体形体进行识别获得上述目标对象的目标虚拟模型,例如:目标虚拟模型可以是圆柱形、长方体形、以及多种形状组合成的辅助物体等,基于上述目标虚拟模型从预设的虚拟三维模型集合中选取上述虚拟三维模型。例如:想要获取虚拟枪械的三维模型,首先通过现实设备拍摄的目标枪械的深度信息照片,照片中包含目标枪械的多方位、角度深度图像;通过对图像进行分析,大致判断虚拟枪械的三维模型,从虚拟三维模型集合中选取符合虚拟枪械形状的实体枪械对应的虚拟三维模型,得到游戏场景中虚拟枪械的虚拟三维模型,得到的虚拟枪械的虚拟三维模型如图3所示。
42.需要说明的是,上述对物体形体进行识别需判断出物体的基础形状,例如:球体、圆柱体、长方体等;上述预设的虚拟三维模型集合至少包括多种大小不一的虚拟三维模型。
43.由此,通过上述实施例,可以达到增强现实技术结合相关设备,使玩家能够在游戏中感受到眼前的事物的目的,从而实现了使玩家能够在游戏场景中获得更加真实的感游戏体验的技术效果,进而解决了现有技术中可穿戴设备需要外部实体配合才能获得感知触感的技术问题。
44.在一种可选的实施例中,上述目标虚拟模型是与上述目标对象对应的虚拟模型。
45.比如,目标虚拟模型可以是参照目标对象的外形轮廓得到虚拟三维模型,此时目标虚拟模型与目标对象均表示同一物体。
46.在一种可选的实施例中,上述目标虚拟模型为预设的关联映射表确定的虚拟模型,其中,关联映射表用于记录上述目标对象所关联的一个或多个目标虚拟模型。
47.目标虚拟模型与目标对象可以分别表示不同的物体,比如,目标对象为桌子,目标虚拟模型为虚拟武器的虚拟三维模型。关联映射表可以是游戏的策划人员根据不同的游戏体验需求来配置的表格,比如,可以设置杯子、书籍等多个实体物作为目标对象,将目标对象与虚拟武器进行关联,进而在游戏中识别到该目标对象时,会根据该关联映射表渲染出
对应的虚拟武器的目标虚拟模型。可选的,在上述关联映射表记录的目标对象所关联的目标虚拟模型有多个时,可以根据对多个的目标虚拟模型预置的多个权重大小确定出其中一个目标虚拟模型作为待渲染的虚拟模型。
48.在一种可选的实施例中,上述虚拟场景画面中的显示内容还包括:虚拟对象,上述穿戴设备用于控制上述虚拟对象在上述虚拟场景画面中移动。
49.需要说明的是,上述虚拟对象,可以为虚拟场景中响应玩家的操控进行移动的虚拟物体,在本公开实施例中以手部模型等;玩家可以通过穿戴手套,感受在虚拟场景中触摸或拿起目标虚拟模型时真实的触感,例如:游戏场景中,拿起的对象为虚拟枪械,可穿戴设备(手套)根据目标枪械的具体数值反馈触感作用力,使玩家感受到拿起真实枪械时的触感。
50.在一种可选的实施例中,上述方法包括:
51.步骤s302,基于上述穿戴设备的移动,控制上述虚拟对象在上述虚拟场景画面中进行对应的移动;
52.步骤s304,在检测到上述虚拟对象移动至上述目标虚拟模型时,生成上述触摸指令。
53.在本公开实施例中,根据上述穿戴设备的移动,控制上述虚拟对象在上述虚拟场景画面中进行对应的移动;由于虚拟对象指的是如下文中图6或7中的手部模型,在玩家穿戴了手套后,由于玩家的手部的移动会关联手部模型的移动,检测虚拟对象移动至上述目标虚拟模型,可以理解为如手部模型与枪械碰撞、面积重叠等,则生成上述触摸指令。
54.在一种可选的实施例中,上述方法还包括:
55.步骤s402,通过上述对应关系,确定上述目标对象对应的目标几何体,其中,上述目标对象为上述多个实体对象中的任一实体对象;
56.步骤s404,按照上述目标几何体生成上述目标虚拟模型;
57.步骤s406,基于虚拟参照物模型的预设参数计算得到上述目标虚拟模型的外形参数。
58.在本公开实施例中,通过上述对应关系,确定上述目标对象对应的目标几何体,按照上述目标几何体生成上述目标虚拟模型;基于虚拟参照物模型的预设参数计算得到上述目标虚拟模型的外形参数。
59.需要说明的是,如图4所示的目标虚拟模型的外形参数的生成方法示意图,上述目标对象为上述多个实体对象中的任一实体对象,上述目标对象也可以是多种几何图形组合出的实体对象;上述虚拟参照物模型为虚拟场景中预设的参照物模型,上述虚拟参照物模型具备明确的数值,例如:参照物的长、宽、高、重量、颜色等;根据上述目标虚拟模型与上述虚拟参照物模型的位置、大小关系计算上述目标虚拟模型的外形参数,例如,长、宽、高。
60.作为一种可选的实施例,仍如图3所示,在需要获取图中虚拟枪械的相关数据时,首先通过现实设备拍摄深度信息照片;通过对深度信息照片进行分析,获取上述虚拟枪械的三维模型的外部轮廓信息,从虚拟三维模型集合中选取符合虚拟枪械形状的虚拟模型,得到虚拟枪械的虚拟三维模型,基于虚拟参照物模型的预设参数进行精确匹配处理得到上述虚拟枪械具体形状;根据虚拟枪械的触感值信息结合放置角度等信息进行修正处理,计算得到上述虚拟枪械的触感作用力。
61.需要说明的是,上述相关数据包括物体的基础形状数据,例如:长、宽、高等;可以结合实际情况根据上述虚拟参照物模型的数据参考目标虚拟模型的大小。
62.在一种可选的实施例中,基于上述虚拟参照物模型的外形参数计算得到上述目标虚拟模型的外形参数包括:
63.步骤s502,利用上述虚拟参照物模型的第一朝向与上述目标虚拟模型的第二朝向,计算上述第一朝向与上述第二朝向之间的夹角;
64.步骤s504,以上述虚拟参照物模型的中心为原点建立三维直角坐标系;
65.步骤s506,在上述三维直角坐标系中,通过上述夹角和上述预设参数计算得到上述目标虚拟模型的外形参数。
66.在本公开实施例中,利用上述虚拟参照物模型的第一朝向与上述目标虚拟模型的第二朝向,计算上述第一朝向与上述第二朝向之间的夹角;以上述虚拟参照物模型的中心为原点建立三维直角坐标系;在上述三维直角坐标系中,通过上述夹角和上述预设参数计算得到上述目标虚拟模型的外形参数。
67.在本公开实施例中,在虚拟游戏场景中,根据虚拟参照物模型(例如:长方体的箱子)在虚拟场景中的朝向信息,以及上述目标虚拟模型(例如:虚拟枪械)在虚拟场景中的朝向信息计算虚拟箱子和虚拟枪械的夹角,如图5所示的虚拟枪械的外形参数的具体计算方法的示意图,在上述虚拟箱子的中心点处建立三维直角坐标系(x,y,z),同时在上述虚拟枪械中心位置处建立根据三维直角坐标系(x,y,z),根据两个三维直角坐标系中的夹角信息α,以及上述虚拟箱子的具体数值,计算得到上述虚拟枪械的外形参数。
68.需要说明的是,在本公开实施例中,如图6所示,还可以根据玩家喜好编辑上述目标虚拟模型的数据以改变其形状大小,上述目标虚拟模型的形状大小调整后,对应的触感作用力也随之变化,例如,上述虚拟参照物模型在原有大小的情况下,虚拟枪械的把手处直径为5cm,此时玩家能感受到上述穿戴设备反馈出的直径为5cm的圆柱;当玩家将虚拟枪械的把手直径调整为8cm时,此时玩家能感受到上述穿戴设备反馈出的直径为8cm的圆柱。
69.在本公开实施例中,如图7所示的可穿戴设备生成触感作用力的示意图,上述可穿戴设备依据上述第二数据生成触感作用力,上述可穿戴设备可以是可穿戴设备的内置芯片,也可以是可穿戴设备的外置壳体,上述可穿戴设备接收到上述触感作用力数据后生成上述触感作用力。
70.通过本公开实施例的方法,玩家在虚拟游戏中,在少量的外部物体(手套,微型芯片)辅助下,通过增强现实设备拍摄获得的虚拟画面,根据虚拟参照物模型的数值与角度进行计算,得到上述目标虚拟模型的外形参数以及触感作用力相应的数据,根据上述数据进行对手套或芯片产生压力变化或电流刺激等物理刺激,实现了仅使用照片图片,也能获得大量的比较精确的对于实物的感受的技术效果,并且可以还原不同类型枪械的的真实触感,使玩家获得最佳的握持体验。
71.在一种可选的实施例中,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力,包括:
72.步骤s602,获取在多个不同拍摄视角下对应的上述目标对象的多个外形参数;
73.步骤s604,从上述多个外形参数中确定与上述当前拍摄视角对应的目标外形参数;
74.步骤s606,根据上述目标外形参数计算在上述当前拍摄视角下上述目标虚拟模型对应的触感作用力。
75.如图8a和图8b所示为在不同拍摄角度下观察到的枪械(目标对象),例如,图8a所示为侧视的拍摄角度下观察到的侧视图中的枪械和图8b所示为俯视的拍摄角度下观察到的俯视图中的枪械。
76.作为一种可选的实施例,由于多个不同拍摄视角下对应的枪械的多个外形参数,即不同拍摄视角下的枪械的外形参数不同,例如:长、宽、高等外形参数不等,因此,玩家在游戏过程中,根据目标对象呈现在画面中的拍摄视角的变化,通过从上述多个外形参数中确定与当前拍摄视角对应的目标外形参数,根据上述目标外形参数计算上述在当前拍摄视角下该枪械的虚拟三维模型对应的触感作用力,即对应地产生在当前拍摄视角下虚拟三维模型不同的触觉,例如,玩家在游戏中操控虚拟手触摸到图8a所示的侧视图的枪械和图8b所示的俯视图中的枪械时,反馈到玩家手套上的触觉感受是不一样的,这是由于不同的拍摄视角下去触摸的感觉是不同的。通过本示例实施例,可以为玩家提供与当前拍摄视角对应的目标虚拟模型的触感,使得不同拍摄视角下的目标虚拟模型的触感不再是单一固定的模式,体验更加逼真,提供了更好的握持感受。根据本公开实施例,还提供了一种用于实施上述基于增强现实的触感生成方法的装置实施例,图9是根据本公开实施例的一种基于增强现实的触感生成装置的结构示意图,如图9所示,上述基于增强现实的触感生成装置,包括:拍摄模块80、计算模块82和输出模块84,其中:
77.拍摄模块80,用于通过增强现实设备拍摄目标对象得到虚拟场景画面,其中,上述虚拟场景画面中的显示内容至少包括:目标虚拟模型;计算模块82,用于响应针对上述目标虚拟模型的触摸指令,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力;输出模块84,用于通过穿戴设备输出上述触感作用力,其中,上述穿戴设备与上述增强现实设备配套使用。
78.需要说明的是,上述各个模块是可以通过软件或硬件来实现的,例如,对于后者,可以通过以下方式实现:上述各个模块可以位于同一处理器中;或者,上述各个模块以任意组合的方式位于不同的处理器中。
79.此处需要说明的是,上述基于增强现实的触感生成装置中的拍摄模块80、计算模块82和输出模块84对应于方法实施例中的步骤s102至步骤s106,上述模块与对应的步骤所实现的实例和应用场景相同,但不限于上述方法实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在计算机终端中。
80.需要说明的是,本实施例的可选或优选实施方式可以参见方法实施例中的相关描述,此处不再赘述。
81.上述的基于增强现实的触感生成装置还可以包括处理器和存储器,上述基于增强现实的触感生成装置等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
82.处理器中包含内核,由内核去存储器中调取相应的程序单元,上述内核可以设置一个或以上。存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram),存储器包括至少一个存储芯片。
83.根据本技术实施例,还提供了一种计算机可读存储介质实施例。可选地,在本实施例中,上述计算机可读存储介质包括存储的程序,其中,在上述程序运行时控制上述计算机可读存储介质所在设备执行上述任意一种基于增强现实的触感生成方法。
84.可选地,在本实施例中,上述计算机可读存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中,上述计算机可读存储介质包括存储的程序。
85.可选地,在程序运行时控制计算机可读存储介质所在设备执行以下功能:通过增强现实设备拍摄目标对象得到虚拟场景画面,其中,上述虚拟场景画面中的显示内容至少包括:目标虚拟模型;响应针对上述目标虚拟模型的触摸指令,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力;通过穿戴设备输出上述触感作用力,其中,上述穿戴设备与上述增强现实设备配套使用。
86.可选地,在程序运行时控制计算机可读存储介质所在设备执行以下功能:基于上述穿戴设备的移动,控制上述虚拟对象在上述虚拟场景画面中进行对应的移动;在检测到上述虚拟对象移动至上述目标虚拟模型时,生成上述触摸指令。
87.可选地,在程序运行时控制计算机可读存储介质所在设备执行以下功能:通过上述对应关系,确定上述目标对象对应的目标几何体,其中,上述目标对象为上述多个实体对象中的任一实体对象;按照上述目标几何体生成上述目标虚拟模型;基于虚拟参照物模型的预设参数计算得到上述目标虚拟模型的外形参数。
88.可选地,在程序运行时控制计算机可读存储介质所在设备执行以下功能:利用上述虚拟参照物模型的第一朝向与上述目标虚拟模型的第二朝向,计算上述第一朝向与上述第二朝向之间的夹角;以上述虚拟参照物模型的中心为原点建立三维直角坐标系;在上述三维直角坐标系中,通过上述夹角和上述预设参数计算得到上述目标虚拟模型的外形参数。
89.可选地,在程序运行时控制计算机可读存储介质所在设备执行以下功能:根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力,包括:获取在多个不同拍摄视角下对应的上述目标对象的多个外形参数;从上述多个外形参数中确定与上述当前拍摄视角对应的目标外形参数;根据上述目标外形参数计算在上述当前拍摄视角下上述目标虚拟模型对应的触感作用力。
90.根据本技术实施例,还提供了一种处理器实施例。可选地,在本实施例中,上述处理器用于运行程序,其中,上述程序运行时执行上述任意一种基于增强现实的触感生成方法。
91.本技术实施例提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为运行上述计算机程序以执行任意一项上述的基于增强现实的触感生成方法。
92.本技术还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:通过增强现实设备拍摄目标对象得到虚拟场景画面,其中,上述虚拟场景画面中的显示内容至少包括:目标虚拟模型;响应针对上述目标虚拟模型的触摸指令,根据上述目标虚拟模型的外形参数和拍摄上述目标对象的当前拍摄视角,计算上述目标虚拟模型对应的触感作用力;通过穿戴设备输出上述触感作用力,其中,上述穿戴设
备与上述增强现实设备配套使用。
93.可选地,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:基于上述穿戴设备的移动,控制上述虚拟对象在上述虚拟场景画面中进行对应的移动;在检测到上述虚拟对象移动至上述目标虚拟模型时,生成上述触摸指令。
94.可选地,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:通过上述对应关系,确定上述目标对象对应的目标几何体,其中,上述目标对象为上述多个实体对象中的任一实体对象;按照上述目标几何体生成上述目标虚拟模型;基于虚拟参照物模型的预设参数计算得到上述目标虚拟模型的外形参数。
95.可选地,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:利用上述虚拟参照物模型的第一朝向与上述目标虚拟模型的第二朝向,计算上述第一朝向与上述第二朝向之间的夹角;以上述虚拟参照物模型的中心为原点建立三维直角坐标系;在上述三维直角坐标系中,通过上述夹角和上述预设参数计算得到上述目标虚拟模型的外形参数。
96.上述本公开实施例序号仅仅为了描述,不代表实施例的优劣。
97.在本公开的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
98.在本技术所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
99.上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
100.另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
101.上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取计算机可读存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个计算机可读存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本公开各个实施例上述方法的全部或部分步骤。而前述的计算机可读存储介质包括:u盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
102.以上上述仅是本公开的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本公开原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本公开的保护范围。