本发明实施例涉及智能设备技术领域,尤其涉及一种控制虚拟宠物的方法及智能投影设备。
背景技术:
现在市面上的电子游戏宠物过于局限,只能运行于手机,电脑等电子屏幕,且宠物不能在现实空间自行移动行走,没有与现实世界产生交互,与真实饲养的宠物感觉差距过大。尽管出现一部分ai机器人宠物,能实现在现实空间中的自我行走,但又过于昂贵,且动作和表情过于简单,不够丰富。
技术实现要素:
本发明实施例主要解决的技术问题是提供一种控制虚拟宠物的方法,使得虚拟宠物不仅能活动于现实空间,自由调节样式,还能进行丰富的交互活动。
为解决上述技术问题,第一方面,本发明实施例中提供给了一种控制虚拟宠物的方法,应用于智能投影设备,包括:
预设虚拟宠物,控制所述智能投影设备在现实空间中投影所述虚拟宠物;
接收用户的指令信息,并根据所述指令信息,控制所述虚拟宠物进行相应的交互行为。
在一些实施例中,所述指令信息包括用户姿态,所述根据所述指令信息,控制所述虚拟宠物进行相应的交互行为,包括:
控制所述虚拟宠物模仿所述用户姿态。
在一些实施例中,所述指令信息包括手势,所述根据所述指令信息,控制所述虚拟宠物进行相应的交互行为,包括:
根据所述手势,确定与所述手势对应的第一交互动作;
控制所述虚拟宠物进行所述第一交互动作。
在一些实施例中,所述指令信息包括语音信息,所述根据所述指令信息,控制所述虚拟宠物进行相应的交互行为,包括:
根据所述语音信息,获取所述语音信息所指示的第二交互动作;
控制所述虚拟宠物进行所述第二交互动作。
在一些实施例中,还包括:
检测所述虚拟宠物与所述用户是否发生触碰;
当所述虚拟宠物与所述用户发生触碰时,根据所述虚拟宠物的触碰位置,确定与所述触碰位置对应的第三交互动作;
控制所述虚拟宠物进行所述第三交互动作
获取所述虚拟宠物所在的现实空间的三维信息;
根据所述三维信息,确定所述虚拟宠物的行走路径,以及,确定所述虚拟宠物的活动范围、与所述活动范围对应的活动项目;
控制所述虚拟宠物按所述行走路径进行行走,以及,在所述活动范围内进行所述活动项目。
识别第一目标物体的颜色,所述第一目标物体为所述虚拟宠物所经过的物体;
控制所述虚拟宠物的皮肤呈现所述第一目标物体的颜色。
识别第二目标物体的属性,所述第二目标物体为所述现实空间中在预设检测区域内的物体;
根据所述第二目标物体的属性,控制所述虚拟宠物进行与所述第二目标物体的属性对应的第四交互动作。
为解决上述技术问题,第二方面,本发明实施例中提供给了一种智能投影设备,包括:
投影装置,所述投影装置用于投影虚拟宠物至现实空间;
转动装置,所述转动装置用于控制所述投影装置转动,以控制所述虚拟宠物在所述现实空间中移动;
传感器组件,所述传感器组件用于获取用户的指令信息以及获取所述现实空间的三维信息;
至少一个处理器,所述至少一个处理器分别与所述投影装置、转动装置和所述传感器通信连接;以及
存储器,所述存储器与所述至少一个处理器通信连接,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够根据所述指令信息和所述现实空间的三维信息执行如上第一方面所述的方法。
为解决上述技术问题,第三方面,本发明实施例中提供给了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,当所述计算机可执行指令被至少一个处理器执行时,使所述至少一个处理器执行如上第一方面所述的方法。
本发明实施例的有益效果:区别于现有技术的情况,本发明实施例提供的控制虚拟宠物的方法,应用于智能投影设备,智能投影设备可以将虚拟宠物投影到现实空间中,以预设的样式显示,能经常随意更换不同的样式,以供用户获取饲养不同宠物的体验;此外,还能接受用户的指令信息,根据指令信息,控制该虚拟宠物进行相应的交互行为,从而,互动更加灵活方便,使得用户能获得更好的体验和更多的乐趣,拥有亲密的宠物陪伴感。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明其中一实施例提供的控制虚拟宠物的方法的应用环境示意图;
图2为本发明其中一实施例提供的宠物特征数据库的示意图;
图3本发明其中一实施例提供的智能投影设备的硬件结构示意图;
图4为本发明其中一实施例提供的控制虚拟宠物的方法的流程示意图;
图5为图3所示方法中步骤s22的一子流程示意图;
图6为图3所示方法中步骤s22的另一子流程示意图;
图7为图3所示方法中步骤s22的另一子流程示意图;
图8为本发明其中一实施例提供的另一控制虚拟宠物的方法的流程示意图;
图9为本发明其中一实施例提供的另一控制虚拟宠物的方法的流程示意图;
图10为本发明其中一实施例提供的另一控制虚拟宠物的方法的流程示意图;
图11为本发明其中一实施例提供的另一控制虚拟宠物的方法的流程示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本申请的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。此外,本文所采用的“第一”、“第二”、“第三”等字样并不对数据和执行次序进行限定,仅是对功能和作用基本相同的相同项或相似项进行区分。
此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
请参阅图1,为本发明实施例提供的一种控制虚拟宠物的方法的应用场景的示意图。如图1所示,该应用场景100包括智能投影设备10和现实空间20。
该现实空间20可以是用户的居住室或办公室等。例如,如图1所示的现实空间20包括书桌区域21、支架22、花盆23、宠物休息区域24、飘窗25和门26。其中,智能投影设备10放置于该支架22上,可以理解的是,该智能投影设备10也可以悬挂于该现实空间的吊顶(图未示)上,或,摆放在桌面上。可以理解的是,智能投影设备10的摆放不受限制,只要能在现实空间20中进行投影即可,对现实空间20也没有任何限制,只要是真实环境即可,图1中的应用场景仅仅只是示例性说明,并不对该控制虚拟宠物的方法的应用场景构成任何限制。
该智能投影设备10可以为集成有转动装置、传感器组件、语音模块、投影仪的电子设备,并且能够按照按照程序运动,自动、高速处理海量数据,其中,投影仪可以将虚拟宠物投影至现实空间,转动装置能够带动投影仪转动以使虚拟宠物具有行动能力(例如行走、跳跃或飞翔),传感器组件能够感知现实空间(例如感知现实空间中的声音、颜色、温度或物体等),语音模块可以播放语音以使得虚拟宠物能够发出声音,与用户互动。
当用户从上述宠物特征数据库中确定特征参数后,即预设虚拟宠物,例如预设虚拟宠物为一只猫,智能投影设备10即可在现实空间20中投影显示该虚拟宠物,如图1中所示的猫。
智能投影设备10还能结合预设程序,模拟虚拟宠物在现实空间中的生活状态,例如,控制虚拟宠物在宠物休息区域24睡觉,在窗户25边玩耍等,使得虚拟宠物更具有可玩性,体验感更加真实。
基于智能投影设备10集成有传感器组件和语音模块,智能投影设备能够对用户和物体进行检测识别,控制虚拟宠物能根据实际环境和用户动作或语音等指令做出实时的反馈,互动灵活,增加趣味性,营造亲密的宠物陪伴感。
在上述图1和2的基础上,本发明的其他实施例提供了一种智能投影设备,请参阅图3,为本发明实施例提供的一种智能投影设备的硬件结构图,具体的,如图3所示,该智能投影设备10包括:投影装置11、转动装置12、传感器组件13、至少一个处理器14和存储器15,所述至少一个处理器14分别与投影装置11、转动装置12、传感器组件13和存储器15通信连接(图3中以总线连接、一个处理器为例)。
其中,投影装置11用于投影虚拟宠物至现实空间20,转动装置12用于控制该投影装置11转动,以控制虚拟宠物在现实空间20中移动。例如,转动装置12控制投影装置11以一定的速度朝窗户方向转动,配合虚拟宠物原地行走的循环画面,实现虚拟宠物以一定的速度向窗户15方向走动的效果。可以理解的是,虚拟宠物的行走速度由投影画面的移动速度配合虚拟宠物行走动画的频率步幅决定,虚拟宠物的行走速度和投影画面的移动速度呈正比。
其中,传感器组件13用于获取用户的指令信息以及获取现实空间20的三维信息,该传感器组件13包括至少一个传感器,例如,该传感器组件13包括摄像头,通过获取用户的手势或身体姿态作为指令信息,通过拍摄现实空间识别现实空间的三维信息(例如现实空间中的物体、颜色、距离等),或者,该传感器组件13还包括麦克风,通过获取用户的语音信息作为指令信息。
其中,所述处理器14用于提供计算和控制能力,以控制智能投影设备10执行相应任务,例如,控制智能投影设备10根据上述指令信息和现实空间的三维信息执行下述发明实施例提供的任意一种控制虚拟宠物的方法。
可以理解的是,所述处理器14可以是通用处理器,包括中央处理器(centralprocessingunit,cpu)、网络处理器(networkprocessor,np)等;还可以是数字信号处理器(digitalsignalprocessing,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
所述存储器15作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的控制虚拟宠物的方法对应的程序指令/模块。所述处理器14通过运行存储在存储器15中的非暂态软件程序、指令以及模块,可以实现下述任一方法实施例中的控制虚拟宠物的方法。具体地,所述存储器15可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器15还可以包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
以下,对本发明实施例提供的控制虚拟宠物的方法进行详细说明,请参阅图4,所述方法s20包括但不限制于以下步骤:
s21:预设虚拟宠物,控制所述智能投影设备在现实空间中投影所述虚拟宠物。
s22:接收用户的指令信息,并根据所述指令信息,控制所述虚拟宠物进行相应的交互行为。
智能投影设备可以预设虚拟宠物,即智能投影设备获取用户基于上述宠物特征数据库输入的关于虚拟宠物的特征,即可生成虚拟宠物。可以根据宠物特征数据库设置虚拟宠物的类型、肤色、纹理、声音、大小和年龄等。该虚拟宠物的类型可以为爬行类的动物,例如小猫、小狗、蜥蜴等,也可以是飞行类的动物,例如小鸟、蝴蝶、蜜蜂等,还可以是一些非现实类的角色,例如动漫角色等。可以理解的的是,智能投影设备中也可以设置有虚拟宠物的默认模板,用户也可以直接选择默认模板作为虚拟宠物,也可以根据喜好对默认模板进行自定义,例如调整肤色、纹路等。从而,用户可以经常随意更换不同样式的虚拟宠物,获取饲养不同宠物的体验,例如这个月养魔法精灵,下个月养狗等。
可以理解的是,用户还可以对该宠物特征数据库进行更新维护,不断丰富宠物特征,提高虚拟宠物的可玩行。
在智能投影设备生成虚拟宠物后,控制智能投影设备中的投影仪对该虚拟宠物在现实空间中进行投影显示。也即,虚拟宠物的活动范围为该智能投影设备的投影范围,再加上,投影范围可以随意移动,从而,虚拟宠物可以在整个现实空间中活动。因此,虚拟宠物不再局限于终端屏幕中,而是展现在用户的身边,与真实场景融合,更加形象生动,增加陪伴感。在不接受指令信息的情况下,虚拟宠物进入自由状态,即可以控制虚拟宠物在现实空间中自由行走、做自由行为动作,例如进食、打瞌睡、摆尾或打滚等。
在智能投影设备接收到用户的指令信息后,并获取与指令信息对应的交互行为。可以理解的是,智能投影设备中可以设置有数据库,其中数据库中预先存储有指令信息与对应的交互行为。指令信息与对应的交互行为也可以是智能投影设备默认的操作,也可以是用户根据自身的爱好或需求进行自定义的。例如,当用户指向宠物休息区域时,虚拟宠物会进入宠物休息区域睡觉,当用户进门时,虚拟宠物会奔向门口迎接用户。
在本实施例中,智能投影设备可以将虚拟宠物投影到现实空间中,以预设的样式显示,能经常随意更换不同的样式,以供用户获取饲养不同宠物的体验;此外,还能接受用户的指令信息,根据指令信息,控制该虚拟宠物进行相应的交互行为,从而,互动更加灵活方便,使得用户能获得更好的体验和更多的乐趣,拥有亲密的宠物陪伴感。
在一些实施例中,该指令信息包括用户姿态,请参阅图5,所述步骤s22具体包括:
s221a:控制所述虚拟宠物模仿所述用户姿态。
在此实施例中,指令信息包括用户姿态,即用户的身体姿态。智能投影设备可以通过传感器(例如摄像头)采集能反映用户姿态的图像(指令信息),然后,对该图像进行人体姿态识别,获取用户姿态。可以理解的是,可以采用训练好的卷积神经网络或决策树、svm等分类模型对图像进行识别,得到用户姿态。
在获得用户姿态后,智能投影设备可以调取预先存储的宠物特征数据库中与用户姿态对应的动作,控制投影仪投影虚拟宠物的该动作,即控制虚拟宠物模仿所述用户姿态。例如,以虚拟宠物为蜥蜴为例,当用户抬起右手时,虚拟宠物蜥蜴会抬起右前足,当用户抬起左脚时,虚拟宠物蜥蜴就会抬起左前足。
在本实施例中,识别用户姿态后,控制虚拟宠物模仿用户姿态,以实现虚拟宠物与用户之间的互动。
在一些实施例中,该指令信息包括手势,请参阅图6,所述步骤s22具体包括:
s221b:根据所述手势,确定与所述手势对应的第一交互动作。
s222b:控制所述虚拟宠物进行所述第一交互动作。
在此实施例中,指令信息包括手势。智能投影设备可以通过传感器(例如摄像头)采集能反映用户手势的图像(指令信息),然后,对该图像进行手势识别,获取用户的手势。可以理解的是,可以采用训练好的卷积神经网络或决策树、svm等分类模型对图像进行识别,得到用户的手势。
在获得用户的手势后,智能投影设备可以调取预先存储的手势与第一交互动作映射关系库,查找与用户的手势相对应的第一交互动作,并控制该虚拟宠物进行该第一交互动作。例如,当用户招手时,智能投影设备在识别出招手手势后,控制转动装置带动投影仪转动,使虚拟宠物从当前位置走到用户跟前;当用户挥手时,智能投影设备在识别出挥手手势后,控制转动装置带动投影仪转动,使虚拟宠物从用户跟前离开。
在本实施例中,识别用户的手势,控制虚拟宠物进行相应的第一交互动作,实现虚拟宠物与用户之间的互动。
在一些实施例中,该指令信息包括语音信息,请参阅图7,所述步骤s22具体包括:
s221c:根据所述语音信息,获取所述语音信息所指示的第二交互动作。
s222c:控制所述虚拟宠物进行所述第二交互动作。
在此实施例中,指令信息包括语音信息。智能投影设备可以通过传感器(例如麦克风)采集用户的语音信息(指令信息),对该语音信息进行语音识别,获取该语音信息所指示的第二交互动作,然后,控制虚拟宠物进行相应的第二交互动作,即可使得虚拟宠物能听懂用户的话,进行互动。
可以理解的是,语音信息与第二交互动作预先设置有对应关系,当语音信息包括动作时,第二交互动作可以为语音信息中的动作,例如当用户说趴下时,第二交互动作即位趴下,当语音信息不包括动作时,则第二交互动作可以根据语音信息预先定义,例如当用户说“hi,xiyi,我回来了”,虚拟宠物就会被唤醒,跑到门口迎接用户的回来,当用户说“hi,xiyi,该吃饭了”,虚拟宠物就会跑到吃饭的地方吃饭。
在此实施例中,通过语音识别,控制虚拟宠物进行语音信息所指示的第二交互动作,使得虚拟宠物具有能够听懂话的趣味性。
在一些实施例中,请参阅图8,所述步骤还包括:
s23:检测所述虚拟宠物与所述用户是否发生触碰。
s24:当所述虚拟宠物与所述用户发生触碰时,根据所述虚拟宠物的触碰位置,确定与所述触碰位置对应的第三交互动作。
s25:控制所述虚拟宠物进行所述第三交互动作。
在此实施例中,智能投影设备可以通过传感器(例如摄像头)采集用户与虚拟宠物的图像,然后,对该图像进行目标识别,可以理解的是,可以采用现有的目标识别算法(r-cnn、ssd或yolo等)对用户和虚拟宠物进行识别。识别出用户的位置和虚拟宠物的位置,并计算用户与虚拟宠物之间的最小距离,可以根据用户与虚拟宠物之间的最小距离,确定虚拟宠物与用户之间是否发生触碰,例如当用户与虚拟宠物之间的最小距离小于预设值时,确定两者之间发生触碰。可以理解的时,发生最小距离时对应的用户的部位和虚拟宠物的部位即为发生触碰的位置。例如,若用户的手与虚拟宠物的头之间的距离为最小距离,且最小距离小于预设阈值,则用户的手与虚拟宠物的头发生触碰,虚拟宠物的触碰位置为头部。
当虚拟宠物与用户发生触碰时,根据虚拟宠物的触碰位置,确定与所述触碰位置对应的第三交互动作。可以理解的是,在智能投影设备中事先预设有触碰位置与第三交互动作的映射关系,当通过目标识别确定触碰位置后,从而,可以查找出与该触碰位置对应的第三交互动作,进而,控制虚拟宠物进行该第三交互动作。例如,当用户抚摸虚拟宠物的头部时,虚拟宠物会反馈眯眼微笑等享受的动作(对应的第三交互动作),当用户触摸虚拟宠物的尾巴时,虚拟宠物会摇晃尾巴(对应的第三交互动作),当用户触摸虚拟宠物的左前脚时,虚拟宠物会抬起左前脚(对应的第三交互动作)。
在此实施例中,通过对触碰进行识别,控制虚拟宠物进行与触碰位置对应的第三交互动作,实现触碰交互,使得虚拟宠物具有能够感知的真实性。
在一些实施例中,请参阅图9,所述步骤还包括:
s26:获取所述虚拟宠物所在的现实空间的三维信息。
s27:根据所述三维信息,确定所述虚拟宠物的行走路径,以及,确定所述虚拟宠物的活动范围、与所述活动范围对应的活动项目。
s28:控制所述虚拟宠物按所述行走路径进行行走,以及,在所述活动范围内进行所述活动项目。
在此实施例中,智能投影设备可以通过传感器(例如至少一个摄像头)采集现实空间的图像,然后,对该图像进行识别,获取现实空间的三维信息,该三维信息包括现实空间中各物体的形状、尺寸等,然后,根据该三维信息,确定虚拟宠物的行走路径,例如行走路径绕过花盆、家具等障碍物。从而,控制虚拟宠物按该行走路径进行行走,使得虚拟宠物的习性与真实宠物的习性相似,以增加虚拟宠物的真实性。
可以理解的是,也可以根据该三维信息,确定虚拟宠物的活动范围、与所述活动范围对应的活动项目。即设置虚拟宠物在不同的位置做不同的事情,例如,设置虚拟宠物的活动范围包括墙角和窗户边,与墙角对应的活动项目可以为睡觉,与窗户边对应的活动项目可以为玩耍。从而,当用户示意虚拟宠物需要休息了时,控制虚拟宠物会去到墙角睡觉,当用户示意虚拟宠物需要玩耍时,控制虚拟宠物在窗户边进行玩耍,即使得虚拟宠物在各活动范围内进行相应的活动项目,使得虚拟宠物的习性与环境相适应,更加靠近真实宠物的习性,使得虚拟宠物的真实性得以增加。
在本实施例中,通过根据现实空间的真实环境规划虚拟宠物的行走路径以及设置虚拟宠物的活动习性,使得虚拟宠物的习性与真实宠物的习性相似,能够增加虚拟宠物的真实性。
在一些实施例中,请参阅图10,所述步骤还包括:
s29:识别第一目标物体的颜色,所述第一目标物体为所述虚拟宠物所经过的物体。
s30:控制所述虚拟宠物的皮肤呈现所述第一目标物体的颜色。
在此实施例中,智能投影设备同样也可以通过识别虚拟宠物所经行的第一目标物体的颜色,例如,当虚拟宠物蜥蜴爬行到某一墙面上时,则检测这一墙面的颜色,当虚拟宠物蜥蜴爬行到飘窗台面上时,则检测飘窗窗台面的颜色,然后,控制虚拟宠物的皮肤呈现该第一目标物体的颜色,例如,当虚拟宠物蜥蜴爬行到红色的墙面上时,控制虚拟宠物蜥蜴的肤色变成红色,当虚拟宠物蜥蜴爬行到绿色的某一物体上时,控制虚拟宠物蜥蜴的肤色变成绿色。
在此实施例中,通过控制虚拟宠物随着经行的第一目标物体的颜色而改变肤色,使得虚拟宠物具有伪装能力,能增加趣味性。
在一些实施例中,请参阅图11,所述步骤还包括:
s31:识别第二目标物体的属性,所述第二目标物体为所述现实空间中在预设检测区域内的物体。
s32:根据所述第二目标物体的属性,控制所述虚拟宠物进行与所述第二目标物体的属性对应的第四交互动作。
在此实施例中,智能投影设备可以识别在预设检测区域内的第二目标物体的属性。例如当用户在该预设检测区域内放置一根香蕉,则智能投影设备识别出香蕉的属性为食物以及定位出香蕉的位置,若在该预设检测区域内有一个皮球,则智能投影设备会识别出皮球的属性为玩具以及定位出皮球的位置。可以理解的是,该预设检测区域可以用用户自行设定的区域,也可以是智能投影设备默认的区域。
可以理解的是,智能投影设备中预先存储有第二目标物体的属性与第四交互动作的映射关系,当确定第二目标物体的属性后,可以查找出与第二目标物体的属性对应的第四交互动作,例如食物-吃食,玩具-玩耍。从而,可以控制虚拟宠物进行相应的第四交互动作,即可实现当用户在预设检测区域内放置食物后,虚拟宠物就去吃食食物的互动,以及,当虚拟宠物在行走路径中遇到一个玩具,则虚拟宠物会爬到这个玩具上玩耍的互动等。
在此实施例中,通过控制虚拟宠物进行与第二目标物体的属性对应的第四交互动作,即可实现虚拟宠物与周边物体之间的互动,从而,虚拟宠物的行为更加接近真实宠物的行为。
综上所述,本发明实施例提供的控制虚拟宠物的方法,应用于智能投影设备,智能投影设备可以将虚拟宠物投影到现实空间中,以预设的样式显示,能经常随意更换不同的样式,以供用户获取饲养不同宠物的体验;此外,还能接受用户的指令信息,根据指令信息,控制该虚拟宠物进行相应的交互行为,从而,互动更加灵活方便,使得用户能获得更好的体验和更多的乐趣,拥有亲密的宠物陪伴感。
本发明其中一实施例还提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,当所述计算机可执行指令被至少一个处理器执行时,使所述至少一个处理器执行如上方式实施例中任一控制虚拟宠物的方法。
需要说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。