发布信息

基于清洁机器人的运行方法、装置、电子设备及介质与流程 专利技术说明

作者:admin      2022-12-02 15:49:08     617



家具;门窗制品及其配附件制造技术1.本技术中涉及数据处理技术,尤其是一种基于清洁机器人的运行方法、装置、电子设备及介质。背景技术:2.由于通信时代和社会的兴起,智能设备已经随着越来越多用户的使用而不断发展。3.其中,随着通信时代的飞速发展,人们使用清洁机器人代替人工清洁已经成为了一种常态。另外,传统的清洁机器人针对室内不同区域它的清扫力度及模式是相同的,这也导致清洁机器人在清扫特定区域的清扫效率不高,进而降低用户体验。技术实现要素:4.本技术实施例提供一种基于清洁机器人的运行方法、装置、电子设备及介质,本技术实施例用于解决相关技术中存在的无法针对室内不同区域改变清扫模式的问题。5.其中,根据本技术实施例的一个方面,提供的一种基于清洁机器人的运行方法,其特征在于,应用于清洁机器人,包括:6.获取运行指令,确定清洁机器人当前所处的第一区域标识;7.基于所述第一区域标识,确定第一运行模式,所述运行模式用于表征所述清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;8.确定所述清洁机器人在所述第一运行模式下运行。9.可选地,在基于本技术上述方法的另一个实施例中,在所述确定所述清洁机器人在所述第一运行模式下运行之后,还包括:10.确定所述清洁机器人当前所处的第二区域标识,并基于所述第二区域标识,确定第二运行模式,所述第二区域为与所述第一区域不相同的区域;11.确定所述清洁机器人由所述第一运行模式切换为所述第二运行模式,并在所述第二运行模式下运行。12.可选地,在基于本技术上述方法的另一个实施例中,所述确定清洁机器人当前所处的第一区域标识,包括:13.利用图像检测分类模型,识别所述清洁机器人当前所处的区域中,是否存在有目标区域物体特征,所述区域物体特征包括大小特征、色彩特征以及轮廓特征的至少一种;14.确定存在所述目标物体特征,确定所述清洁机器人当前所处的第一区域标识。15.可选地,在基于本技术上述方法的另一个实施例中,所述确定清洁机器人当前所处的第一区域标识,包括:16.利用定位模块,识别所述清洁机器人当前所处的区域坐标;17.基于所述清洁机器人当前所处的区域坐标,确定所述清洁机器人当前所处的第一区域标识。18.可选地,在基于本技术上述方法的另一个实施例中,在所述获取运行指令之前,还包括:19.获取构建地图指令,所述构建地图指令中包括至少两个待清洁区域;20.根据所述构建地图指令对应的构建需求,确定所述待清洁区域对应的拍摄方案,其中不同的拍摄方案对应于不同的拍摄高度,和/或,拍摄视角;21.基于所述待清洁区域的不同,采取对应的拍摄方案进行地图构建。22.可选地,在基于本技术上述方法的另一个实施例中,在所述获取运行指令之前,还包括:23.获取至少两个的样本图像,其中,所述样本图像中包括至少一个区域物体特征;24.基于所述区域物体,对各个所述样本图像标注对应的区域标识;25.利用所述标注有区域标识的样本图像,以及所述样本图像中包括的区域物体特征,对预设的图像语义分割模型进行训练,得到满足预设条件的第一图像检测分类模型,所述第一图像检测分类模型用于确定所述清洁机器人当前所处的区域标识。26.可选地,在基于本技术上述方法的另一个实施例中,在所述得到满足预设条件的第一图像检测分类模型之后,还包括:27.对所述第一图像检测分类模型进行模型压缩,得到第二图像检测分类模型;28.将所述第一图像检测分类模型部署到服务器端,以及,将所述第二图像检测分类模型部署到所述清洁机器人中;29.获取所述运行指令后,基于所述清洁机器人的运行状态,确定识别模式,所述识别模式对应于利用所述第一图像检测分类模型进行识别,或利用所述第二图像检测分类模型进行识别;30.基于所述识别模式,确定所述清洁机器人当前所处的第一区域标识。31.根据本技术实施例的另一个方面,提供的一种基于清洁机器人的运行装置,应用于清洁机器人,包括:32.获取模块,被设置为获取运行指令,确定清洁机器人当前所处的第一区域标识;33.确定模块,被设置为基于所述第一区域标识,确定第一运行模式,所述运行模式用于表征所述清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;34.运行模块,被设置为确定所述清洁机器人在所述第一运行模式下运行。35.根据本技术实施例的又一个方面,提供的一种电子设备,包括:36.存储器,用于存储可执行指令;以及37.显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述基于清洁机器人的运行方法的操作。38.根据本技术实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述基于清洁机器人的运行方法的操作。39.本技术中,在获取运行指令,确定清洁机器人当前所处的第一区域标识;基于第一区域标识,确定第一运行模式,运行模式用于表征清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;确定清洁机器人在第一运行模式下运行。通过应用本技术的技术方案,可以将预先训练好的图像检测分类模型部署到清洁机器人中,从而首先识别当前所处的待清扫区域,并根据待清扫区域的不同,选择对应的清扫模式进行此区域的清扫。从而避免相关技术中存在的无法针对室内不同区域改变清扫模式的问题。40.下面通过附图和实施例,对本技术的技术方案做进一步的详细描述。附图说明41.构成说明书的一部分的附图描述了本技术的实施例,并且连同描述一起用于解释本技术的原理。42.参照附图,根据下面的详细描述,可以更加清楚地理解本技术,其中:43.图1为本技术提出的基于清洁机器人的运行系统架构示意图;44.图2为本技术提出的一种基于清洁机器人的运行方法的示意图;45.图3为本技术提出的清洁机器人采集图像的显示图;46.图4为本技术提出的清洁机器人运行的流程图;47.图5为本技术基于清洁机器人的运行装置的结构示意图;48.图6为本技术显示电子设备结构示意图。具体实施方式49.现在将参照附图来详细描述本技术的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本技术的范围。50.同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。51.以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本技术及其应用或使用的任何限制。52.对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。53.应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。54.另外,本技术各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本技术要求的保护范围之内。55.需要说明的是,本技术实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。56.下面结合图1-图4来描述根据本技术示例性实施方式的用于进行基于清洁机器人的运行方法。需要注意的是,下述应用场景仅是为了便于理解本技术的精神和原理而示出,本技术的实施方式在此方面不受任何限制。相反,本技术的实施方式可以应用于适用的任何场景。57.图1示出了可以应用本技术实施例的基于清洁机器人的运行方法或基于清洁机器人的运行的示例性系统架构100的示意图。58.如图1所示,系统架构100可以包括清洁机器人101、102、103中的一种或多种,网络104和服务器105。网络104用以在清洁机器人101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。59.应该理解,图1中的清洁机器人、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的清洁机器人、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。60.用户可以使用清洁机器人101、102、103通过网络104与服务器105交互,以接收或发送消息,采集图像等。清洁机器人101、102、103可以包括具有显示屏,摄像采集装置的各种电子设备。61.本技术中的清洁机器人101、102、103可以为提供各种服务的清洁机器人。例如用户通过清洁机器人103(也可以是清洁机器人101或102)实现:获取运行指令,确定清洁机器人当前所处的第一区域标识;基于所述第一区域标识,确定第一运行模式,所述运行模式用于表征所述清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;确定所述清洁机器人在所述第一运行模式下运行。62.在此需要说明的是,本技术实施例所提供的基于清洁机器人的运行方法可以由清洁机器人101、102、103中的一个或多个,和/或,服务器105执行,相应地,本技术实施例所提供的基于清洁机器人的运行装置一般设置于对应清洁机器人中,和/或,服务器105中,但本技术不限于此。63.进一步的,本技术还提出一种基于清洁机器人的运行方法、装置、目标终端及介质。64.图2示意性地示出了根据本技术实施方式的一种基于清洁机器人的运行方法的流程示意图。如图2所示,该方法应用于清洁机器人,包括:65.s101,获取运行指令,确定清洁机器人当前所处的第一区域标识。66.其中,清洁机器人是智能家用电器的一种,能凭借一定的人工智能,自动在区域内完成地板清理工作。一般采用刷扫和真空方式,将地面杂物先吸纳进入自身的垃圾收纳盒,从而完成地面清理的功能。67.需要说明的是,本技术中的运行指令可以是由用户生成的,也可以为根据预设规则生成的。例如每隔一段时间即可指示机器人进行用于清扫室内的运行指令等等。68.另外,需要说明的是,本技术不对第一区域标识进行限定。例如可以对应于卧室,也可以对应于厨房,还可以对应于办公区域等等。69.还有,本技术也不对第一区域标识的数量进行限定,例如可以为一个,也可以为多个。70.s102,基于第一区域标识,确定第一运行模式,运行模式用于表征清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种。71.进一步的,本技术在获取启动指令之后,需要首先确定对应的运行模式,其中运行模式可以分为不同的清洁时长、清洁力度以及清洁方式等等。72.其中,清洁力度可以对应于使用不同的清洁辅助装置,例如可以包括利用去油烟的清洁剂,去灰尘的清洁剂,去雾霾的清新剂等等。而对于清洁方式来说,可以选择高功率的清洁方式以及低功率的清洁方式。73.例如如图3所示,对于第一区域标识对应于厨房来说,通常由于厨房的油烟程度较高,因此为了保证清洁效果。即可以选择高清洁力度或去油烟的清洁剂的方式来运行。另外,通常由于厨房的区域面积不大,因此还可以选择清洁时长较短的清洁方式。又或,对于第一区域标识对应于办公区域来说,通常由于办公区域的区域面积较大,因此还可以选择清洁时长较长的清洁方式进行清洁。74.再或,对于第一区域标识对应于卧室来说,通常由于卧室是用户休息玩耍的区域,因此其对舒适安静型的要求较高,因此为了保证用户体验。即可以选择低噪音(较低功率)的清洁方式进行清洁。同样的,对于第一区域标识对应于卫生间来说,通常由于卫生间是对于舒适安静型的要求较低,因此为了保证用户体验。即可以不选择低噪音(较高功率)的清洁方式进行清洁。75.s103,确定清洁机器人在第一区域下以第一运行模式下运行。76.进一步的,本技术在确定用于表征清洁机器人的清洁时长、清洁力度以及清洁方式的第一运行模式后,即可以驱动机器人在该第一运行模式下运行,直至清洁机器人将第一区域清扫完毕。77.可以理解的,当检测到清洁机器人已清扫完毕第一区域后,即可根据其他区域的标识,选取其他区域对应的运行模式进行清洁。78.本技术中,在获取运行指令,确定清洁机器人当前所处的第一区域标识;基于第一区域标识,确定第一运行模式,运行模式用于表征清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;确定清洁机器人在第一运行模式下运行。通过应用本技术的技术方案,可以将预先训练好的图像检测分类模型部署到清洁机器人中,从而首先识别当前所处的待清扫区域,并根据待清扫区域的不同,选择对应的清扫模式进行此区域的清扫。从而避免相关技术中存在的无法针对室内不同区域改变清扫模式的问题。79.可选的,在本技术一种可能的实施方式中,在s102(在确定清洁机器人在第一运行模式下运行之后),还包括:80.确定清洁机器人当前所处的第二区域标识,并基于第二区域标识,确定第二运行模式,第二区域为与第一区域不相同的区域;81.确定清洁机器人由第一运行模式切换为第二运行模式,并在第二运行模式下运行。82.进一步的,当检测到清洁机器人已清扫完毕当前区域后,即可根据第二区域的标识,选取第二区域对应的第二运行模式进行清洁。需要说明的是,第一区域应该与第二区域为不相同的区域。例如第一区域为厨房,第二区域可以为卧室等。又或,第一区域为卫生间,第二区域可以为厨房等。83.另外需要说明的是,第二运行模式可以为与第一运行模式不相同的运行模式,也可以为相同的运行模式,例如当清洁机器人已清扫完毕第一区域(为卧室a)后,其来到了第二区域(卧室b)。则在此情况下第二运行模式可以为与第一运行模式相同的运行模式。84.举例来说,例如对于第一区域标识对应于厨房来说,第一运行模式即可以选择低清洁时长的运行模式。进一步的,当清洁机器人清洁完毕厨房后,机器人即可进入办公区域(第二区域)。可以理解的,对于第二区域标识对应于办公区域来说,通常由于办公区域的区域面积较大,因此还可以选择清洁时长较长的清洁方式进行清洁。因此清洁机器人即可以确定高清洁时长的第二运行模式并在第二区域中进行清扫。85.需要说明的是,本技术可以由清洁机器人自身在判断满足条件后,由第一运行模式切换为第二运行模式并运行。也可以在清洁机器人将当前所在环境信息传输到服务器后,由服务器在判断满足条件后,向清洁机器人下发由第一运行模式切换为第二运行模式的指令。86.可选的,在本技术一种可能的实施方式中,在s101(确定清洁机器人当前所处的第一区域标识),还包括:87.利用图像检测分类模型,识别清洁机器人当前所处的区域中,是否存在有目标区域物体特征,区域物体特征包括大小特征、色彩特征以及轮廓特征的至少一种;88.确定存在目标物体特征,确定清洁机器人当前所处的第一区域标识。89.进一步的,本技术可以首先由清洁机器人拍摄当前所处区域的若干张图像,并利用预设的图像检测分类模型对该多张待识别图像进行特征识别,进而清洁机器人当前所处的区域中,是否存在有目标区域物体特征。90.例如当目标区域物体为油烟机来说,本技术即可以确定当前区域为厨房。而当目标区域物体为床来说,本技术即可以确定当前区域为卧室。91.其中,本技术不对图像检测分类模型做具体限定。例如可以为卷积神经网络(convolutional neural networks,cnn)。卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络(feedforward neural networks),是深度学习的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类。得益于cnn(卷积神经网络)对图像的强大特征表征能力,其在图像分类、目标检测、语义分割等领域都取得了令人瞩目的效果。92.进一步的,本技术可以使用图像检测分类模型来检测摄像装置所采集到的多张待识别图像中的特征信息,进而对特征信息进行特征识别,确定待识别图像是否包含目标物体。其中,需要将该待识别图像输入至预设的卷积神经网络模型中,并将卷积神经网络模型最后一层全连接层(fc,fully connected layer)的输出作为对该待识别图像对应的特征数据的识别结果。93.可选的,在本技术一种可能的实施方式中,在s101(确定清洁机器人当前所处的第一区域标识),还包括:94.利用定位模块,识别清洁机器人当前所处的区域坐标;95.基于清洁机器人当前所处的区域坐标,确定清洁机器人当前所处的第一区域标识。96.进一步的,本技术在确定清洁机器人当前所处的区域标识的方式中,还可以通过定位模块来确定机器人当前所处的位置坐标,并据此判断清洁机器人当前所处的区域标识。97.一种方式中,在利用定位模块确定区域标识的过程中,可以搭配利用图像检测分类模型,识别清洁机器人当前所处的区域中,是否存在有目标区域物体特征的方式来共同判断。从而提高判断区域标识准确性的目的。98.可选的,本技术在获取运行指令之前,还包括:99.获取构建地图指令,构建地图指令中包括至少两个待清洁区域;100.根据构建地图指令对应的构建需求,确定待清洁区域对应的拍摄方案,其中不同的拍摄方案对应于不同的拍摄高度,和/或,拍摄视角;101.基于待清洁区域的不同,采取对应的拍摄方案进行地图构建。102.进一步的,本技术在初始阶段利用清洁机器人构建室内的清扫地图的过程中,可以选择不同的拍摄高度,和/或,拍摄视角来拍摄不同的区域。103.可以理解的,例如对于厨房区域来说,其最显著的物体特征就是抽油烟机和灶台,而通常抽油烟机等物体是位于较高的水平位置上,这也导致位于地面的清扫机器人并不好拍摄到。因此本技术即可以在根据用户下发的构建需求中,确定某个待清洁区域为厨房区域时,选择较高的拍摄高度以及较广的拍摄视角来生成拍摄方案。从而针对性的利用该较高的拍摄高度以及较广的拍摄视角的拍摄方案进行该厨房区域的地图构建。104.又或,对于卧室区域来说,其最显著的物体特征就是床架,而通常床架等物体是位于较地的水平位置上,因此本技术即可以在根据用户下发的构建需求中,确定某个待清洁区域为卧室区域时,选择较低的拍摄高度来生成拍摄方案。从而针对性的利用该较低的拍摄高度组成的拍摄方案进行该卧室区域的地图构建。105.可选的,在本技术一种可能的实施方式中,在s101(获取运行指令)之前,可以包括以下步骤:106.获取至少两个的样本图像,其中,样本图像中包括至少一个区域物体特征;107.基于区域物体,对各个样本图像标注对应的区域标识;108.利用标注有区域标识的样本图像,以及样本图像中包括的区域物体特征,对预设的图像语义分割模型进行训练,得到满足预设条件的第一图像检测分类模型,第一图像检测分类模型用于确定清洁机器人当前所处的区域标识。109.进一步的,本技术在利用预设的图像检测分类模型采集各个区域的图像之前,首先需要训练得到该图像检测分类模型。具体而言,需要首先获取一定数量的,包括至少二个区域物体特征的样本图像。并利用该多个样本图像对基础的空白图像语义分割模型进行训练,进而得到满足预设条件的第一图像检测分类模型。110.需要说明的是,本技术需要根据区域物体,对各个样本图像标注对应的区域标识。例如当样本图像中出现油烟机的区域物体时,需要对其样本图像标注厨房的区域标识。又或当样本图像中出现床架的区域物体时,需要对其样本图像标注卧室的区域标识。111.本技术可以通过预设的图像语义分割模型,来识别样本图像所包括的至少一个区域物体的样本特征(例如可以为大小特征,轮廓特征,色彩特征等等)。更进一步而言,图像语义分割模型还可以对样本图像中的各个区域物体特征进行分类,并且将属于同一类别的样本特征分为同一类型的物体,这样,样本图像进行语义分割之后所得到的多个样本特征可以为多个不同类型所组成的样本特征。112.需要说明的是,神经网络图像分类模型对样本图像进行语义分割处理时,对样本图像中的像素点分类越准确,则识别样本图像中的标记对象的准确率越高。其中需要说明的是,预设条件可以是自定义设定的。113.例如,可以设定预设条件为:对像素点的分类准确率达到70%以上,那么,多个样本图像对图像检测分类模型进行反复训练,在神经网络图像分类模型对像素点的分类准确率达到70%以上时,则此时该图像检测分类模型可以应用在本技术实施例中,对清洁机器人中摄像装置拍摄的多张待识别图像进行图像特征识别。114.进一步可选的,在得到满足预设条件的第一图像检测分类模型之后,还包括:115.对第一图像检测分类模型进行模型压缩,得到第二图像检测分类模型;116.将第一图像检测分类模型部署到服务器端,以及,第二图像检测分类模型部署到清洁机器人中;117.获取运行指令后,基于清洁机器人的运行状态,确定识别模式,识别模式对应于利用第一图像检测分类模型进行识别,或利用第二图像检测分类模型进行识别;118.基于识别模式,确定清洁机器人当前所处的第一区域标识。119.进一步的,本技术在获取到第一图像检测分类模型之后,为了避免出现该第一图像检测分类模型的数据架构过大所导致的需要占用机器人较大内存的弊端。本技术还可以将其进行模型压缩,以得到对应的数据架构较小的第二图像检测分类模型。120.可选的,本技术对第一图像检测分类模型进行模型压缩的方式可以为直接对其进行压缩的方法,例如可以包括模型核的稀疏化,和模型的裁剪两个方面。其中核的稀疏化需要一些稀疏计算库的支持,其加速的效果可能受到带宽、稀疏度等很多因素的制约。另外,模型的裁剪方法则需要直接在原有的模型上剔除掉不重要的滤波参数。由于神经网络的自适应能力很强,加上数据架构较大的模型往往冗余比较多,将一些参数剔除之后,通过重训练手段可以将由剔除参数而降低的性能恢复回来,因此只需要挑选一种合适的裁剪手段以及重训练方式,就能够有效的在已有模型的基础上对其进行很大程度的压缩,是目前使用最普遍的方法。121.更进一步的,本技术在得到数据架构较小的第二图像检测分类模型之后,可以将其部署在清洁机器人上。从而后续可以由清洁机器人利用该压缩后的图像检测分类模型识别摄像装置采集的多张待识别图像,进而确定对应的区域标识。122.另外,本技术还可以将数据结构较大的第一图像检测分类模型部署到服务器中,以使基于清洁机器人的运行状态,确定识别模式。进而针对性的选择对应的图像检测分类模型确定对应的区域标识。123.更进一步的,如图4所示,为本技术提出的清洁机器人的运行方法的整体流程图,本技术中,在获取运行指令,确定清洁机器人当前所处的第一区域标识;基于第一区域标识,确定第一运行模式,运行模式用于表征清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;确定清洁机器人在第一运行模式下运行。通过应用本技术的技术方案,可以将预先训练好的图像检测分类模型部署到清洁机器人中,从而首先识别当前所处的待清扫区域,并根据待清扫区域的不同,选择对应的清扫模式进行此区域的清扫。从而避免相关技术中存在的无法针对室内不同区域改变清扫模式的问题。124.在本技术的另外一种实施方式中,如图5所示,本技术还提供一种基于清洁机器人的运行装置。其中,该装置包括获取模块201,确定模块202,运行模块203,其中,125.获取模块,被设置为获取运行指令,确定清洁机器人当前所处的第一区域标识;126.确定模块,被设置为基于所述第一区域标识,确定第一运行模式,所述运行模式用于表征所述清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;127.运行模块,被设置为确定所述清洁机器人在所述第一运行模式下运行。128.本技术中,在获取运行指令,确定清洁机器人当前所处的第一区域标识;基于第一区域标识,确定第一运行模式,运行模式用于表征清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;确定清洁机器人在第一运行模式下运行。通过应用本技术的技术方案,可以将预先训练好的图像检测分类模型部署到清洁机器人中,从而首先识别当前所处的待清扫区域,并根据待清扫区域的不同,选择对应的清扫模式进行此区域的清扫。从而避免相关技术中存在的无法针对室内不同区域改变清扫模式的问题。129.在本技术的另一种实施方式中,获取模块201,还包括:130.获取模块201,被配置为确定所述清洁机器人当前所处的第二区域标识,并基于所述第二区域标识,确定第二运行模式,所述第二区域为与所述第一区域不相同的区域;131.获取模块201,被配置为确定所述清洁机器人由所述第一运行模式切换为所述第二运行模式,并在所述第二运行模式下运行。132.在本技术的另一种实施方式中,获取模块201,还包括:133.获取模块201,被配置为利用图像检测分类模型,识别所述清洁机器人当前所处的区域中,是否存在有目标区域物体特征,所述区域物体特征包括大小特征、色彩特征以及轮廓特征的至少一种;134.获取模块201,被配置为确定存在所述目标物体特征,确定所述清洁机器人当前所处的第一区域标识。135.在本技术的另一种实施方式中,获取模块201,还包括:136.获取模块201,被配置为利用定位模块,识别所述清洁机器人当前所处的区域坐标;137.获取模块201,被配置为基于所述清洁机器人当前所处的区域坐标,确定所述清洁机器人当前所处的第一区域标识。138.在本技术的另一种实施方式中,获取模块201,还包括:139.获取模块201,被配置为获取构建地图指令,所述构建地图指令中包括至少两个待清洁区域;140.获取模块201,被配置为根据所述构建地图指令对应的构建需求,确定所述待清洁区域对应的拍摄方案,其中不同的拍摄方案对应于不同的拍摄高度,和/或,拍摄视角;141.获取模块201,被配置为基于所述待清洁区域的不同,采取对应的拍摄方案进行地图构建。142.在本技术的另一种实施方式中,获取模块201,还包括:143.获取模块201,被配置为获取至少两个的样本图像,其中,所述样本图像中包括至少一个区域物体特征;144.获取模块201,被配置为基于所述区域物体,对各个所述样本图像标注对应的区域标识;145.获取模块201,被配置为利用所述标注有区域标识的样本图像,以及所述样本图像中包括的区域物体特征,对预设的图像语义分割模型进行训练,得到满足预设条件的第一图像检测分类模型,所述第一图像检测分类模型用于确定所述清洁机器人当前所处的区域标识。146.在本技术的另一种实施方式中,获取模块201,还包括:147.获取模块201,被配置为对所述第一图像检测分类模型进行模型压缩,得到第二图像检测分类模型;148.获取模块201,被配置为将所述第一图像检测分类模型部署到服务器端,以及,将所述第二图像检测分类模型部署到所述清洁机器人中;149.获取模块201,被配置为获取所述运行指令后,基于所述清洁机器人的运行状态,确定识别模式,所述识别模式对应于利用所述第一图像检测分类模型进行识别,或利用所述第二图像检测分类模型进行识别;150.获取模块201,被配置为基于所述识别模式,确定所述清洁机器人当前所处的第一区域标识。151.图6是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备300可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。152.参照图6,电子设备300可以包括以下一个或多个组件:处理器301和存储器302。153.处理器301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器301可以采用dsp(digital signal processing,数字信号处理)、fpga(field-programmable gate array,现场可编程门阵列)、pla(programmable logic array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称cpu(central processing unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器301可以在集成有gpu(graphics processing unit,图像处理器),gpu用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器301还可以包括ai(artificial intelligence,人工智能)处理器,该ai处理器用于处理有关机器学习的计算操作。154.存储器302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器302中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器301所执行以实现本技术中方法实施例提供的互动特效标定方法。155.在一些实施例中,电子设备300还可选包括有:外围设备接口303和至少一个外围设备。处理器301、存储器302和外围设备接口303之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口303相连。具体地,外围设备包括:射频电路304、触摸显示屏305、摄像头306、音频电路307、定位组件308和电源309中的至少一种。156.外围设备接口303可被用于将i/o(input/output,输入/输出)相关的至少一个外围设备连接到处理器301和存储器302。在一些实施例中,处理器301、存储器302和外围设备接口303被集成在同一芯片或电路板上;在一些其他实施例中,处理器301、存储器302和外围设备接口303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。157.射频电路304用于接收和发射rf(radio frequency,射频)信号,也称电磁信号。射频电路304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路304包括:天线系统、rf收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路304可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2g、3g、4g及5g)、无线局域网和/或wifi(wireless fidelity,无线保真)网络。在一些实施例中,射频电路304还可以包括nfc(near field communication,近距离无线通信)有关的电路,本技术对此不加以限定。158.显示屏305用于显示ui(user interface,用户界面)。该ui可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏305是触摸显示屏时,显示屏305还具有采集在显示屏305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器301进行处理。此时,显示屏305还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏305可以为一个,设置电子设备300的前面板;在另一些实施例中,显示屏305可以为至少两个,分别设置在电子设备300的不同表面或呈折叠设计;在再一些实施例中,显示屏305可以是柔性显示屏,设置在电子设备300的弯曲表面上或折叠面上。甚至,显示屏305还可以设置成非矩形的不规则图形,也即异形屏。显示屏305可以采用lcd(liquid crystal display,液晶显示屏)、oled(organic light-emitting diode,有机发光二极管)等材质制备。159.摄像头组件306用于采集图像或视频。可选地,摄像头组件306包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及vr(virtual reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件306还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。160.音频电路307可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器301进行处理,或者输入至射频电路304以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备300的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器301或射频电路304的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路307还可以包括耳机插孔。161.定位组件308用于定位电子设备300的当前地理位置,以实现导航或lbs(location based service,基于位置的服务)。定位组件308可以是基于美国的gps(global positioning system,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。162.电源309用于为电子设备300中的各个组件进行供电。电源309可以是交流电、直流电、一次性电池或可充电电池。当电源309包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。163.在一些实施例中,电子设备300还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。164.加速度传感器411可以检测以电子设备300建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器301可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏305以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。165.陀螺仪传感器412可以检测电子设备300的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对电子设备300的3d动作。处理器301根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变ui)、拍摄时的图像稳定、游戏控制以及惯性导航。166.压力传感器413可以设置在电子设备300的侧边框和/或触摸显示屏305的下层。当压力传感器413设置在电子设备300的侧边框时,可以检测用户对电子设备300的握持信号,由处理器301根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏305的下层时,由处理器301根据用户对触摸显示屏305的压力操作,实现对ui界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。167.指纹传感器414用于采集用户的指纹,由处理器301根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器301授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器414可以被设置电子设备300的正面、背面或侧面。当电子设备300上设置有物理按键或厂商logo时,指纹传感器414可以与物理按键或厂商logo集成在一起。168.光学传感器415用于采集环境光强度。在一个实施例中,处理器301可以根据光学传感器415采集的环境光强度,控制触摸显示屏305的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏305的显示亮度;当环境光强度较低时,调低触摸显示屏305的显示亮度。在另一个实施例中,处理器301还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件306的拍摄参数。169.接近传感器416,也称距离传感器,通常设置在电子设备300的前面板。接近传感器416用于采集用户与电子设备300的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与电子设备300的正面之间的距离逐渐变小时,由处理器301控制触摸显示屏305从亮屏状态切换为息屏状态;当接近传感器416检测到用户与电子设备300的正面之间的距离逐渐变大时,由处理器301控制触摸显示屏305从息屏状态切换为亮屏状态。170.本领域技术人员可以理解,图6中示出的结构并不构成对电子设备300的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。171.在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器304,上述指令可由电子设备300的处理器420执行以完成上述基于清洁机器人的运行方法,该方法包括:获取运行指令,确定清洁机器人当前所处的第一区域标识;基于所述第一区域标识,确定第一运行模式,所述运行模式用于表征所述清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;确定所述清洁机器人在所述第一区域下以所述第一运行模式下运行。可选地,上述指令还可以由电子设备300的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是rom、随机存取存储器(ram)、cd-rom、磁带、软盘和光数据存储设备等。172.在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备300的处理器420执行,以完成上述基于清洁机器人的运行方法,该方法包括:获取运行指令,确定清洁机器人当前所处的第一区域标识;基于所述第一区域标识,确定第一运行模式,所述运行模式用于表征所述清洁机器人的清洁时长、清洁力度以及清洁方式的至少一种;确定所述清洁机器人在所述第一区域下以所述第一运行模式下运行。可选地,上述指令还可以由电子设备300的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。173.本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本技术的其它实施方案。本技术旨在涵盖本技术的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本技术的一般性原理并包括本技术未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本技术的真正范围和精神由下面的权利要求指出。174.应当理解的是,本技术并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本技术的范围仅由所附的权利要求来限制。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部