发布信息

一种神经网络模型的异构加速方法、装置、设备及介质与流程 专利技术说明

作者:admin      2023-07-26 11:20:38     500



计算;推算;计数设备的制造及其应用技术1.本发明涉及异构加速领域,特别涉及一种神经网络模型的异构加速方法、装置、设备及介质。背景技术:2.随着硬件技术的不断发展与创新,深度学习技术重新焕发生机,其中nns(neural networks,神经网络)作为一种连接模型已经在图像分类、自然语言处理以及目标快速检测任务上取得不错的效果。而随着nns的层数、神经元数量的不断增长,针对大型模型的训练,cpu(central processing unit,中央处理器)和gpu(graphics processing unit,图形处理器)这些传统的软硬件体系结构已经很难在训练效率与硬件资源、能耗之间做到平衡,同时仅以软件优化作为加速nns的手段也已经不能满足日益增长的速度和能耗要求。技术实现要素:3.有鉴于此,本发明的目的在于提供一种神经网络模型的异构加速方法、装置、设备及介质,能够根据模型层数选择不同的加速模式,并通过数据异构加速节点快速完成数据的格式转换,从而通过各种异构加速节点协同工作,提升模型训练效率。其具体方案如下:第一方面,本技术提供了一种神经网络模型的异构加速方法,应用于主异构加速节点,包括:在获取到神经网络模型训练任务后,将训练数据迁移至数据异构加速节点,以便所述数据异构加速节点对所述训练数据进行格式转换,得到统一格式的特征数据,并将所述特征数据返回至所述主异构加速节点;基于神经网络模型层数确定目标加速模式,并确定与所述目标加速模式对应的目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果;利用本地的cpu对所述最终运算结果进行全连接处理,以得到训练好的神经网络模型。4.可选的,所述将训练数据迁移至数据异构加速节点,包括:通过本地的cpu对训练数据进行缓存,并通过xdma将缓存的所述训练数据迁移至数据异构加速节点。5.可选的,所述基于神经网络模型层数确定目标加速模式,并确定与所述目标加速模式对应的目标异构加速节点,包括:基于神经网络模型层数确定目标加速模式;若所述目标加速模式为独立加速模式,则将自身确定为与所述目标加速模式对应的目标异构加速节点。6.可选的,所述通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果,包括:基于所述特征数据对神经网络模型中的预设层运算进行串行处理,并将生成的中间运算结果缓存至本地的局部内存中,以及在完成所有所述预设层运算后基于所述中间运算结果生成最终运算结果。7.可选的,所述基于神经网络模型层数确定目标加速模式,并确定与所述目标加速模式对应的目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,包括:基于神经网络模型层数确定目标加速模式;若所述目标加速模式为混合加速模式,则对所述神经网络模型训练任务进行解耦得到任务计划表,并将与所述任务计划表中的子任务对应的分支异构加速节点确定为目标异构加速节点,然后将与所述子任务对应的所述特征数据迁移至所述目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果。8.可选的,所述通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果,包括:若所述任务计划表中子任务的数量为一个,则通过所述目标异构加速节点并基于所述特征数据进行神经网络模型中相应的预设层运算,并将生成的中间运算结果存储至本地,以及基于所述中间运算结果进行迭代运算生成最终运算结果,然后通过xdma将所述最终运算结果返回至所述主异构加速节点的cpu中。9.可选的,所述通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果,包括:若所述任务计划表中子任务的数量为多个,则通过与第一个子任务对应的所述目标异构加速节点并基于相应的所述特征数据进行神经网络模型中相应的预设层运算以得到当前中间运算结果;通过xdma将所述当前中间运算结果转发至与下一个子任务对应的所述目标异构加速节点,以便与所述下一个子任务对应的所述目标异构加速节点基于相应的所述特征数据和所述当前中间运算结果进行神经网络模型中相应的预设层运算以得到新的当前中间运算结果,然后重新跳转至所述通过xdma将所述当前中间运算结果转发至与下一个子任务对应的所述目标异构加速节点的步骤,直至所述下一个子任务为最后一个子任务,以得到最终运算结果,以及通过xdma将所述最终运算结果返回至所述主异构加速节点的cpu中。10.第二方面,本技术提供了一种神经网络模型的异构加速装置,应用于主异构加速节点,包括:训练数据迁移模块,用于在获取到神经网络模型训练任务后,将训练数据迁移至数据异构加速节点,以便所述数据异构加速节点对所述训练数据进行格式转换,得到统一格式的特征数据,并将所述特征数据返回至所述主异构加速节点;加速模式确定模块,用于基于神经网络模型层数确定目标加速模式,并确定与所述目标加速模式对应的目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果;结果全连接模块,用于利用本地的cpu对所述最终运算结果进行全连接处理,以得到训练好的神经网络模型。11.第三方面,本技术提供了一种电子设备,包括:存储器,用于保存计算机程序;处理器,用于执行所述计算机程序以实现前述的神经网络模型的异构加速方法。12.第四方面,本技术提供了一种计算机可读存储介质,用于保存计算机程序,所述计算机程序被处理器执行时实现前述的神经网络模型的异构加速方法。13.本技术中,主异构加速节点在获取到神经网络模型训练任务后,将训练数据迁移至数据异构加速节点,以便所述数据异构加速节点对所述训练数据进行格式转换,得到统一格式的特征数据,并将所述特征数据返回至所述主异构加速节点;基于神经网络模型层数确定目标加速模式,并确定与所述目标加速模式对应的目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果;利用本地的cpu对所述最终运算结果进行全连接处理,以得到训练好的神经网络模型。由此可见,本技术将神经网络模型的训练过程卸载到异构加速节点,通过各异构加速节点分布式协同工作,提升模型训练效率;并且,本技术通过独立的数据异构加速节点快速完成对训练数据的格式转换,减少主异构加速节点的工作量,以及实现对资源的合理分配;另外,本技术根据神经网络模型的层数选择不同的加速模式,以通过与不同的加速模式对应的不同的目标异构加速节点进行神经网络模型的运算,从而更好地实现对资源的合理利用。附图说明14.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。15.图1为本技术公开的一种神经网络模型的异构加速方法流程图;图2为本技术公开的一种神经网络模型的异构加速流程图;图3为本技术公开的一种具体的神经网络模型的异构加速方法流程图;图4为本技术公开的一种独立加速模式下的神经网络模型的异构加速流程图;图5为本技术公开的一种混合加速模式下的神经网络模型的异构加速流程图;图6为本技术公开的一种神经网络模型的异构加速装置结构示意图;图7为本技术公开的一种电子设备结构图。具体实施方式16.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。17.目前,随着nns的层数、神经元数量的不断增长,针对大型模型的训练,cpu和gpu这些传统的软硬件体系结构已经很难在训练效率与硬件资源、能耗之间做到平衡,同时仅以软件优化作为加速nns的手段也已经不能满足日益增长的速度和能耗要求。为此,本技术提供了一种神经网络模型的异构加速方法,根据神经网络模型的层数选择不同的加速模式,并通过独立的数据异构加速节点快速完成数据的格式转换,从而通过各种异构加速节点协同工作,提升模型训练效率。18.参见图1所示,本发明实施例公开了一种神经网络模型的异构加速方法,应用于主异构加速节点,包括:步骤s11、在获取到神经网络模型训练任务后,将训练数据迁移至数据异构加速节点,以便所述数据异构加速节点对所述训练数据进行格式转换,得到统一格式的特征数据,并将所述特征数据返回至所述主异构加速节点。19.本实施例中,所述将训练数据迁移至数据异构加速节点,可以包括通过本地的cpu对训练数据进行缓存,并通过xdma将缓存的所述训练数据迁移至数据异构加速节点。可以理解的是,如图2所示,当主异构加速节点接收到神经网络模型训练任务之后,先利用本地的cpu对训练数据进行缓存,由于训练数据存在不同的数据格式,例如图像、语音等均存在不同的数据格式,特别是图像这种三维数据,首先要做的就是通过xdma(direct memory access,直接内存访问)通道将缓存的训练数据派遣到下一级的数据异构加速节点,以通过独立的数据异构加速节点对训练数据进行格式转换处理,形成统一格式的特征数据,然后再将统一格式的训练数据返回至主异构加速节点进行缓存。这样一来,本实施例通过利用独立的数据异构加速节点对训练数据进行格式转换,减少主异构加速节点的工作量,控制资源消耗,实现对资源的合理分配。20.步骤s12、基于神经网络模型层数确定目标加速模式,并确定与所述目标加速模式对应的目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果。21.本实施例中,根据神经网络模型的层数确定不同的加速模式,也即根据神经网络模型的大小确定不同的加速模式,并且不同的加速模式对应不同的目标异构加速节点。如图2所示,针对神经网络模型层数少,也即小型神经网络模型,选择独立加速模式,对应的目标异构加速节点即为主异构加速节点,由主异构加速节点中的fpga(field programmable gate array,现场可编程逻辑门阵列)基于特征数据进行神经网络模型中的预设层运算,并基于生成的中间运算结果确定最终运算结果。针对神经网络模型层数多,也即大型神经网络模型,选择混合加速模式,对应的目标异构加速节点即为分支异构加速节点,由分支异构加速节点分别基于相应的特征数据独立完成神经网络模型中相应的预设层运算,并基于生成的中间运算结果确定最终运算结果。其中,分支异构加速节点包括图2中的a层加速节点、b层加速节点、c层加速节点、…、n层加速节点;预设层运算包括但不限于整形、卷积、激活、池化,也可以为其中的一种或任意几种的组合,在此不作限定。22.步骤s13、利用本地的cpu对所述最终运算结果进行全连接处理,以得到训练好的神经网络模型。23.本实施例中,如图2所示,无论是独立加速模式还是混合加速模式,最终都会由主异构加速节点利用本地的cpu对最终运算结果进行全连接处理,以得到训练好的神经网络模型,其中,最终运算结果存储在主异构加速节点的全局内存中。24.本实施例中,以应用于目标行为检测场景为例,将目标行为检测模型的训练过程卸载到各异构加速节点,其中,目标行为包括但不限于开合跳、深蹲、仰卧起坐等运动行为。在主异构加速节点接收到目标行为检测模型的训练任务之后,利用本地的cpu对基于若干特定行为姿态数据构建的图像训练数据集进行缓存。由于图像训练数据集中的图像数据存在不同的数据格式,因此通过xdma通道将缓存的图像训练数据集迁移至独立的数据异构加速节点,以便数据异构加速节点对接收到的图像训练数据集中的所有图像训练数据进行格式转换处理,以统一图像训练数据的像素大小,从而得到统一像素大小的图像训练数据集,并返回至主异构加速节点。然后主异构加速节点基于目标行为检测模型的层数确定对应的目标加速模式,以及与目标加速模式对应的目标异构加速节点,以便通过目标异构加速节点并基于统一像素大小的图像训练数据集进行整形、卷积、激活、池化等运算,并基于运算过程中生成的中间运算结果生成最终运算结果。最后由主异构加速节点的cpu对最终运算结果进行全连接处理,得到最终训练好的目标行为检测模型,从而利用训练好的目标行为检测模型对特定的行为姿态进行检测。25.由此可见,本技术将神经网络模型的训练过程卸载到异构加速节点,通过各异构加速节点分布式协同工作,提升模型训练效率;并且,本技术通过独立的数据异构加速节点快速完成对训练数据的格式转换,减少主异构加速节点的工作量,以及实现对资源的合理分配;另外,本技术根据神经网络模型的层数选择不同的加速模式,以通过与不同的加速模式对应的不同的目标异构加速节点进行神经网络模型的运算,从而更好地实现对资源的合理利用。26.基于前一实施例可知,本技术描述了神经网络模型的异构加速的整体过程,接下来,本技术将对如何确定目标加速模式,以及如何通过与目标加速模式对应的目标异构加速节点进行神经网络模型中的预设层运算进行详细阐述。参见图3所示,本发明实施例公开了一种神经网络模型的异构加速过程,应用于主异构加速节点,包括:步骤s21、基于神经网络模型层数确定目标加速模式。27.步骤s22、若所述目标加速模式为独立加速模式,则将自身确定为与所述目标加速模式对应的目标异构加速节点。28.本实施例中,根据神经网络模型的层数选择对应的目标加速模式,也即根据神经网络模型的大小选择对应的目标加速模式,若神经网络模型的层数少,也即该神经网络模型为小型神经网络模型,则目标加速模式为独立加速模式,与独立加速模式对应的目标异构加速节点即为主异构加速节点自身。29.步骤s23、基于所述特征数据对神经网络模型中的预设层运算进行串行处理,并将生成的中间运算结果缓存至本地的局部内存中,以及在完成所有所述预设层运算后基于所述中间运算结果生成最终运算结果。30.本实施例中,如图4所示,在主异构加速节点获取到数据异构加速节点返回的统一格式的特征数据之后,基于神经网络模型层数确定出目标加速模式即为独立加速模式,以及与目标加速模式对应的目标异构加速节点即为主异构加速节点自身。具体的,主异构加速节点根据神经网络模型训练任务确定出需要执行的神经网络模型中的预设层运算,例如预设层为整型层、卷积层、激活层和池化层,通过axi-st(advanced extensible interface,总线协议)协议将整型层、卷积层、激活层和池化层连接起来,形成串行流水的处理机制,从而基于特征数据依次执行整型、卷积、激活和池化运算,并将产生的中间运算结果存储在本地的局部内存中,以及将基于中间运算结果生成的最终运算结果存储在本地的全局内存中。最后利用主异构加速节点中的cpu对最终运算结果进行全连接处理,即可得到训练好的神经网络模型。31.本实施例中,除了独立加速模式之外,还存在混合加速模式,具体的,基于神经网络模型层数确定目标加速模式;若所述目标加速模式为混合加速模式,则对所述神经网络模型训练任务进行解耦得到任务计划表,并将与所述任务计划表中的子任务对应的分支异构加速节点确定为目标异构加速节点,然后将与所述子任务对应的所述特征数据迁移至所述目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果。可以理解的是,如图5所示,在主异构加速节点获取到数据异构加速节点返回的统一格式的特征数据之后,根据神经网络模型的层数选择对应的目标加速模式,若神经网络模型的层数多,也即该神经网络模型为大型神经网络模型,则目标加速模式为混合加速模式。然后主异构加速节点对神经网络模型训练任务进行解耦,得到包含子任务的任务计划表,进而从a层加速节点、b层加速节点、c层加速节点、…、n层加速节点这些分支异构加速节点中确定出与任务计划表中的子任务对应的分支异构加速节点并将其作为目标异构加速节点,然后将与子任务对应的特征数据迁移至相应的目标异构加速节点,以便通过目标异构加速节点基于特征数据生成神经网络模型的中间运算结果。32.本实施例中,对于混合加速模式,所述通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果,可以包括若所述任务计划表中子任务的数量为一个,则通过所述目标异构加速节点并基于所述特征数据进行神经网络模型中相应的预设层运算,并将生成的中间运算结果存储至本地,以及基于所述中间运算结果进行迭代运算生成最终运算结果,然后通过xdma将所述最终运算结果返回至所述主异构加速节点的cpu中。可以理解的是,如图5所示,对于混合加速模式,在一种具体实施方式中,若解耦得到的任务计划表中的子任务数量为一个,例如,该子任务为卷积任务,则通过与卷积任务对应的目标异构加速节点基于相应的特征数据进行卷积运算,并将生成的中间运算结果保存在本地,然后继续基于中间运算结果进行卷积的迭代运算,直至迭代结束,生成最终运算结果。在目标异构加速节点得到最终运算结果之后,通过xdma将最终运算结果返回至主异构加速节点,以便主异构加速节点中的cpu对最终运算结果进行全连接处理,以得到训练好的神经网络模型。33.本实施例中,对于混合加速模式,所述通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果,可以包括若所述任务计划表中子任务的数量为多个,则通过与第一个子任务对应的所述目标异构加速节点并基于相应的所述特征数据进行神经网络模型中相应的预设层运算以得到当前中间运算结果;通过xdma将所述当前中间运算结果转发至与下一个子任务对应的所述目标异构加速节点,以便与所述下一个子任务对应的所述目标异构加速节点基于相应的所述特征数据和所述当前中间运算结果进行神经网络模型中相应的预设层运算以得到新的当前中间运算结果,然后重新跳转至所述通过xdma将所述当前中间运算结果转发至与下一个子任务对应的所述目标异构加速节点的步骤,直至所述下一个子任务为最后一个子任务,以得到最终运算结果,以及通过xdma将所述最终运算结果返回至所述主异构加速节点的cpu中。可以理解的是,如图5所示,对于混合加速模式,在另一种具体实施方式中,若解耦得到的任务计划表中的子任务数量为多个,例如,子任务包括整型任务、卷积任务、激活任务和池化任务,则通过与第一个子任务(整型任务)对应的目标异构加速节点并基于相应的特征数据进行整型运算,以得到当前中间运算结果,然后通过xdma将当前中间运算结果发送至与下一个子任务(卷积任务)对应的目标异构加速节点,以便与卷积任务对应的目标异构加速节点基于相应的特征数据和当前中间运算结果进行卷积运算,以得到新的当前中间运算结果,以此类推,直至下一个子任务为最后一个子任务(池化任务),从而得到最终运算结果,并通过xdma将最终运算结果返回至主异构加速节点,以便主异构加速节点中的cpu对最终运算结果进行全连接处理,以得到训练好的神经网络模型。34.由此可见,本技术通过根据神经网络模型的层数选择对应的目标加速模式,以利用与不同的目标加速模式对应的不同的目标异构加速节点执行神经网络模型中的预设层运算,也即,对于独立加速模式,选择主异构加速节点自身执行神经网络模型中的预设层运算;对于混合加速模式,选择分支异构加速节点执行神经网络模型中的预设层运算,这样一来,不仅可以控制主异构加速节点的能耗,实现对资源的合理分配和利用,而且可以提高对神经网络模型的训练效率。35.参见图6所示,本发明实施例公开了一种神经网络模型的异构加速装置,应用于主异构加速节点,包括:训练数据迁移模块11,用于在获取到神经网络模型训练任务后,将训练数据迁移至数据异构加速节点,以便所述数据异构加速节点对所述训练数据进行格式转换,得到统一格式的特征数据,并将所述特征数据返回至所述主异构加速节点;加速模式确定模块12,用于基于神经网络模型层数确定目标加速模式,并确定与所述目标加速模式对应的目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果,并基于所述中间运算结果确定最终运算结果;结果全连接模块13,用于利用本地的cpu对所述最终运算结果进行全连接处理,以得到训练好的神经网络模型。36.由此可见,本技术将神经网络模型的训练过程卸载到异构加速节点,通过各异构加速节点分布式协同工作,提升模型训练效率;并且,本技术通过独立的数据异构加速节点快速完成对训练数据的格式转换,减少主异构加速节点的工作量,以及实现对资源的合理分配;另外,本技术根据神经网络模型的层数选择不同的加速模式,以通过与不同的加速模式对应的不同的目标异构加速节点进行神经网络模型的运算,从而更好地实现对资源的合理利用。37.在一些具体实施例中,所述训练数据迁移模块11,具体可以包括:训练数据迁移单元,用于通过本地的cpu对训练数据进行缓存,并通过xdma将缓存的所述训练数据迁移至数据异构加速节点。38.在一些具体实施例中,所述加速模式确定模块12,具体可以包括:第一加速模式确定单元,用于基于神经网络模型层数确定目标加速模式;第一加速节点确定单元,用于若所述目标加速模式为独立加速模式,则将自身确定为与所述目标加速模式对应的目标异构加速节点。39.在一些具体实施例中,所述加速模式确定模块12,具体可以包括:运算结果生成单元,用于基于所述特征数据对神经网络模型中的预设层运算进行串行处理,并将生成的中间运算结果缓存至本地的局部内存中,以及在完成所有所述预设层运算后基于所述中间运算结果生成最终运算结果。40.在一些具体实施例中,所述加速模式确定模块12,具体可以包括:第二加速模式确定单元,用于基于神经网络模型层数确定目标加速模式;第二加速节点确定单元,用于若所述目标加速模式为混合加速模式,则对所述神经网络模型训练任务进行解耦得到任务计划表,并将与所述任务计划表中的子任务对应的分支异构加速节点确定为目标异构加速节点,然后将与所述子任务对应的所述特征数据迁移至所述目标异构加速节点,以便通过所述目标异构加速节点基于所述特征数据生成神经网络模型的中间运算结果。41.进一步的,本技术实施例还公开了一种电子设备,图7是根据一示例性实施例示出的电子设备20结构图,图中的内容不能认为是对本技术的使用范围的任何限制。42.图7为本技术实施例提供的一种电子设备20的结构示意图。该电子设备 20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的神经网络模型的异构加速方法中的相关步骤。另外,本实施例中的电子设备20具体可以为电子计算机。43.本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵 循的通信协议是能够适用于本技术技术方案的任意通信协议,在此不对其进 行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。44.另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、 磁盘或者光盘等,其上所存储的资源可以包括操作系统221、计算机程序222 等,存储方式可以是短暂存储或者永久存储。45.其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算 机程序222,其可以是windows server、netware、unix、linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的神经网络模型的异构加速方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。46.进一步的,本技术还公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的神经网络模型的异构加速方法。关于该方法的具体步骤可以参考前述实施例中公开的相应内容,在此不再进行赘述。47.本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。48.专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。49.结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。50.最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。51.以上对本技术所提供的技术方案进行了详细介绍,本文中应用了具体个例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思想;同时,对于本领域的一般技术人员,依据本技术的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本技术的限制。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部