发布信息

一种应用于车联网的多层中心异步联邦学习方法

作者:admin      2022-07-30 19:00:15     625



电子通信装置的制造及其应用技术1.本发明涉及深度学习领域,具体涉及一种应用于车联网的多层中心异步联邦学习方法。背景技术:2.云计算、边缘计算、物联网、5g等技术的发展为车联网的实地应用奠定了基础,同时,全球道路车辆的数量持续增长为车联网的应用提供了平台,车联网的实地应用与普及对于构建智慧交通、智慧城市具有重要的意义。在车载网络中,由于计算资源以及网络带宽资源的限制,使得车辆利用并处理海量数据,来改善车辆的出行交通预测及自动驾驶等服务的服务质量成为一个挑战。3.在车载网络中,利用ai技术可以更有效地处理和共享车辆行驶过程中产生的海量数据。边缘计算可以有效解决资源受限的问题,人工智能算法则使边缘节点能够处理和分析多样化的数据并进行分类和预测等。然而在车联网这种边缘计算场景下的边缘节点上,进行分布式机器学习仍然是一个具有挑战性的任务。每个车辆单元拥有的数据天然形成独立的数据孤岛,传统机器学习需要首先进行数据融合,但这会直接暴露各个车辆用户的隐私信息,同时资源的限制也是面临的一个主要问题。也就是说存在两个问题无法折中:4.传统的通过加密以及构建信任模型的手段进行数据共享的方案,由于计算资源以及网络带宽资源的限制,使得车辆的服务质量收到限制;5.ai技术的引入以共享模型的方式代替共享数据,极大地减小了资源传输的网络带宽,但各个车辆拥有的数据形成了一个个数据孤岛,传统的机器学习中需要数据的集中。而收集数据的过程就会带来车辆自身数据安全和隐私泄漏的风险。技术实现要素:6.针对现有技术中的上述不足,本发明提供了一种应用于车联网的多层中心异步联邦学习方法。7.为了达到上述发明目的,本发明采用的技术方案为:8.一种应用于车联网的多层中心异步联邦学习方法,包括如下步骤:9.s1、构建基于异步联邦学习的车联网模型,在每一轮训练过程中,每个车辆参与方根据自身获取的数据运行梯度下降算法得到本地模型;10.s2、由每个车辆参与方将得到的本地模型上传至该车被覆盖范围内的边缘服务器,并由边缘服务器异步接收各车辆参与方上传的本地模型,聚合后得到新的模型;11.s3、由边缘服务器将s2得到的新的模型上传至云服务器,由云服务器异步接收后进行聚合,并将聚合后的模型下发至各边缘服务器或经车辆参与方请求后发送至车辆参与方。12.进一步的,所述s1具体包括:13.s11、初始化全局模型m0及初始时间戳并下发给空闲车辆vi,在第i轮交互中,空闲车辆vi主动向边缘服务器ej发送训练请求;14.s12、判断当前轮次车辆参与方的数量是否小于当前轮次中参与聚合的车辆参与方的数量n·c,其中c为比例系数,则通过边缘服务器ej向空闲车辆vi响应最新的全局模型mi-1,并更新vi的本轮次本地模型15.s13、随机抽取车辆参与方的本地数据集中的多个数据作为当前轮次交互的训练集16.s14、利用梯度下降算法进行迭代,得到空闲车辆vi本轮次的本地训练模型17.s15、将本轮次的本地训练模型上传至边缘服务器ej,并由边缘服务器根据本地训练模型的上传时间记录边缘服务器接收时间戳根据接受时间戳和初始时间戳计算时间差同时计算本轮次车辆参与方上传的本地模型的平均平方误差。18.进一步的,所述s15中梯度下降算法表示为:[0019][0020]其中,和分别表示在第i轮交互过程中第k次和第k-1次本地训练中模型的更新参数,ζk,k-1表示第k次训练中的学习率,表示在对模型参数进行更新时从抽取的数据集中的第k个训练集,l(m,x(d))表示对数据集进行训练时关于模型参数m的损失函数,是关于m的一阶导数,x(d)表示数据集dn中的数据。[0021]进一步的,所述s15中平均平方误差计算公式为:[0022][0023]其中,mse为平均平方误差,yi为第i轮本地模型的输出,xi为第i轮本地模型的输入,n表示满负载下最大支持的参与训练的车辆参与方的数量。[0024]进一步的,所述s2具体包括:[0025]s21、初始化缓存因子ρ∈(0,1),接收车辆参与方上传的当前轮次的轮次的本地训练模型以及时间戳tk;[0026]s22、判断边缘服务器缓存队列长度是否小于n·ρ,若是,则将本地训练模型放入缓存度列中;若不是,则边缘服务器缓存队列中的所有元素并清除缓存队列,根据模型聚合加权权重对各车辆参与方上传的本地模型进行权重分配,并更新全局模型;[0027]s23、将步骤s22中更新的全局模型上传至中心服务器进行云同步。[0028]进一步的,所述s22中根据模型聚合加权权重对各车辆参与方上传的本地模型进行权重分配的具体计算方式为:[0029][0030]其中,为聚合时各车辆参与方上传的本地模型由于时间戳不同而影响的权重,为聚合时各车辆参与方上传的本地模型由于性能差异而影响的权重,γi为最终的权重分配,α为权重参数。[0031]进一步的,所述s22中更新全局模型的计算方式为:[0032][0033]其中,m(i+1)与m(i)表示的第i轮到第i+1轮的参数的聚合,mj表示第i轮参数聚合中边缘服务器接收的第j个更新的模型参数。[0034]进一步的,所述s3具体包括:[0035]s31、初始化中心服务器缓存队列的容量上限cap和最大等待周期t,接收边缘服务器聚合后的模型并进入缓存队列等到聚合;[0036]s32、判断中心服务器缓存队列中模型数量是否触及容量上限cap或是等待间隔时间是否到达最大等待周期t,若不是则继续放入模型并执行等待;[0037]s33、若中心服务器缓存队列溢出或等待时间间隔超过最大等待周期,则提取缓存队列中的所有模型并清空中心服务器缓存队列,根据模型聚合加权权重对各边缘服务器上传的本地模型进行权重分配,并根据平均平方误差更新全局模型。[0038]进一步的,所述s33中根据平均平方误差更新全局模型的计算方式为:[0039][0040]其中,γp为根据边缘服务器上传的模型的mse分配的聚合权重,m(i+1)与m(i)表示的第i轮到第i+1轮的参数的聚合,mj表示第i轮参数聚合中中心服务器接收的第j个更新的模型参数。[0041]本发明具有以下有益效果:[0042]1、数据共享的准确性:本发明利用ai技术,以共享数据模型来代替数据的直接传输,需要能够还原原始数据保有的信息量。相比于数据的直接传输(包括加密传输),共享数据模型的方式完成了对原始数据的筛选和分析的工作,直接进行预测等形式的结果输出,能实现更加精确的数据应用。[0043]2、隐私保护:本发明由于全程不涉及各个车辆自身数据的直接共享,规避了在数据传输过程中或是接受方造成的隐私泄露的问题。[0044]3、全局的数据共享:本发明考虑车辆节点、边缘计算服务器和中心的云服务器。对计算能力强或薄弱的车辆都能激励参与整个模型的训练,对车辆的覆盖范围广,并不仅仅局限某一区域内的车辆数据共享。附图说明[0045]图1为本发明应用于车联网的多层中心异步联邦学习方法流程示意图。[0046]图2为本发明实施例面向车联网的多层中心联邦学习模型示意图。[0047]图3本发明实施例异步联邦学习模型结构示意图。[0048]图4为本发明实施例异步联邦学习中各个节点间通信示例图。[0049]图5为本发明实施例车辆参与模型训练请求及上传策略示意图。[0050]图6为本发明实施例中心服务器通信示意图。具体实施方式[0051]下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。[0052]一种应用于车联网的多层中心异步联邦学习方法,如图1所示,包括如下步骤:[0053]s1、构建基于异步联邦学习的车联网模型,在每一轮训练过程中,每个车辆参与方根据自身获取的数据运行梯度下降算法得到本地模型;[0054]如图2所示,整个车联网由云服务器,移动边缘计算(边缘计算)服务器以及车辆组成。其中车联网内的每一辆车包含车载单元(obu),具备数据获取和感知能力,同时都具备一定的计算和存储能力,但每辆车的算力及存储能力存在差异。边缘计算服务器的计算与存储能力相比车辆更为强大,能执行更大任务量的计算和缓存。边缘计算服务器通过路旁单元直接与路旁单元覆盖的车辆进行通信,通过上行链路与云服务器直接通信。云服务器在车联网中拥有最为强大的计算和存储能力,可以执行大量的计算和缓存任务,在网络拓扑中,和车辆的逻辑距离较远。参与联邦学习框架中的车辆在处理或计算任务(如训练一个机器学习的回归模型)时,通过自身的独立训练与联邦协作来共同完成计算与训练。[0055]在每一轮训练过程中,每个车辆参与方首先根据自身获取的相关数据运行梯度下降算法得到一个本地模型。对于车联网中的单个车辆而言,有三种网络通信信道:车辆对车辆(v-v)、车辆对rsu(v-r)和车辆对云服务器(v-c)。之后车辆将模型上传给该车辆被覆盖范围内的路侧单元的边缘计算服务器,边缘计算服务器异步接收各个车辆上传的模型,进行一轮聚合后可获得一个新的模型。该模型将继续上传给逻辑与物理位置上更中心的云服务器,同时该模型可在车辆参与方进行请求后发送给车辆。云服务器将异步接收的来自各边缘计算服务器的模型,在进行聚合之后下发给各个边缘计算服务器,同时也可以在车辆参与方进行请求后发送给车辆。此外,联邦学习中的车辆的自身原始数据都只会保留在本地进行训练以及其他数据分析,可以保证用户信息隐私的保护。图3展示了本章提出的车联网场景下的多层中心异构联邦学习框架,整个框架包括“参与方独立训练”、“参与方参数更新”以及“收敛速度提升”三个模块[0056]联邦学习是边缘计算中实现数据分析及共享的一种新方案。本技术提出的联邦学习方案主要面向车载网络中数据安全共享的场景。在数据共享中,所有车辆用户通过对相关数据进行联邦学习算法写作的训练一个全局数据模型,以共享数据模型的方式替代共享原始数据。数据模型中包含请求数据的有效信息的同时保护了数据拥有者的隐私。鉴于联邦学习自身的优点,将联邦学习应用于车联网中,从而实现数据共享相关的训练任务。[0057]将联邦学习应用于车联网数据安全共享中的相关计算任务,从而兼顾数据的高效共享与隐私保护问题。云服务器表示为c,路旁单元的集合表示为r={r1,r2,…,rn},车辆参与方的集合表示为v={v1,v2,…,vn}。每个车辆参与方vi拥有一个本地数据集di={(x1,y1),(x2,y2),…,(xn,yn)},其中xi是训练的模型的输入,yi是模型的输出(即xi的标签)。di作为一个车辆参与方的本地数据集,是包括所有车辆参与方及边缘计算服务器保有的数据集在内的整个数据集d={d1∪d2∪…∪dn}的子集。[0058]差别于传统统一数据集进行训练的学习框架,联邦学习包括多次车辆参与方与边缘计算服务器及云服务器的通信过程,并且通信次数对模型的收敛速度影响很大。如图4所示,展示了单次参数更新中车辆参与方与移动边缘服务器、云服务器的通信过程。其中,(i)表示各个车辆参与方在车辆自身进行本地模型训练的过程,(ii)表示参数上传阶段,包括车辆参与方在经过多轮本地训练之后将模型发送给边缘计算服务器,边缘计算服务器对收集到的模型进行聚合,再上传给更加中心的云服务器,(iii)表示参数下发阶段,包括云服务器对边缘计算服务器上传的模型进行聚合,广播聚合后的模型给各边缘计算服务器,以及响应车辆参与方直接对云服务器对模型的请求。下面以训练过程中某一轮通信过程为示例,详细阐述车辆参与方本地训练与各个节点参数更新的过程,具体包括如下步骤:[0059]s11、初始化全局模型m0,在第i轮交互中,空闲车辆vi主动向边缘服务器ej发送训练请求;[0060]如图5所示,车辆vk在驶入边缘计算服务器ej的覆盖范围内时,有算力剩余可参与训练。此时,车辆vk向ej主动发送训练请求,ej接收到请求后进行响应,即发送初始模型若经过时间t1,t1是一个泛指,没有特别的含义,用于后面表示用。车辆vk完成局部模型的训练。此时,车辆vk同时位于边缘计算服务器ej和ej+1的覆盖范围内。由于在本轮训练中vk是从ej获取的初始模型,因此将优先上传更新模型至ej。且车辆vk与ej之间构建的是可靠通信连接,若vk未确认ej已接收到模型将重新发送。重复上传ej不成功时,将上传更新模型至ej+1。若经过时间t1+2,车辆vk完成局部模型的训练。此时车辆vk已完全驶离e1的覆盖范围而进入ej+1的覆盖范围,车辆vk将上传更新模型至ej+1,由ej+1完成更新模型的聚合。[0061]s12、判断当前轮次车辆参与方的数量是否小于当前轮次中参与聚合的车辆参与方的数量n·c,其中c为比例系数,则通过边缘服务器ej向空闲车辆vi响应最新的全局模型mi-1,并更新vi的本轮次本地模型[0062]s13、随机抽取车辆参与方的本地数据集中的多个数据作为当前轮次交互的训练集[0063]空闲车辆向周围边缘计算服务器主动发送训练请求,获取初始模型后,车辆vk即根据本地数据集进行局部模型的训练,记车辆vk的本地数据集为dn。在车辆的移动过程中,其自身的传感器会实时感知和收集相关数据,并更新本地数据集dn。在每一次本地训练中,随机抽取t个不同批次的数据集,记为统称为这t个数据集具备一致的数据分布,相似的数据数量。根据这t个数据集完成车辆单元vk第i轮交互的本地模型训练。[0064]s14、利用梯度下降算法进行迭代,得到空闲车辆vi本轮次的本地训练模型并记录当前时间戳ti;[0065]模型参数的优化一般以最小化目标函数的方式进行,此处为最小化损失函数得到优化结果,本章中优化算法采用随机梯度下降(stochastic gradient descent,sgd),第i轮本地模型更新后可数学表示为:[0066][0067]其中,和分别表示在第i轮交互过程中第k次和第k-1次本地训练中模型的更新参数,数学上表示为向量或是张量,ζk,k-1表示第k轮训练中的学习率,表示在对模型参数进行更新时,从抽取的数据集中的第k个训练集,l(m,x(d))表示对数据集进行训练时关于模型参数m的损失函数。x(d)表示数据集dn中的数据。为了保证训练效果,每一轮次中随机选取的数据集大小需固定,即设的大小为定值nm。在各个车辆参与方的局部模型训练完成后,需要记录训练完成时刻的时间戳,同时需要向服务器提供自身模型的性能指标。在异步更新的策略中,各个局部模型的时间戳不同以及性能差异将直接影响中心聚合的权重分配。[0068]s15、将本轮次的本地训练模型上传至边缘服务器ej,并由边缘服务器根据本地训练模型的上传时间记录边缘服务器接收时间戳根据接受时间戳和初始时间戳计算时间差同时计算本轮次车辆参与方上传的本地模型的平均平方误差。[0069]性能差异体现在当前轮次训练的数据集上,以平均平方误差(mse)表示,即l2范数损失,表示为:[0070][0071]本实施例里,mse越小即代表模型的质量越好。[0072]s2、由每个车辆参与方将得到的本地模型上传至该车被覆盖范围内的边缘服务器,并由边缘服务器异步接收各车辆参与方上传的本地模型,聚合后得到新的模型;[0073]如图4所示,在车联网场景下,考虑到边缘计算服务器的覆盖范围有限,车辆的移动性,以及通信原因导致掉线的情况。在每一轮训练中,会存在诸多现实场景的情况如下,参与训练的车辆驶出当前边缘计算服务器的范围,新的车辆驶入并发送训练请求,正在参与训练的车辆由于通信等原因掉线等。为缓解上述问题,本实施例采用如下方式进行边缘服务器中的聚合。[0074]s21、初始化缓存因子ρ∈(0,1),接收车辆参与方上传的当前轮次的轮次的本地训练模型以及时间戳tk;[0075]在边缘计算服务器中设置缓冲队列q,并通过缓存因子ρ来控制q的容量,即有容量大小上限为n·ρ。每接收到从车辆参与方发送的模型时,都会进入缓存队列等待聚合。[0076]s22、判断边缘服务器缓存队列长度是否小于n·ρ,若是,则将本地训练模型放入缓存度列中;若不是,则边缘服务器缓存队列中的所有元素并清除缓存队列,根据模型聚合加权权重对各车辆参与方上传的本地模型进行权重分配,并更新全局模型;[0077]检测缓存队列的实时长度len是否大于等于n·ρ,若是,则会获取q中的数据开始聚合并清空q。车辆发送更新的模型的同时,要求同时携带本地模型更新的时间戳和性能指标。在服务器进行聚合时,模型的时间戳将影响其聚合的权重,表示为:[0078][0079]其中,t1,t2,…,tnρ表示模型对应的时间戳(注:本场景下模型按照时间的先后一次入队),为聚合时各个局部模型由于时间戳不同而影响的权重。另外,在每一轮迭代过程中,服务器接收到的各个模型之间存在性能的差异。对于性能表现不同的模型,仅考虑时间不同而分配不同的权重是不公平的。同时为了加速模型的收敛,需要在为不同模型分配权重时考虑性能差异导致的影响。对于训练过程中存在恶意的参与方的情况,根据性能分配不同权重可有效降低恶意模型破坏训练的概率,表示为:[0080][0081]其中,表示聚合时各个局部模型由于性能差异而影响的权重,msei即各个局部模型的性能的量化表示,sum的含义为[0082][0083]sum为各个局部模型的性能量化的倒数和,以mse表征模型的性能时,mse越小,模型的结果与数据集标签的表征差异越小,模型的质量即越好。在聚合过程中,质量越好的模型将被分配越高的权重,因此,按照局部模型的mse的倒数关系进行加权。局部模型的最后权重分配如[0084][0085]式中,以α来动态调整时间戳及性能表现,对各个局部模型的最终权重的分配。[0086]s23、将步骤s22中更新的全局模型上传至中心服务器进行云同步。[0087]聚合过程的数值表示为[0088][0089]其中,m(i+1)与m(i)表示的第i轮到第i+1轮的参数的聚合,其中mj表示第i轮参数聚合中,边缘计算服务器接收的第j个更新的模型参数。每一轮更新完成后,边缘计算服务器将模型发送至中心服务器。[0090]s3、由边缘服务器将s2得到的新的模型上传至云服务器,由云服务器异步接收后进行聚合,并将聚合后的模型下发至各边缘服务器或经车辆参与方请求后发送至车辆参与方。[0091]如图4所示,不同的边缘计算服务器由于下属车辆参与方的差异,它们之间每一轮的模型聚合更新也是异步的关系。边缘计算服务器之间的连接媒介即中心云服务器。为了保证车辆向边缘计算服务器进行训练请求时,获得的是最新的训练模型,以加快收敛速度。需要中心云服务器对各个边缘计算服务器聚合更新的模型进行再次聚合并同步。此外,部分道路场景中,由于环境的限制,边缘计算服务器的布置或自身功能受限。具备剩余算力的车辆想要参与联邦学习训练时,需要跳过边缘计算服务器,直接向中心服务器发送训练请求。本实施例里,在中心服务器中对边缘计算服务器上传模型的聚合同步示意图如图6所示,具体包括如下步骤:[0092]s31、初始化中心服务器缓存队列的容量上限cap和最大等待周期t,接收边缘服务器聚合后的模型并进入缓存队列等到聚合;[0093]中心服务器随时间的推进不断接收自边缘计算服务器聚合的模型由于接收的过程是异步的关系,同边缘计算服务器一样,先进入缓存队列q等待聚合。[0094]s32、判断中心服务器缓存队列中模型数量是否触及容量上限cap或是等待间隔时间是否到达最大等待周期t,若不是则继续放入模型并执行等待;[0095]在收敛之前会一直等待及执行接收模型及训练请求,模型聚合及下发等操作。q中模型的数量触及容量cap时会执行聚合,同时q自身进行清空以存储新接收的模型。[0096]s33、若中心服务器缓存队列溢出或等待时间间隔超过最大等待周期,则提取缓存队列中的所有模型并清空中心服务器缓存队列,根据模型聚合加权权重对各边缘服务器上传的本地模型进行权重分配,并根据平均平方误差更新全局模型。[0097]由于vk上传更新模型到ei,以及ei再次上传聚合模型到c,会存在两次延迟。只考虑缓存队列溢出时才执行聚合操作的话,中心服务器会长时间不执行聚合操作,各个节点无法得到整个联邦学习过程中的最新模型,导致收敛速度减慢。因此,在中心服务器中初始化参数t,即最大等待周期,用来限制每一轮聚合之前服务器的等待时间。在q溢出或等待时间间隔t达到t时,都会开始执行聚合操作。在中心服务器的聚合中,不再考虑因为接收模型的时间差异而影响加权权重,而仅以各自的性能来决定模型聚合的权重。[0098]以mse作为模型性能的量化指标,边缘计算服务器在每一轮聚合更新之后,将根据自身数据集计算模型的mse,一并上传至中心服务器。本算法中,考虑到在中心服务器中接收的模型仅取自于边缘计算服务器,会直接信任模型的mse的真实性,因此,各个模型的聚合表示为:[0099][0100]其中,γp为根据各个模型的mse分配的聚合权重。中心服务器完成聚合更新之后,新的模型mc将下发给所有边缘计算服务器,以实现对整个框架中对于最新训练模型的同步。[0101]本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。[0102]这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。[0103]这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。[0104]本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。[0105]本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部