发布信息

基于先验生成对抗网络的图像去雾方法及模型

作者:admin      2022-09-03 16:59:00     884



计算;推算;计数设备的制造及其应用技术1.本发明涉及计算机视觉与图像处理技术领域,具体涉及一种基于先验生成对抗网络的图像去雾方法及模型。背景技术:2.在雾或霾等天气情况下,室外空气中存在大量的微小悬浮颗粒会对光产生折射和散射,造成设备捕获的图像清晰度和对比度大幅度下降、色彩偏移,边缘轮廓模糊,重要信息被遮盖,在视觉上产生严重干扰,对图像进行去雾可以降低这些影响,并对下游各种计算机视觉任务进行优化。3.图像去雾的方法大体可以分为传统基于大气散射物理模型的方法和基于神经网络的方法。基于物理模型的去雾方法主要是依据大气散射公式,分析构建雾霾退化的物理模型,通过优化求解去除雾、霾而不损伤图像的质量,还兼顾了多种景深图像的增强,即估计公式模型中的各项参数从而反向推导出无雾图像。随着深度学习的发展,神经网络被引入图像去雾算法中。基于神经网络的去雾方法主要分为物理模型参数估计和端到端去雾两种。前者依赖于大气散射模型,利用神经网络对模型中的参数进行估计;端到端的去雾方法利用卷积神经网络生成特征图像,通过上下采样的方式生成无雾图像。4.传统基于大气散射物理模型的方法可以较快地进行图像去雾,并且在视觉上有一定的去雾效果,但其在颜色上会有较大改变,图像纹理恢复不明显。此外这种方法严重依赖于大气散射模型的估计参数,然而很多场景参数是无法准确估计的,整体上也难以达到好的去雾效果。5.而基于神经网络的去雾方法仍存在以下几个问题:(1)大部分深度学习的方法都是利用卷积神经网络上下采样在有监督的情况下去雾,由于完全摒弃了传统方法的先验知识,导致物体轮廓恢复不清晰,颜色失真,去雾不彻底。(2)目前基于卷积神经网络的方法过于依赖于增加网络深度,即增强网络非线性能力的方法,导致训练成本高,训练时间长,去雾效果有限。6.综上,基于大气散射模型的图像去雾方法适应性不强,去雾效果差;基于深度学习的方法缺乏有效的先验知识导致去雾效果仍有微弱瑕疵。技术实现要素:7.本发明的主要目的在于克服现有技术的不足,提出一种基于先验生成对抗网络的图像去雾方法,以解决现有基于神经网络的去雾方法所存在的训练时间长、物体轮廓恢复不清晰、颜色失真、去雾不彻底的问题。8.为达上述目的,本发明一方面提出如下技术方案:9.一种基于先验生成对抗网络的图像去雾方法,包括对图像去雾模型进行训练的步骤,其中所述图像去雾模型包括图像生成器和辨别器,所述图像生成器用于将输入的有雾图像处理为去雾图像,所述辨别器用于辨别所述去雾图像是否为无雾图像;所述对图像去雾模型进行训练的步骤包括:s1、收集成对的有雾图像和无雾图像构成图像对,利用图像对构建训练用的数据集,并将数据集划分为训练集和测试集;s2、对训练集的图像进行预处理,获得四通道的图像,所述四通道包括r、g、b三通道以及滤波后保留有高频与低频信息的第四通道;s3、对预处理后的训练集,提取四通道的有雾图像的浅层特征并进行下采样,得到深层特征;s4、对所述深层特征进行上采样以获取重构上采样特征,上采样过程中通过跳跃连接将上采样之前的图像特征融入所述重构上采样特征,重构出四通道的去雾图像;s5、根据图像生成器损失和辨别器损失,在训练集上训练所述图像去雾模型;其中,所述图像生成器损失包括:所述有雾图像与所述去雾图像之间的重建损失,对抗损失,以及表征所述去雾图像与所述无雾图像在hsv空间的区别的先验损失;其中,hsv空间包括代表色调的h通道、代表饱和度的s通道和代表明度的v通道。10.进一步地,所述图像去雾方法还包括:利用所述测试集在已完成训练的所述图像去雾模型上进行测试,并根据测试结果判断去雾效果,所述去雾效果利用峰值信噪比psnr和结构相似度ssim两个指标来衡量。11.进一步地,步骤s2具体包括:s21、读取训练集中图像的灰度图并通过傅里叶变换转换到频域;s22、利用带阻滤波器对所述灰度图进行滤波,获得保留有图像低频和高频信息的第四通道;s23、将所述第四通道与r、g、b三通道拼接,形成所述四通道的图像。12.进一步地,所述带阻滤波器为60hz的带宽,距离中心频率为25hz。13.进一步地,所述有雾图像与所述去雾图像之间的重建损失包括:像素层面重建损失以及表征语义级重建损失的感受损失,所述像素层面重建损失使用l1损失来衡量,所述感受损失用特征映射空间的感受相似度和风格相似度来衡量;14.所述像素层面重建损失为:其中,n表示图像生成器处理的样本个数,是输入图像生成器的四通道的所述有雾图像,是四通道的所述无雾图像,是图像生成器输出的四通道的所述去雾图像;15.所述感受损失为:其中,φ(·)代表特征映射vgg16网络第30层的映射关系,为所述有雾图像的rgb输入,为所述无雾图像的rgb输入,x′是x的转置,此处x作为一个通用符号,代表或16.所述对抗损失为:其中,m为辨别器处理的样本个数,是辨别器的输出;17.所述先验损失为:其中,和分别代表图像生成器输出的四通道的去雾图像在hsv空间下的h通道和sv通道,和分别是四通道的无雾图像在hsv空间下的h通道和sv通道,是四通道的有雾图像在hsv空间下的sv通道,ε是一个用来避免分母为0的极小常数;代表输入数据x的s通道xs和v通道xv之间的差值,此处x作为一个通用符号,代表表或18.所述图像生成器损失为其中λ1,λ2,λ3,λ4是损失权重。19.进一步地,所述辨别器损失为:20.进一步地,所述图像去雾方法还包括:s6、获取待处理图像,并进行所述预处理获得对应的四通道的待处理图像;s7、将预处理后的待处理图像输入至训练好的所述图像去雾模型,输出对应的四通道的去雾图像。21.本发明另一方面还提出一种基于先验生成对抗网络的图像去雾模型,包括:图像预处理模块,用于将图像预处理成四通道的图像,所述四通道包括r、g、b三通道以及滤波后保留有高频与低频信息的第四通道;图像生成器,连接于所述图像预处理模块的输出端,用于对输入的四通道的有雾图像进行去雾处理,以输出四通道的去雾图像;所述去雾处理包括:提取四通道的有雾图像的浅层特征并进行下采样,得到深层特征;对所述深层特征进行上采样以获取重构上采样特征,上采样过程中通过跳跃连接将上采样之前的图像特征融入所述重构上采样特征,重构出四通道的去雾图像;辨别器,连接于所述图像生成器的输出端,用于辨别图像生成器输出的去雾图像是否为无雾图像。22.进一步地,所述图像生成器包括:第一浅层特征提取模块,连接于所述图像预处理模块的输出端,用于提取图像的浅层特征;下采样模块,连接于所述浅层特征提取模块的输出端,用于对浅层特征进行下采样,获得深层特征;上采样模块,连接于所述下采样模块的输出端,用于对所述深层特征进行上采样以获取重构上采样特征,并通过所述跳跃连接将上采样之前的图像特征融入所述重构上采样特征;输出模块,连接于所述上采样模块的输出端,用于输出四通道的去雾图像。23.进一步地,所述辨别器接收所述图像生成器输出的去雾图像并生成该去雾图像的分类特征图,以根据分类特征图判别该去雾图像是否为无雾图像。24.进一步地,所述上采样模块、所述下采样模块以及所述辨别器中所包含的特征提取模块均在卷积层的基础上,引入了cbam注意力模块。25.此外,本发明还提出一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时能实现前述图像去雾方法的步骤。26.本发明技术方案的有益效果在于:一方面,将带阻滤波后的图像作为图像的第四通道加入网络进行训练,使得网络模型可以更好地提取图像的结构特征,达到结构层面的解耦;另一方面,本发明利用有雾图像在颜色、亮度、饱和度上的畸变,将图像由rgb空间转换到hsv空间,设计了hsv空间下的先验损失,以计算对比损失的方式计算先验损失,采用对比正则化的方式让图像达到视觉层面的解耦。本发明基于结构先验和视觉先验将有雾图像进行解耦和补偿的去雾方法和模型,可以将有雾图像恢复为高质量无雾图像,通过充足的实验并在多个图像评价标准层面上证明了所设计的四通道输入方法可以在训练中较快提升图像恢复质量,先验损失方法可以提升最终图像性能,并在公开测试数据集上达到了最先进的性能(sota)。附图说明27.图1是本发明实施例基于先验生成对抗网络的图像去雾模型的方框图;28.图2是本发明实施例基于先验生成对抗网络的图像去雾模型中图像生成器的网络结构图;29.图3是本发明实施例图像生成器中浅层特征提取模块的网络结构图;30.图4是本发明实施例图像生成器中下采样模块的其中一个子模块31的网络结构图;31.图5是本发明实施例图像生成器中上采样模块的其中一个子模块41的网络结构图;32.图6是本发明实施例中特征提取模块的dense layer网络结构图;33.图7是本发明实施例中辨别器的网络结构图;34.图8是本发明实施例中带阻滤波器的工作原理图;35.图9是本发明实施例的图像去雾方法与现有的图像去雾方法的去雾效果对比;36.图10是本发明实施例无雾图像、有雾图像在rgb通道下以及在保留高频和/或低频的第四通道下的灰度图;37.图11是本发明实施例有雾图像和无雾图像在hsv空间和rgb空间下的对比图。具体实施方式38.下面结合附图和具体的实施方式对本发明作进一步说明。39.目前基于卷积神经网络的去雾方法过于依赖于增加网络深度,即增强网络非线性能力的方法,并没有考虑雾介质与图像背景的耦合作用,缺少对图像进行有效补偿,导致训练成本高,训练时间长,去雾效果有限。鉴于此,本发明实施例提出一种基于结构先验和视觉先验对有雾图像进行解耦和补偿,恢复出高质量的无雾图像的方法和模型,该模型是以轻量级peleenet(一种基于densenet的轻量化网络变体)为基础设计的利用先验知识解耦的生成对抗网络(gan),该新设计的生成对抗网络消除了传统gan网络结构繁多冗余的问题。40.请参考图1,本发明实施例提出一种基于先验生成对抗网络的图像去雾模型,包括:图像预处理模块1、图像生成器和辨别器7。图像预处理模块1可以将输入的图像处理成四通道的图像,所述四通道是指r、g、b三通道以及滤波后保留有高频与低频信息的第四通道。所述图像生成器包括依次连接的浅层特征提取模块2、下采样模块3、上采样模块4和输出模块5。浅层特征提取模块2连接于图像预处理模块1的输出端,接收预处理后的四通道图像并从中提取浅层特征。下采样模块3连接于浅层特征提取模块2的输出端,接收浅层特征进行下采样生成图像的深层特征。上采样模块4连接于下采样模块3的输出端,用于对深层特征进行上采样以获取重构上采样特征,期间通过多次跳跃连接将下采样模块的输出与重构上采样特征融合在一起,恢复出四通道的去雾图像并经输出模块5输出。辨别器7连接于所述图像生成器的输出端,用于辨别图像生成器输出的去雾图像是否为无雾图像。41.图像预处理模块1将输入的图像处理成四通道的图像的过程包括:先读取图像的灰度图,然后将灰度图通过傅里叶变换转换到频域,据以来设置带阻滤波器为60hz的带宽,距离中心频率为25hz,参考图8,利用上述设置的带阻滤波器对灰度图进行滤波,生成第四通道图像,其保留了输入图像的高频和低频信息。最后将第四通道图像与r、g、b三通道拼接,得到四通道图像rgbfhl。42.参考图2和图3,浅层特征提取模块2的作用在于进行初步的特征提取,提取图像的浅层特征。在一些实施例中,浅层特征提取模块2的网络结构如图3所示,包括从输入端到输出端依次连接的卷积单元21、卷积单元22、卷积单元23、卷积单元27,其中卷积单元21的输出经过池化层24,池化层24的输出与卷积单元23的输出拼接(合并)后输入卷积单元27。其中,卷积单元21、22、23和27具有相同的网络构成,均是由一卷积层、一bn(正则化)层和一leaky relu层依次连接构成。43.参考图2,下采样模块3包括三个子模块group1、group2、group3,group1、group2、group3分别包含4层dense layer、6层dense layer、8层dense layer,并且在每个子模块的最后一层dense layer之后依次连接了卷积单元bconv1和池化层pooling1。参考图4,比如,子模块31(group1)包括依次连接的n=4个dense layer d-1~d-n,dense layer d-1~d-n具有相同的网络结构,它们共同构成一个子模块内的特征提取模块。dense layer表示密集连接的卷积网络的层,如图6所示,一个dense layer层包括卷积单元61、卷积单元62、轻量级的cbam注意力模块63。一个dense layer层接收的输入,一方面经过卷积单元62,另一方面依次经过卷积单元61和cbam注意力模块,一个dense layer层接收的输入与卷积单元62的输出、cbam注意力模块63的输出三者拼接成一个数据作为该dense layer层的输出64。其中卷积单元61内包括三个相同的子单元,卷积单元62内包括两个相同的子单元,每个所述子单元与前述的卷积单元21、22、23和27具备相同的网络结构,在此不再赘述。44.参考图2,上采样模块4包括四个子模块group4、group5、group6、group7,且这四个子模块具有相同的网络结构,请参考图5,以其中一个子模块41的结构为例进行说明,子模块41由去卷积(deconvolution)层411以及5个dense layer d-1~d-5依次连接构成,其中去卷积层411的输出与跳跃连接(级联)到该子模块的输出拼接成一个数据412,然后输入到第一个dense layer d-1。继续参考图2和图5,上采样模块4进行上采样的过程包含了多次跳跃连接,具体而言,这些跳跃连接包括:图像预处理模块的输出与group7的输出拼接到一起,之后一起进入输出模块5;group1的输出与group6的输出拼接到一起,之后一起进入group7进行卷积;group2的输出与group5的输出拼接,一起进入group6进行卷积,group3的输出与group4的输出拼接,一起进入group5进行卷积。45.参考图2,经过具备跳跃连接的上采样模块4以及输出模块5,输出重构的去雾图像20,其中,输出模块5由卷积单元51和卷积层52依次连接构成。其中卷积单元5与前述的卷积单元21、22、23和27具备相同的网络结构,在此不再赘述。46.参考图1和图7,辨别器7连接于图像生成器的输出端,接收生成器输出的四通道去雾图像,并生成该去雾图像的分类特征图,以根据分类特征图判别该去雾图像是否为无雾图像。继续参考图7,辨别器7包括依次连接的浅层特征提取模块71(其具备与前述浅层特征提取模块2相同的网络结构,见于图3)、池化层72、特征提取模块73、卷积层74、卷积层75、bn层76、卷积层77和sigmoid激活层78;其中,卷积层74、卷积层75、bn层76和卷积层77连接构成一个模块,用于将特征提取模块73的输出恢复为原来图像的尺寸和大小,属于深度上采样结束的微调。其中,特征提取模块73由5个dense layer d-1~d-5连接构成,这5个dense layer具有相同的结构,且结构与前述图4(下采样模块的子模块31)、图5(上采样模块的子模块41)中的dense layer结构相同,因此,为简化描述,采用了一致的标号。此外,可以看到,在上采样模块、所述下采样模块以及所述辨别器中所包含的特征提取模块(若干个dense layer连接而成)中,都引入了轻量级cbam注意力模块,具体请参考图6,是在每层dense layer都引入了cbam注意力模块,用以增强模型对细节特征的采集和网络对通道信息的关注。47.本发明实施例另外提供了基于先验生成对抗网络的图像去雾方法,该方法基于前述实施例的图像去雾模型来实现。首先对图像去雾模型进行训练,然后利用训练好的图像去雾模型进行图像去雾,只需将待处理图像输入到训练好的图像去雾模型,即可输出高质量的去雾图像。48.接下来详细描述图像去雾模型的训练过程,该过程包括步骤s1~s5:49.s1、数据集准备:收集成对的有雾图像和无雾图像构成图像对,构建数据集。成对的有雾图像和无雾图像二者图像内容一致,区别在于有雾图像的至少部分区域被雾介质遮挡或模糊化,在纹理和颜色上产生畸变;图像的文件格式为png,分辨率相同。对于数据集,以8:2的比例划分为训练集和测试集。50.s2、数据集预处理:首先,将训练集的图像(包括有雾图像和无雾图像)随机裁剪为224×224的大小,并随机进行翻转;然后,读取灰度图,并利用傅里叶变换将灰度图转换到频域,设置带阻滤波器为60hz的带宽,距离中心频率为25hz。利用该设置的带阻滤波器对灰度图进行带阻滤波,保留图像的高频和低频信息生成第四通道图像,将rgb通道与第四通道拼接,获得四通道的图像rgbfhl。51.s3、将经过步骤s2处理后的训练集中的四通道有雾图像输入至浅层特征提取模块,提取四通道有雾图像的浅层特征,然后利用下采样模块进行下采样,得到相应的深层特征。52.s4、步骤s3得到的深层特征再进入上采样模块进行上采样,期间再经过多次跳跃连接将上采样之前的图像特征与重构上采样特征融合在一起,最终恢复出四通道的去雾图像。所述多次跳跃连接包括:图像预处理模块的输出与group7的输出拼接到一起,之后一起进入输出模块5;group1的输出与group6的输出拼接到一起,之后一起进入group7进行卷积;group2的输出与group5的输出拼接,一起进入group6进行卷积,group3的输出与group4的输出拼接,一起进入group5进行卷积。53.s5、根据图像生成器损失和辨别器损失在训练集上训练所述图像去雾模型。其中,图像生成器损失包括:所述有雾图像与所述去雾图像之间的重建损失,对抗损失,以及表征所述去雾图像与所述无雾图像在hsv空间的区别的先验损失;其中,hsv空间(h即hue,色调;s即saturation,饱和度;v即value,明度)包括代表色调的h通道、代表饱和度的s通道和代表明度的v通道。54.所述有雾图像与所述去雾图像之间的重建损失包括:像素层面重建损失以及表征语义级重建损失的感受损失,所述像素层面重建损失使用l1损失来衡量,所述感受损失用特征映射空间的感受相似度和风格相似度来衡量;具体如下。55.所述像素层面重建损失为:其中,n表示图像生成器处理的样本个数,是输入图像生成器的四通道的所述有雾图像,是四通道的所述无雾图像,是图像生成器输出的四通道的所述去雾图像;56.所述感受损失为:其中,φ(·)代表特征映射vgg16网络第30层的映射关系,为所述有雾图像的rgb输入,为所述无雾图像的rgb输入,x′是x的转置,此处x作为一个通用符号,代表或57.所述对抗损失为:其中,m为辨别器处理的样本个数,是辨别器的输出;58.所述先验损失为:其中,和分别代表图像生成器输出的四通道的去雾图像在hsv空间下的h通道和sv通道,和分别是四通道的无雾图像在hsv空间下的h通道和sv通道,是四通道的有雾图像在hsv空间下的sv通道,ε是一个用来避免分母为0的极小常数,其可取值e-9~e-12左右;代表输入数据x的s通道xs和v通道xv之间的差值,此处x作为一个通用符号,代表或该损失函数可以比较生成器输出图像和无雾图像二者在色调,饱和度和亮度之间的差异。同时采用对比正则化的方式,将无雾图像作为正例,有雾图像作为负例,目的是增大去雾图像与有雾图像之间的距离,缩小去雾图像与无雾之间的差距。对比正则化采用聚类方法的思想,使网络自身学习雾介质与图像背景之间的耦合特性,利用负例来限制可行的解空间。59.所述图像生成器损失为其中λ1,λ2,λ3,λ4是损失权重。60.所述辨别器损失为:61.在获得图像生成器的损失函数和辨别器的损失函数的情况下,通过计算这两种损失,在训练集上训练所述图像去雾模型。采用adam为优化器,其中训练参数包括:学习速率0.0001,β1=0.9,β2=0.999,权值衰减为1×10-4,(λ1,λ2,λ3,λ4)=(1.0,0.5,1.0,0.5)。当训练到图像生成器和辨别器的损失都不变化时,可完成训练,此时表明辨别器已经无法分辨是重建的去雾图像还是原本的无雾图像。62.完成训练后使用测试集在图像去雾模型上进行测试,并根据测试结果判断去雾效果,所述去雾效果的衡量指标包括峰值信噪比(psnr)和结构相似度(ssim)两个指标,其中结构相似度(ssim)的数值范围为[-1,1],峰值信噪比和结构相似度的数值越大表去雾图像的复原效果越好。[0063]下面通过两个实验来印证本发明方案的有效性。[0064]1)对比实验[0065]第一个实验使用reside数据集,其包括三个数据集(reside-v0,reside-standard,reside-β)共计386085对有雾-无雾图像对作为训练集,并在reside的sots数据集上进行测试,得到结果如表1所示,可以看出本发明的图像去雾方法在两个评价指标上都达到了最高水平,获得了最好性能(sota)。参考图9,可以看出本发明去雾方法与其它现有的去雾方法相比,去雾效果显著,接近于无雾图像。表1本发明与现有方法性能比较表1本发明与现有方法性能比较[0066]2)消融实验[0067]为了更好地证明本发明的结构先验和视觉先验在去雾层面具有解耦效应,以两类消融试验来进行说明。[0068]2.1)带阻滤波结构解耦证明实验。将reside数据集(its和ots)共计86125张图片,每张图片都分别处理为四种图像:rgb图像,rgbfh图像,rgbfl图像,rgbfhl图像;然后每种图像分别在本发明设计的gan(生成对抗网络)(也就是图像生成器)上进行20次epoch训练,并在sots和ntire'18数据集上进行测试,得到结果如表2所示。表2不同数据处理的效果对比[0069]其中,rgb是指rgb图像,rgbfl是rgb三通道加上包含低频信息的第四通道fl构成的四通道图像,rgbfh是rgb三通道加上包含高频信息的第四通道fh构成的四通道图像,rgbfhl是rgb三通道加上包含低频和高频信息的第四通道fhl构成的四通道图像,高频信号保留了图像的轮廓信息,低频信号保留了图像的纹理等内部信息,带阻滤波信号类似于高频信号,但保留了更多有用信息。可以看出,输入为rgbfhl时,在测试集上psnr,ssim,fsim(特征相似度)均得到最高水平。参考图10,单独增加高频信息或低频信息的数据效果也较原始rgb输入有较好的提升。输入为rgbfh的效果高于输入为rgbfl的效果,说明雾对图像的影响集中在轮廓和纹理上。[0070]2.2)使用residee-v0和reside-β数据集共计386085张图片以rgbfhl形式作为输入,损失函数分别为和(去除先验损失)进行训练:并在sots数据集上进行测试,得到如表3所示结果:表3两种损失的结果对比[0071]可以看出损失函数增加了先验损失可以提升模型最后的去雾和重建效果,psnr提升了2.0db,ssim提升了0.031。[0072]图11为有雾图像和无雾图像在hsv空间和rgb空间的对比图。可以看出,hsv空间下有雾图像与无雾图像的视觉效果均比rgb空间下对应的有雾图像和无雾图像更明显,相同内容的图像的有雾图像和无雾图像在rgb下的视觉差距并没有在hsv空间下的视觉差距大。[0073]可以看出,本发明实施例提出的基于先验生成对抗网络的图像去雾方法和模型,通过将带阻滤波后的图像作为图像的第四通道加入网络进行训练,达到结构层面的解耦,以及将图像由rgb空间转换到hsv空间计算先验损失,达到视觉层面的解耦的方式,能够恢复出物体轮廓清晰、颜色不失真且去雾彻底的接近于无雾图像的去雾图像。[0074]以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部