发布信息

一种对话文本增强方法、装置、设备、存储介质与流程

作者:admin      2022-08-31 14:22:40     622



计算;推算;计数设备的制造及其应用技术1.本发明涉及自然语言处理领域,特别涉及一种对话文本增强方法、装置、设备、存储介质。背景技术:2.数据增强是处理few-shot场景下常用的策略,工作原理是从现有的训练数据中合成新的数据,目标是提高下游模型的性能。这一策略已成为提高各种神经网络模型性能的关键因素。数据增强是利用有限的标注数据,获取到更多的训练数据,减少网络中的过拟合现象,训练出泛化能力更强的模型有效方式。通常,人们使用词汇替换,即替换原始文本中的某一部分,而不改变句子本身的意思进行数据增强,包括同义词的替换、随机删除等。回译则是将原有数据翻译为其他语言再翻译回原语言。文本生成模型的最新进展促进了处理稀缺数据情况的创新方法。在这些情况下,词汇替换和随即删除词没有考虑语义,很可能生成的句子语顺不通,而由于语言逻辑顺序等的不通,回译的方法也往往能够得到和原数据差别较大的新数据,而使用文本生成模型生成的数据对于多轮对话有角色问题和上下文场景问题无法解决。3.综上,如何实现生成句子语言逻辑顺序通顺并考虑多轮对话的角色问题以及结合上下文场景的对话文本增强,是本领域有待解决的问题。技术实现要素:4.有鉴于此,本发明的目的在于提供一种对话文本增强方法、装置、设备、存储介质,能够实现生成句子语言逻辑顺序通顺并考虑多轮对话的角色问题以及结合上下文场景的对话文本增强。其具体方案如下:5.第一方面,本技术公开了一种对话文本增强方法,包括:6.将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本;7.对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练以得到第一样本;8.利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所述第一样本中筛选满足预设置信度条件的所述目标样本,并基于所述目标样本生成文本增强样本。9.可选的,所述将文本训练集输入训练后的gpt-2模型之前,还包括:10.将携带有文本意图标签的多轮对话数据样本对gpt-2模型进行训练,并得到所述训练后的gpt-2模型。11.可选的,所述将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本过程中,还包括:12.利用segment id并基于说话者的角色对所述对话文本进行分类,以得到携带说话者角色标签的所述对话文本。13.可选的,所述对所述拼接后文本进行训练以得到第一样本,包括:14.对所述拼接后文本进行训练,以得到所述携带角色标签和所述文本意图标签的所述第一样本,以便基于所述第一样本扩充文本训练集。15.可选的,所述利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测之前,还包括:16.利用携带有多轮对话文本意图标签的训练数据训练文本分类器,以得到预设文本分类器。17.可选的,所述利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测之前,还包括:18.利用dialogue model对正序输入的所述第一样本进行预测,并生成候选response;19.利用mmi model从所述候选response中筛选损失最小的候选response作为目标response,以得到添加互信息的所述第一样本。20.可选的,所述基于所述目标样本生成文本增强样本,包括:21.对所述目标样本进行无监督训练,以生成文本增强样本。22.第二方面,本技术公开了一种对话文本增强装置,包括:23.意图提取模块,用于将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本;24.样本获取模块,用于对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练以得到第一样本;25.文本增强模块,用于利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所述第一样本中筛选满足预设置信度条件的所述目标样本,并基于所述目标样本生成文本增强样本。26.第三方面,本技术公开了一种电子设备,包括:27.存储器,用于保存计算机程序;28.处理器,用于执行所述计算机程序,以实现前述公开的对话文本增强方法的步骤。29.第四方面,本技术公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的对话文本增强方法的步骤。30.可见,本技术公开了一种对话文本增强方法,包括:将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本;对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练以得到第一样本;利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所述第一样本中筛选满足预设置信度条件的所述目标样本,并基于所述目标样本生成文本增强样本。由此可见,通过将文本训练集输入训练后的gpt-2模型,以生成携带有文本意图标签并区分说话者角色的对话文本,将文本意图与相应的句子拼接并训练,扩充有文本意图标签的第一样本实现文本增强。对训练样本增加互信息,保证了生成句子的连贯性和质量,使生成句子语言逻辑顺序通顺,并且生成的训练样本使多轮对话有对话角色和上下文场景,进一步使对话尽可能进行下去,提高对话话术。附图说明31.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。32.图1为本技术公开的一种对话文本增强方法流程图;33.图2为本技术公开的一种具体的对话文本增强方法流程图;34.图3为本技术公开的一种说话者角色区分示意图;35.图4为本技术公开的一种文本拼接示意图;36.图5为本技术公开的一种具体的对话文本增强方法流程图;37.图6为本技术公开的候选response筛选流程图;38.图7为本技术公开的一种模型训练方法流程图;39.图8为本技术公开的一种对话文本增强装置结构示意图;40.图9为本技术公开的一种电子设备结构图。具体实施方式41.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。42.数据增强是处理few-shot场景下常用的策略,工作原理是从现有的训练数据中合成新的数据,目标是提高下游模型的性能。这一策略已成为提高各种神经网络模型性能的关键因素。数据增强是利用有限的标注数据,获取到更多的训练数据,减少网络中的过拟合现象,训练出泛化能力更强的模型有效方式。通常,人们使用词汇替换,即替换原始文本中的某一部分,而不改变句子本身的意思进行数据增强,包括同义词的替换、随机删除等。回译则是将原有数据翻译为其他语言再翻译回原语言。文本生成模型的最新进展促进了处理稀缺数据情况的创新方法。在这些情况下,词汇替换和随即删除词没有考虑语义,很可能生成的句子语顺不通,而由于语言逻辑顺序等的不通,回译的方法也往往能够得到和原数据差别较大的新数据,而使用文本生成模型生成的数据对于多轮对话有角色问题和上下文场景问题无法解决。43.为此,本发明相应提供了一种对话文本增强方案,能够实现生成句子语言逻辑顺序通顺并考虑多轮对话的角色问题以及结合上下文场景的对话文本增强。44.参照图1所示,本发明实施例公开了一种对话文本增强方法,包括:45.步骤s11:将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本。46.本实施例中,将携带有文本意图标签的多轮对话数据样本对gpt-2模型进行训练,并得到所述训练后的gpt-2模型。可以理解的是,预先利用已有的多轮对话意图标签数据对所述gpt-2模型进行初始训练,以得到训练后的符合本技术的gpt-2模型,当将初始训练集输入至所述训练后的gpt-2模型时,所述gpt-2模型进行fine-tune(网络微调)以得到自动生成的携带有文本意图标签的同义句,并且识别不同说话者角色对应的对话文本。47.步骤s12:对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练以得到第一样本。48.本实施例中,将所述文本意图标签对应的文本意图与所识别的句子拼接并训练,其中,拼接过程具体为将识别的句子的最后拼接上对应的文本意图,然后,获取训练后的拼接文本即为第一样本,这样一来可以扩充已有的携带文本意图标签的训练样本集,方便gpt-2模型的预训练。例如:在销售场景中,为了多轮对话能更好的进行下去,当我们处于销售一方时,由于所述gpt-2模型生成的是销售方的对话,所以为了给客户更好地体验,尽可能产生长的response作为回复,避免对话尽早截止,但是只是尽可能长的response会导致原先正确的回答回复变成错误的回复,因此要分情况讨论在生成候选response的过程中,将长度相差过大设置一个阈值,在保证销售对话尽可能进行下去的情况下,扩大候选response的长度。49.步骤s13:利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所述第一样本中筛选满足预设置信度条件的所述目标样本,并基于所述目标样本生成文本增强样本。50.本实施例中,利用训练完成的文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所有所述第一样本中选择置信度高的目标样本进行无监督训练,并将无监督训练后的目标样本作为最终的文本增强样本,生成文本增强样本目的是为了在一些具体场景中进行更好地利用文本增强样本进行多轮对话。51.可见,本技术公开了一种对话文本增强方法,包括:将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本;对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练以得到第一样本;利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所述第一样本中筛选满足预设置信度条件的所述目标样本,并基于所述目标样本生成文本增强样本。由此可见,通过将文本训练集输入训练后的gpt-2模型,以生成携带有文本意图标签并区分说话者角色的对话文本,将文本意图与相应的句子拼接并训练,扩充有文本意图标签的第一样本实现文本增强。对训练样本增加互信息,保证了生成句子的连贯性和质量,使生成句子语言逻辑顺序通顺,并且生成的训练样本使多轮对话有对话角色和上下文场景,进一步使对话尽可能进行下去,提高对话话术。52.参照图2所示,本发明实施例公开了一种具体的对话文本增强方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:53.步骤s21:将文本数据集输入gpt-2模型训练,并利用segment id基于说话者的角色对对话文本进行分类,以得到携带角色标签的所述对话文本。54.本实施例中,通过使用所述gpt-2模型生成的携带对话意图标签的同义文,并将不同说话者角色按照seg拼接起来,学习不同角色的话术,为了区分不同的说话角色,我们对不同的说话者用不同的segment id区分。参照图3所示,为了生成我们需要的增强语料,这里的方式是使用我们的训练集,来构造一批语料,让gpt-2模型继续在该语料上进行next-word-prediction(下一个单词的预测)的训练。多轮对话语料构建为客户:你好哪位啊,销售:是这样的,我是销氪的,可以给您提供客户资源,请问有需要吗,客户:太贵了,销售:现在有折扣的您了解一下。将原始语料转换为用于train的token id,对于每个对话,将其处理成如图3的形式:[cls]句子1[sep]句子2[sep]句子3[sep]即下图的[cls]你好哪位啊,[sep]是这样的,我是销氪的,...[sep]太贵了[sep],然后利用gpt-2进行fine-tune,其中,客户的segment id为0,销售的segment id是1。[0055]步骤s22:对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练,以得到所述携带角色标签和所述文本意图标签的所述第一样本,以便基于所述第一样本扩充文本训练集。[0056]本实施例中,参照图4所示,将用户意图标签按照识别的对应句子拼接在一起,将其处理成如下形式:[cls]句子1[sep]句子2[sep]句子3+tag标签[sep]即图4的[cls]你好哪位啊,[sep]是这样的,我是销氪的,...[sep]太贵了+tag价格异议[sep]。[0057]步骤s23:利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所述第一样本中筛选满足预设之置信度条件的所述目标样本,并基于所述目标样本生成文本增强样本。[0058]本实施例中,利用携带有多轮对话文本意图标签的训练数据训练文本分类器,以得到预设文本分类器。可以理解的是,对多轮对话按照说话者角色进行拆分,如果所述对话中存在用户意图标签,识别用户意图标签,寻找对应的带有销售方和客户方的一轮对话,将其用户意图标签标注为所识别的意图,然后用已有用户意图标签的文本数据训练一个文本分类器,该文本分类器会被用来当做一个filter(过滤器),所述文本分类器用来筛选生成的训练样本的质量。[0059]可见,本实施例通过基于说话者角色对文本进行分类,并且采用文本+用户意图标签的方式进行文本的拼接,解决了多轮对话有角色问题,并且通过使用文本拼接使训练出的文本增强样本更加考虑上下文场景,实现更加准确的文本增强。[0060]参照图5所示,本发明实施例公开了一种具体的对话文本增强方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:[0061]步骤s31:将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本。[0062]步骤s32:对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练以得到第一样本。[0063]其中,步骤s31、步骤s32中更加详细的处理过程参照前述公开的实施例,在此不再进行赘述。[0064]步骤s33:利用dialogue model对正序输入的所述第一样本进行预测,并生成候选response;利用mmi model从所述候选response中筛选损失最小的候选response作为目标response,以得到添加互信息的所述第一样本。[0065]本实施例中,参照图6所示,首先使用dialogue model(对话模型)生成多个候选response,然后使用mmi model(maximum mutual information,最大互信息模型)从候选response中,选取loss(损失)最小的作为最终的response,首先将句子正序输入,得到了[cls]句子1[sep]句子2[sep]句子3+tag标签[sep],将上述内容输入至所述dialogue model,所述dialogue model输出n个候选response,如:句子r1、句子r2、句子r3等,然后将句子r1、句子r2、句子r3分别与原始句子逆序拼接,得到[cls]r1[sep]r3+tag标签[sep]r2[sep]r1[sep],使用mmi model计算与原始逆序拼接后的候选response的loss,并选择loss最小的response作为第一样本。[0066]步骤s34:从添加互信息的所述第一样本中筛选出满足预设置信度条件的目标样本。[0067]本实施例中,首先对所述第一样本添加互信息,保证生成句子得连贯性和质量,设定一个阈值,然后从上面loss最小的response的训练样本中选择满足预设阈值的训练样本作为目标样本,使得销售对话尽可能进行下去。避免因为销售终止对话的情况。[0068]步骤s35:对所述目标样本进行无监督训练,以生成文本增强样本。[0069]本实施例中,参照图7所示,利用已有的多轮对话意图标签数据训练一个分类器a,用来筛选生成的样本的质量。然后为了区分不同的说话角色,对不同的说话者用不同的segment id区分,将识别的标签放在说话人语料的后面用tag隔开,训练了两个模型:dialogue model与mmi model。通过阈值设置使得销售对话尽可能进行下去,避免因为销售终止对话的情况。然后利用分类器a挑选置信度高的样本进行self-training,保证生成分类样本的质量。[0070]本实施例中,所述利用预设文本分类器对添加互信息的所述训练样本进行文本意图预测之前,还包括:利用携带有多轮对话文本意图标签的训练数据训练文本分类器,以得到预设文本分类器。可以理解的是,利用已有的多轮对话意图标签数据训练一个分类器a,用来筛选生成的训练样本的质量。因为生成的句子质量是难以保证的,生成一大堆,可能会有很多噪音,使用一个分类器a对这批样本进行预测,挑选出那些置信度比较高训练样本的来作为我们真正使用的增强样本。[0071]可见,本技术实施例通过预先训练的文本分类器、以及dialogue model与mmi model并基于预设阈值的设置,从多个方面增加了获取置信度更高,更准确的训练样本,并且基于选取出的所述训练样本进行self-training,保证了分类样本的质量。[0072]参照图8所示,本发明实施例公开了一种对话文本增强装置,包括:[0073]意图提取模块11,用于将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本;[0074]样本获取模块12,用于对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练以得到第一样本;[0075]文本增强模块13,用于利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所述第一样本中筛选满足预设置信度条件的所述目标样本,并基于所述目标样本生成文本增强样本。[0076]可见,本技术公开了一种对话文本增强方法,包括:将文本训练集输入训练后的gpt-2模型,以便所述训练后的gpt-2模型生成携带有文本意图标签的多轮区分不同说话者角色的对话文本;对每一对话文本和相应的所述文本意图进行拼接以得到拼接后文本,然后对所述拼接后文本进行训练以得到第一样本;利用预设文本分类器对添加互信息的所述第一样本进行文本意图预测,并从所述第一样本中筛选满足预设置信度条件的所述目标样本,并基于所述目标样本生成文本增强样本。由此可见,通过将文本训练集输入训练后的gpt-2模型,以生成携带有文本意图标签并区分说话者角色的对话文本,将文本意图与相应的句子拼接并训练,扩充有文本意图标签的第一样本实现文本增强。对训练样本增加互信息,保证了生成句子的连贯性和质量,使生成句子语言逻辑顺序通顺,并且生成的训练样本使多轮对话有对话角色和上下文场景,进一步使对话尽可能进行下去,提高对话话术。[0077]进一步的,本技术实施例还公开了一种电子设备,图9是根据一示例性实施例示出的电子设备20结构图,图中的内容不能认为是对本技术的使用范围的任何限制。[0078]图9为本技术实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的对话文本增强方法中的相关步骤。另外,本实施例中的电子设备20具体可以为电子计算机。[0079]本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本技术技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。[0080]其中,处理器21可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器21可以采用dsp(digital signal processing,数字信号处理)、fpga(field-programmable gate array,现场可编程门阵列)、pla(programmable logic array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器21也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称cpu(central processing unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器21可以在集成有gpu(graphics processing unit,图像处理器),gpu用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器21还可以包括ai(artificial intelligence,人工智能)处理器,该ai处理器用于处理有关机器学习的计算操作。[0081]另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源可以包括操作系统221、计算机程序222等,存储方式可以是短暂存储或者永久存储。[0082]其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是windows server、netware、unix、linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的对话文本增强方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。数据223除了可以包括电子设备接收到的由外部设备传输进来的数据,也可以包括由自身输入输出接口25采集到的数据等。[0083]进一步的,本技术还公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的对话文本增强方法。关于该方法的具体步骤可以参考前述实施例中公开的相应内容,在此不再进行赘述。[0084]本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。[0085]专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。[0086]最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。[0087]以上对本发明所提供的一种对话文本增强方法、装置、设备、存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部