基于BERT 您所在的位置:网站首页 snip算法 基于BERT

基于BERT

2023-04-09 07:14| 来源: 网络整理| 查看: 265

1、www.ChinaAET.comArtificial Intelligence人工智能基于 BERT-CNN 的新闻文本分类的知识蒸馏方法研究*叶榕,邵剑飞,张小为,邵建龙(昆明理工大学 信息工程与自动化学院,云南 昆明 650500)摘 要:近年来,随着大数据时代进入人类的生活之后,人们的生活中出现很多无法识别的文本、语义等其他数据,这些数据的量十分庞大,语义也错综复杂,这使得分类任务更加困难。如何让计算机对这些信息进行准确的分类,已成为当前研究的重要任务。在此过程中,中文新闻文本分类成为这个领域的一个分支,这对国家舆论的控制、用户日常行为了解、用户未来言行的预判都有着至关重要的作用。针对新

2、闻文本分类模型参数量多和训练时间过长的不足,在最大限度保留模型性能的情况下压缩训练时间,力求二者折中,故提出基于 BERT-CNN 的知识蒸馏。根据模型压缩的技术特点,将 BERT 作为教师模型,CNN 作为学生模型,先将 BERT 进行预训练后再让学生模型泛化教师模型的能力。实验结果表明,在模型性能损失约 2.09%的情况下,模型参数量压缩约为原来的 1/82,且时间缩短约为原来的 1/670。关键词:新闻文本;BERT;CNN;知识蒸馏中图分类号:TP391.1 文献标志码:A DOI:10.16157/j.issn.0258-7998.223094中文引用格式:叶榕,邵剑飞,张小为,等.

3、基于 BERT-CNN 的新闻文本分类的知识蒸馏方法研究J.电子技术应用,2023,49(1):8-13.英文引用格式:Ye Rong,Shao Jianfei,Zhang Xiaowei,et al.Knowledge distillation of news text classification based on BERT-CNNJ.Application of Electronic Technique,2023,49(1):8-13.Knowledge distillation of news text classification based on BERT-CNNYe Rong,S

4、hao Jianfei,Zhang Xiaowei,Shao Jianlong(School of Information Engineering and Automation,Kunming University of Science and Technology,Kunming 650500,China)Abstract:In recent years,after the era of big data has entered human life,many unrecognizable text,semantic and other data have appeared in peopl

5、es lives,which are very large in volume and intricate in semantics,which makes the classification task more difficult.How to make computers classify this information accurately has become an important task of current research.In this process,Chinese news text classification has become a branch in th

6、is field,which has a crucial role in the control of national public opinion,the understanding of users daily behavior,and the prediction of users future speech and behavior.In view of the shortage of news text classification models with large number of parameters and long training time,the BERT-CNN

7、based knowledge distillation is proposed to compress the training time while maximizing the model performance and striving for a compromise between the two.According to the technical characteristics of model compression,BERT is used as the teacher model and CNN is used as the student model,and BERT

8、is pre-trained first before allowing the student model to generalize the capability of the teacher model.The experimental results show that the model parametric number compression is about 1/82 and the time reduction is about 1/670 with the model performance loss of about 2.09%.Key words:news text;B

9、ERT;CNN;knowledge distillation0 引言随着大数据时代的到来,今日头条、新浪微博和豆瓣等主流新闻媒体 APP 产生海量新闻文本,因此如何将这些新闻文本进行快速有效的分类对于用户体验乃至国家网络舆情控制是十分必要的。针对中文新闻文本分类任务,研究者提出许多分类算法和训练模型,证明深度学习分类方法的有效性。以 BERT1(Bidirectional Encoder Representation from Transformers)预训练模型为例:在文献2的实验中可以*基金项目:国家自然科学基金项目(61732005)8Artificial Intelligence人工智

10、能电子技术应用 2023年 第49卷 第1期得出,BERT-CNN 模型取得的效果最佳,但是从工程落地的角度来说,模型参数量过于巨大,仅仅一个 BERT 模型,参数就达一亿多。本文使用的是谷歌开源的面向中文的 BERT 预训练模型,占用内存大小为 325 Mb。另一方面,针对训练时间过长的缺点,以该实验为例,训练 18万条新闻文本数据消耗的时间为 3.5 h,很显然对于未来的模型工程落地还存在很大的差距。因此,本文在保证不下降过多模型的准确率的前提下,将 BERT-CNN 进行模型压缩,降低模型体积以及模型的训练时间,提升模型的泛化能力。本文创新点主要体现在:(1)对实验数据集进行了扩充处理,

11、提升模型泛化能力;(2)通过观察不同的 T 和 的组合对模型蒸馏性能的影响确定最优组合值而不是固定值;(3)蒸馏场景不再局限于传统情感分析(二分类),本实验面向 10 分类的文本分析,不同标签文本的蒸馏性能也不尽相同。1 BERT 的基础原理BERT1是谷歌提出的一种基于深度学习的语言表示模型。当 BERT 被发布时,与 11 种不同的自然语言处理测试相比,取得最好的效果,它是 NLP 的重要研究成果。BERT 是一种基于语义理解的深度学习双向预训练的 Transformer。BERT 主要由 5 个核心部分组成:预训练、网络深度、双向网络、Transformer 模型、语义理解。通过调研相关

12、文献不难发现 BERT 是一个可以用作特征提取的双向预训练的深度学习模型。可以通过微调运用于下游任务,包括分类、回归、机器翻译、问答系统等。2 CNN 的基本原理卷 积 神 经 网 络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(Deep Learning)的代表算法之一。CNN 主要由 3 个核心部分组成:输入层、隐含层、输出层。(1)输入层:卷积神经网络的输入层可以处理多维数据,例如,一维卷积神经网络的输入层接收一维或二维数组。它与其他神经网络算法类

13、似,使用的是梯度下降算法进行学习。(2)隐含层:卷积神经网络的隐含层中包含卷积层、池化层和全连接层。其中,卷积层是对输入数据进行特征提;池化层是在卷积层进行特征提取之后,对输出的特征图进行特征选择和信息过滤。(3)输出层和传统的前馈神经网络的输出层相同,在分类问题中它可以输出分类标签,在物体识别问题中它可以输出物体的中心坐标、大小和分类,在图像语义分割问题中它可以输出分类结果。3 模型压缩3.1 模型压缩的必要性模型压缩就是在尽可能不改变模型效果的情况下减少模型的尺寸,使得模型有更快的推理速度。压缩后的模型与原始的模型类似,此外,在计算时只需要使用小部分的资源。下面从不同的角度来说明模型的效果

14、。无论是在新闻文本分类场景还是新闻文本情感分析场景,BERT-CNN 模型取得的效果最佳,但是从工程落地的角度来说,模型参数量过于巨大,仅仅一个 BERT模型,参数就达一亿多。另一方面,在一些实验中也发现训练时间过长的缺点,例如新闻文本实验2,训练 18 万条新闻文本(短文本,字符平均长度为 2030)数据消耗的时间为 3.5 h,很显然对于未来的模型工程落地还存在很大的差距。因此,本文考虑将 BERT-CNN 进行模型压缩,在保证不下降过多模型的准确率的前提下,降低模型体积以及模型的训练时间,提升模型的泛化能力。3.2 模型压缩的相关技术在用于深度学习领域的模型压缩相关技术主要有 4种:低秩

15、分解、知识蒸馏、剪枝以及量化。3.2.1 低秩分解低秩分解(low-rank approximation)3主要目的是去除冗余和较少权值的参数,简单来说低秩分解是把原网络的连接权值矩阵当成满秩矩阵替换成若干个低秩矩阵,这几个低秩矩阵的组合逼近原始的连接权值矩阵,而每一个低秩矩阵又可分解成若干个较小矩阵的乘积,原先复杂而密集的连接权值矩阵也将被表示成较小规模简单矩阵的组合,从而实现结构简化的目的。但是该方法也存在两个缺点:(1)低秩分解无法压缩一些卷积核本身就过小的网络;(2)模型被压缩后,模型的精度受损,需要重新训练。3.2.2 剪枝剪枝46就是在几乎不影响性能的情况下将已经训练好的神经网络模

16、型里不重要的通道(神经元、连接权重和权重矩阵等)删除并对网络进行加速,剪枝主要有两种方式:(1)post-training 剪枝7:模型无需再训练并在模型预测之前直接剪枝,但容易导致网络关键节点误删从而难以复原原模型的效果;(2)training 剪枝8:在训练时剪枝,即使剪掉模型的重要内容也可以通过后续的模型训练恢复,但剪枝的自动化意味着更庞大的计算量。3.2.3 量化量化是将模型当中连续的权值进行离散化和稀疏化的过程。一般来说,神经网络建模的基本参数都是用宽度为 32 bit 的浮点型数来表达,但实际上实验结果并不需要保持那么高的精确度,因此就可以通过量化操作来降低模型的参数值。例如可以用

17、 0255 来代表 32 bit所代表的精度,从而达到牺牲少量精确度来减少每个权9Artificial Intelligence人工智能www.ChinaAET.com值占据的空间大小911。同时通过调研相关文献911,发现量化过程存在以下缺点:(1)操作复杂度大:在量化时需要做一些数值类型转换的处理,否则模型的精度损失会更严重;(2)通过微调的确能够减小精确度的损失,但是训练精度的确降低。3.2.4 知识蒸馏知识蒸馏的概念最早由 Hinton 等人12提出,该方法的核心思想就是先训练一个复杂的网络模型,然后通过训练好的模型参数值以及输出数据分布情况去训练一个更小更简单的网络。简单来说就是将大

18、模型(教师模型)的学习结果作为小模型(学生模型)的训练目标,最后将教师模型的“能力”泛化到学生模型上,就此泛化后的学生模型代替教师模型进行测试。3.2.5 模型压缩技术选择通过对模型压缩的一些相关主流技术的介绍,将各个方法通过以浅显易懂且直观的方法进行对比,如图 1所示。低秩分解:模型的轻量化主要通过替换权值矩阵的方法,但是当原模型存在一些本身就是低秩矩阵的卷积核便无法替换。剪枝:通过拆剪一些神经元等不重要的通道实现压缩模型,但有可能会造成误删,使原模型的参数损失较大。量化:实际操作需要大量的数值转换,操作难度大。知识蒸馏:在保证原模型的性能不下降太多的同时将模型做轻量化处理,但是对数据的分布

19、情况依赖性较大。综上所述,考虑到计算复杂度、设备支持环境、模型压缩的应用场景以及现今各个模型压缩技术的优化情况,选择“知识蒸馏”作为模型压缩的方法。4 知识蒸馏模型的原理以及构建方法4.1 知识蒸馏的原理假设在深度学习当中,从输入到输出存在一种未知的函数映射关系(黑匣子),那么,对于学生网络模型就需要通过原始数据集重新开始学习这个教师网络模型,也就是学生模型学习教师模型的泛化能力。一个例子:在之前2的新闻文本分类任务当中,当输入为“离谱!克罗德最后 5 秒超奇葩失误,葬送球队希望”模型训练的输出结果标签是“体育”,该结果表示样本在“体育”这个标签上有最大的概率值,同时,剩下的概率值则会分布到其

20、他的标签(如“娱乐”“股票”等)。这些概率一般都很小,但是仍旧存在一些相关的信息,在这个文本样本中,“娱乐”的概率比“股票”概率大。因此,模型输出的标签识别信息更为丰富,信息熵也就越大,而这里的信息熵就是学生模型需要向教师模型学习的“经验”。通过前面指出,“娱乐”和“股票”都有概率输出,但是“娱乐”的概率比“股票”概率大,不难看出不正确的标签的输出概率都非常小,这个概率趋近于 0,因此这些不正确的标签输出概率对交叉熵损失函数的作用较低,在损失函数的作用中并没有被体现出来。为了让这些被忽略的信息被学生模型学习到,因此就需要以下两种方法1314:(1)使用 softmax(sigmoid 函数)之

21、前的值,最后计算损失函数;(2)将温度参数 T 加入到损失函数的计算,温度参数值越高,模型输出的概率曲线越平缓,因此可以得到“软标签”,从而进一步训练学生模型软化过程的公式:qi=ezi/Tjezj/T(1)其中,q 表示学生模型需要学习的对象,也就是教师模型训练输出的软标签;z 表示教师模型在经过 softmax 之前的逻辑回归值;T 表示温度,T 的作用就是放大小概率标签所包含的信息,当 T=1 时,表示所含的信息没有被放大;当 T 越高,教师模型的输出概率分布情况就越平缓,同时,小概率标签所包含的信息也就会被放大,更有利于学生模型学习到这些小概率标签包含的信息。由于在训练过程中,教师模型

22、虽然训练学习过的数据比学生模型多,但也有可能会“出错”,为了避免将这种错误让学生模型学习到,就需要适当加入一些“硬标签(真实数据的概率分布情况)”来降低错误被传递给学生模型的概率。因此,知识蒸馏的损失函数就是硬标签的 损 失 函 数 与 软 标 签 的 损 失 函 数 的 结 合15,如 图 2所示。损失函数公式:L=L(soft)+(1-)L(hard)(2)其中,为权重,改变 时会对模型有不一样的影响,soft表示教师模型带着学生模型学习,然后将两者预测的结图 1模型压缩技术对比图 2蒸馏模型的损失函数结合过程10Artificial Intelligence人工智能电子技术应用 2023

23、年 第49卷 第1期果取交叉熵;hard 表示学生看着“参考答案(真实数据标签)”学习,同样取二者的交叉熵。4.2 知识蒸馏的训练过程知识蒸馏总体的算法流程1618如图 3 所示。(1)通过一些带标签的数据训练教师模型;(2)将训练好的教师模型计算出软标签;(3)在同个 T 的条件下同样用带标签的原始数据训练学生模型,然后将输出的结果与步骤(2)得到的软标签进行交叉熵损失;(4)令 T=1,和步骤(2)得到的软标签进行交叉熵损失;(5)将训练得到的学生模型进行原数据集预测,并与原始模型进行性能对比。5 实验设计5.1 实验模型设计根据传统知识蒸馏的流程,将教师模型和学生模型分别替换为文中2训练

24、好的 BERT 模型以及 TEXT-CNN模型,总体蒸馏模型流程如图 4 所示。基于以上的蒸馏模型,通过以下 3 种方法验证模型的有效性:(1)由于在蒸馏过程中,两个超参数:(T 和)是根据模型的表现情况进行确定的,因此需要观察不同的参数对模型性能的影响;(2)模型蒸馏后在同一个数据集的条件下与模型进行对比;(3)蒸馏后的模型在不同数据集的性能表现情况对比。5.2 实验数据集为了让 BERT-CNN 模型具有更好的泛化能力,对原数据集部分进行数据扩充以及数据增强操作,具体操作如下:(1)在原有的 THUCNEWS 数据集上,增加 CLUE 数据集,保留字符长度为 2030,总计 25 万条新闻

25、文本数据,10 个类别,每个类别 2.5 万条。将数据集按照 8:1:1的比例拆分成训练集、验证集和测试集。(2)采用 BERT 经典的 mask 方法,以一定的概率将mask随机替换文本当中的某一个单词。(3)基于 BERT 的 POS 标签将文本中的单词以一定概率替换为随机采样的单词。(4)随机从文本当中取出 n-gram 作为新的样本。5.3 实验环境设置采用计算机处理器为 AMD-R5-3600 六核十二线程,显卡为 NVIDIA-GTX-1060(6 GB),基于 Python-3.8,深度学习框架主要用的是 Pytorch-1.9.0+cu102GPU 版本,运行内存 16 GB,

26、由于显存容量限制,batch_size 设置为16,Epoch 设 置 为 3。编 程 软 件 使 用 的 是 PyCharm 社区版。5.4 评价指标为了能够更好地体现蒸馏后的模型的有效性和轻量化,在原有的评价体系上增加单位迭代次数所需要的时间(s)以及模型参数量两个评价维度。6 实验结果与分析6.1 实验结果(1)不同参数对模型性能的影响见表 1。通过表 1 可以看出:T=3,=0.5 时模型性能最佳,因图 3知识蒸馏流程图图 4BERT-CNN 蒸馏流程图表 1各个参数组合对蒸馏模型的影响(F1-Score)权重=0=0.1=0.2=0.3=0.4=0.5=0.6=0.7=0.8=0.9

27、=1T=10.752 20.753 50.755 60.757 50.759 30.763 70.769 60.771 90.772 10.795 50.815 1T=20.760 10.762 10.765 60.767 90.769 20.780 20.779 50.775 40.772 30.761 30.762 2T=30.762 20.768 70.770 10.779 80.780 40.798 10.797 30.783 30.774 50.762 30.754 4T=40.761 30.764 30.772 10.775 40.778 80.785 50.784 10.775

28、40.769 30.758 10.752 411Artificial Intelligence人工智能www.ChinaAET.com此选择这组参数作为蒸馏时的固定参数。T=1,=0:表示学生模型在没有教师模型的影响下训练真实数据集;T=1,=1:表示原教师模型单独在没有学生模型的影响下训练真实数据集,也就是原模型 BERT 未蒸馏的效果。同时,表 1 中实验结果表明:从 01 呈现上升的趋势,以 T=3 为轴,两边的 F1-Score 出现下降的趋势,其主要原因是 T 值越大,说明小概率标签所包含的信息被放大得越大,学生模型对于这种错误信息的关注度就越大,因此才导致在蒸馏过程当中 F1-Sc

29、ore 下降,故通过参数调整实验可知,一方面确定蒸馏时模型最佳性能参数,另一方面表明 T 值并不是越大性能越好。进一步提取表 1 的数据可知,学生模型、教师模型、蒸馏后的模型 F1-Score 的情况如表 2 所示。通过表 2 可计算出 BERT 经过 CNN 蒸馏后的性能损失(教师模型-蒸馏模型)/教师模型为 2.09%。(2)模型在不同标签文本中的表现对比见表 3。表 3 实验结果数据表明:每个模型在各个标签的表现都不尽相同,学生模型 CNN 性能表现最佳为“股票”标签,最差为“金融”标签;教师模型 BERT 性能表现最佳为“体育”标签,最差为“娱乐”标签;蒸馏后的模型性能表现最佳为“科技

30、”标签,最差为“体育”标签。其中,性能损失最大的为“体育”标签。(3)以测试集 2.5 万条数据为例,蒸馏前以及蒸馏后完成一次迭代的时间对比见表 4。6.2 结果分析(1)模型大小:教师模型参数量为 108.81 百万,经过蒸馏后的模型参数量为 1.32 百万(将 BERT 蒸馏到 CNN上,故计算 CNN 的参数量)。模型参数约为蒸馏前的 1/82 倍。(2)训练时间:在同个测试集的条件下,教师模型迭代一次所需时间为 623 s,经过蒸馏后的模型迭代一次所需时间为 0.93 s,时间压缩为蒸馏前的 1/670。(3)F1-Score:总 体 上,蒸 馏 后 的 性 能 损 失 只 有2.09

31、%,性能损失较小且已经十分接近蒸馏前的性能。值得注意的是,对于蒸馏后的模型,在不同标签的性能损失不同,性能损失最为严重的是“体育”标签,原因可能是被模型判定为“体育”的文本(例如“终于忍不住了!詹姆斯公开道歉!作出承诺”)包含其他标签(“社会”“娱乐”等)的文本,“詹姆斯”一词本身带有多种标签(“娱乐”“体育”等),在句子中蒸馏前其他标签的文本概率较小,而蒸馏后被放大,导致误判为其他标签。通俗而言,有些“体育”标签的词大概率会存在于“娱乐”标签的文本,但是“娱乐”标签的词出现在“体育”标签的文本概率就相对较小,这是一种社会现象,也是模型蒸馏后“体育”标签性能损失最严重的原因。7 结论本文针对实

32、验中2性能表现最优的 BERT-CNN 模型存在的参数量巨大、迭代时间过长的情况提出进行模型压缩,而后通过各种模型压缩技术的优缺点对比,考虑到本文的实验对象、需要压缩的模型特点以及实验环境,选择知识蒸馏作为更符合本文的压缩技术。而后对数据进行扩充再对 BERT 进行微调,将 BERT 作为教师模型蒸馏到 CNN 模型当中,然后通过多个维度对蒸馏后的模型进行评估,最后实验结果表明在模型性能损失约为 2.09%的情况下,模型参数量压缩约为原来的 1/82且时间缩短约为原来的 1/670,使改进的 BERT-CNN 模型进行工程应用落地成为可能。参考文献 1 何凯.基于自然语言处理的文本分类研究与应

33、用D.南京:南京邮电大学,2020.2 张小为,邵剑飞.基于改进的 BERT-CNN 模型的新闻文本分类研究J.电视技术,2021,45(7):5.3 ZHOU G,CICHOCKI A,XIE S.Fast Nonnegative matrix/tensor factorization based on low-rank approximationJ.IEEE Transactions on Signal Processing,2012,60表 2各模型实验结果(F1-Score)模型名称学生模型 CNN教师模型 BERTBERT-CNN 蒸馏模型F1-Score0.752 20.815 1

34、0.798 1表 3各模型在不同标签文本的实验结果(F1-Score)不同标签文本金融房产股票教育科技社会时政体育游戏娱乐学生模型CNN0.723 20.764 80.771 90.747 30.755 90.770 20.737 80.758 90.752 40.739 6教师模型BERT0.817 40.812 80.813 50.824 90.811 70.810 90.821 20.831 00.810 20.797 4蒸馏模型BERT-CNN0.789 80.805 50.795 10.797 70.808 90.806 90.799 40.788 80.797 80.791 1性能

35、损失/%3.376 60.898 12.261 83.294 70.344 90.493 32.654 75.078 21.530 50.790 1表 4蒸馏前后的迭代时间对比模型类型教师模型蒸馏后的模型迭代一次所需时间/s6230.9312Artificial Intelligence人工智能电子技术应用 2023年 第49卷 第1期(6):2928-2940.4 ABADI M,AGARWAL A,BARHAM P,et al.TensorFlow:large-scale machine learning on heterogeneous systemsJ.arXiv:1603.04467

36、v1,2016.5 DE JORGE P,SANYAL A,BEHL H S,et al.Progressive skeletonization:Trimming more fat from a network at initializationJ.arXiv:2006.09081,2020.6 CARREIRA-PERPINN M A,IDELBAYEV Y.“learning-compression”algorithms for neural net pruningC/IEEE Conference on Computer Vision and Pattern Recognition,20

37、18.7 LEE N,AJANTHAN T,GOULD S,et al.A signal propagation perspective for pruning neural networks at initializationC/Learning Representations,2019.8 LEE N,AJANTHAN T,HS TORR P.Snip:single-shot network pruning based on connection sensitivityC/ICLR,2019.9 BANNER R,NAHSHAN Y,HOFFER E,et al.Post-training

38、 4-bit quantization of convolution networks for rapid-deploymentJ.https:/arXiv.1810.05723,2018.10 CHOUKROUN Y,KRAVCHIK E,YANG F,et al.Low-bit quantization of neural networks for efficient inferenceC/IEEE/CVF International Conference on Computer Vision Workshop(ICCVW),2019.11 FANG J,SHAFIEE A,ABDEL A

39、 H,et al.Post-training piecewise linear quantization for deep neural networksJ.arxiv:2002.00104,2020.12 HINTON G,VINYALS O,DEAN J.Distilling the knowledge in a neural networkJ.Computer Science,2015,14(7):38-39.13 YIM J,JOO D,BAE J,et al.A gift from knowledge distillation:fast optimization,network mi

40、nimization and transfer learningC/IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2017.14 TANG R,LU Y,LIU L,et al.Distilling task-specific knowledge from BERT into simple neural networksJ.arXiv:1903.12136,2019.15 HAIDAR MA,REZAGHOLIZADEH M.Text KD-GAN:text generation using knowledge

41、 distillation and generative adversarial networksJ.arXiv:1905.01976,2019.16 ROMERO A,BALLAS N,KAHOU S E,et al.FitNets:hints for thin deep netsJ.arXiv:1412.6550,2014.17 CHENG Y,WANG D,ZHOU P,et al.A survey of model compression and acceleration for deep neural networksJ.arXiv:1710.09282,2017.18 ZAGORU

42、YKO S,KOMODAKIS N.Paying more attention to attention:improving the performance of convolutional neural networks via attention transferJ.arXiv:1612.03928,2016.(收稿日期:2022-06-17)作者简介:叶榕(1998-),女,硕士,主要研究方向:自然语言处理。邵剑飞(1970-),通信作者,男,硕士,副教授,主要研究方 向:通 信 与 信 息 系 统,E-mail:。张小为(1995-),男,硕士,主要研究方向:自然语言处理。扫码下载电子文档13



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有