SteveHawk's Blog

缺陷检测文献综述



一. 引言

1.1 简介

在工业生产中,产出产品的质量控制是非常重要的一环,直接影响了最终产品的质量和声誉。质量控制中的一个重点,在于检测产品的表面是否存在缺陷,是否能够符合最终标准。不同的产品中,我们能见到非常多种类的缺陷,例如变形、压伤、划伤、凸包、污渍,等等。

传统的工业生产采用的缺陷检测方法通常为人工检查,由生产线上的工人对产品逐个或抽样用肉眼和仪器查看。这一方法消耗大量人工并且效率低下,更重要的是人眼判断往往过于主观,难以统一客观标准。在一些产量巨大的现代自动化生产流水线上,人工检查显然是一个完全不可行的方法。随着计算机硬件和计算机视觉技术的发展,使用计算机视觉进行产品缺陷检测成为了一个低成本且高可靠性的方法。

1.2 任务定义

基于计算机视觉的缺陷检测指的是使用产品在某些电磁波波段的成像,通过计算机算法,来判断是否存在缺陷。在图像采集阶段,根据成像所使用的波段,可以大体分为可见光成像、红外成像、X光成像、毫米波成像等。具体方法需要根据产品特性和实际需求来选择,但是由于大部分的产品特性和成本关系,缺陷检测中最常见的是可见光成像,也就是普通的摄像头。本文将仅围绕可见光成像的缺陷探测方法展开,其他波段的检测方法可能略有不同。

在检测阶段,使用的检测算法主要分为两大类:传统算法以及机器学习算法。检测的目标首先是判断目标产品是否存在缺陷,根据需求可以进一步拓展为缺陷的类型判断,以及获取缺陷的具体位置。本文将就此话题展开,讨论缺陷检测的难点,接着介绍及分析一系列解决方案。

二. 缺陷检测难点

2.1 缺少数据

缺少数据,准确的来说是缺少缺陷样本,是训练缺陷检测模型会遇到的一大难题。对于绝大部分的生产线,拥有缺陷的次品样本仅占所有产品的极少一部分,这使得训练数据的类别极端不均衡。就算样本总量达到较大的数值,缺陷样本仍然只有寥寥无几,在普通的监督学习中非常容易导致模型的训练过程难以拟合,模型的泛化能力也很难达到理想水平。这将直接使得最终模型的检测结果准确率低下。

2.2 标注困难

数据标注在绝大部分监督学习训练中都是一个难题。首先是高昂的人工成本,这使得数据集的标注成本随着数据集的大小飞速上涨。当数据集大小达到令人满意时,标注成本可能已经不可承受了。另外,在缺陷检测问题中,由于绝大部分缺陷都非常细微,这个特性导致人工标注的难度相较普通的图像分类和目标探测进一步提高,而最终人工标注结果的准确率也未必能达到理想水平。这进一步导致了缺陷样本的短缺,并且不够准确的标注数据也将进一步导致模型结果不尽人意。

2.3 缺陷特征识别困难

上一段中提到了缺陷通常较为细微这一特性。不只是对于人眼,这对机器视觉同样是一个挑战。使用传统算法检测时,人工指定的图像特征往往难以提取到这些细微的区别,并且非常容易受到拍摄条件例如光线、角度、白平衡等的影响,算法的健壮性难以保证。使用机器学习算法检测时,模型也会面临更大的挑战,尤其是一些已知对于小目标探测准确率较差的模型,在这个问题上将难以获得令人满意的结果。

三. 缺陷检测方法

3.1 应对数据缺少

3.1.1 数据增强

Xu X. 等人 [1] 提出了一种基于小样本驱动的卷积神经网络(Small Data-Driven Convolution Neural Networks, SDD-CNN)检测方法,在常规的数据处理和训练阶段之间加入了数据增强的操作。首先,对样本使用标签扩充(Label Dilation, LD)方法,把数量较少的类别随机扩充到和数量最多的类别相同的大小。这样一来,样本类别不均衡的问题就解决了,并且数据集的随机性能够继续保证。

在标签扩充后,他们继续对数据使用半监督的数据增强(Semi-Supervised Data Augmentation, SSAD)算法。在一般的数据增强场景下,随机切割、缩放、旋转、翻转、增加噪音等方法都非常常见。然而缺陷检测的场景下,缺陷往往只占样本图像的极小一部分,对缺陷样本随机切割后有较大概率会得到一个无缺陷的图像,从而产生标签的不一致。SSAD 方法使用第一步标签扩充后的数据单独训练了一个 GoogLeNet 分类模型,然后通过遮挡实验来生成所有样本在模型最上层卷积层中的特征响应热度图(characteristic response intensity map)。在响应强度较大的范围内(即缺陷所在位置)随机挑选三个点作为随机切割的中心,实施随机切割。这样一来,SSAD 就可以保证随机切割出的图片和原样本是同样的标签,并且能够有效的提升数据集的丰富程度。

3.1.2 无监督学习

无监督学习指的是不需要训练,或者是不需要对训练集进行标签标注的方法。难以标注的缺陷数据显然非常适合这一类方法。

Mei S. 等人 [2] [3] 提出了基于多尺度卷积降噪自编码器(Multiscale Convolutional Denoising Autoencoder, MSCDAE)的检测方法。在训练阶段,将没有缺陷的图片使用高斯模糊生成高斯金字塔,然后对高斯金字塔的每一层分别训练一个卷积降噪自编码器(Convolutional Denoising Autoencoder, CDAE)对图片进行压缩重构。训练完成后,将有缺陷的图片同样送入高斯金字塔,然后每一层均使用对应训练好的自编码器进行重建,生成没有缺陷的图片。对比每一层的图片差异并结合这些结果,就可以获得最终的缺陷分隔图。

Zhao Z. 等人 [4] 则在自编码器的基础上引入了生成式对抗网络(Generative Adversarial Networks, GAN),提出了一种基于正样本的缺陷检测方法。这种方法把生成式对抗网络的生成器替换成了一个自编码器,自编码器类似上一段同样对输入的图像做压缩重建。重建后的图像不仅需要最小化和原图的差距,同时还需要骗过判别器,尽可能和原数据集的数据分布相似。训练完成后,输入的缺陷图像将会被重建为没有缺陷的样子,这时再结合局部二值模式(Local Binary Patterns, LBP)算法求两者的差别,即可获得缺陷的位置。

Hu G. 等人 [5] 使用了深度卷积生成式对抗网络(Deep Convolutional Generative Adversarial Networks, DCGAN),同样提出了仅基于正样本的无监督检测算法。这个算法在正常的生成式对抗网络的生成器和判别器基础上引入了额外的两个网络,逆变器 E 和浅训练的判别器 D。在训练完成后,缺陷图像会输入浅训练的 D 模型,生成一个缺陷的概率图;同时缺陷图像会输入 E 映射为一个随机向量,然后输入生成器生成重建图像,缺陷图像与重建图像相减可得一张残差图。结合两条路径的概率图和残差图,就可以最终获得缺陷的位置图。

上述三个方法都仅需要使用无缺陷的图像进行训练,无须标注。并且无缺陷图像往往非常容易获得且数量众多,因此这些应用了无监督学习的方法能够轻易解决缺少数据和标注困难的问题。

3.1.3 半监督学习

半监督学习会在训练中结合少量带标签的数据和大量不带标签的数据。这同样能够解决标注困难的问题。

Di H. 等人 [6] 为缺陷分类提出了一种基于卷积自编码器(Convolutional Autoencoder, CAE)和半监督生成式对抗网络(semi-supervised Generative Adversarial Networks, SGAN)的方法。其中半监督生成式对抗网络的部分借鉴了 Odena A. [7] 的方法,在判别器中引入了额外的分类任务。输入网络训练的图像共有 N 个类别,生成式对抗网络的判别器将会输出 N+1 类的结果,包含对这 N 个类别的分类和一个真假的判断,而非正常情况下的一类(真/假)。引入这样的半监督方案有效利用了大批数据中的少量标注信息来完成目标。

Gao Y. 等人 [8] 同样研究了缺陷分类问题,提出了伪标签卷积神经网络(Pseudo-Label Convolutional Neural Network, PLCNN)方法。这种方法使用的数据集并不是完全标注,只有部分样本有对应标签。训练时,未标注的数据会通过最大识别概率打上伪标签参与训练,伪标签数据的损失值会以一定比重参与整体的损失。随着训练进行,该权重会逐渐提升。最终结果表明,这一方法可以有效利用没有标签的数据来进行训练,从而很好的解决了标注困难的问题。

Akcay S. 等人 [9] 则为 X 光安检仪图像的异常探测提出了 GANomaly 方法。该方法结合了对抗自编码器(Adversarial Auto-Encoders, AAE)和生成式对抗网络,把自编码器作为生成式对抗网络的生成器部分,另外再引入一个判别器,共三个子网络。训练阶段,自编码器使用了编码器-解码器-编码器的组合方式进行对抗训练,并且额外再使用生成式对抗网络的判别器来计算重建误差。训练完成后在测试阶段,由于训练集中并不包含异常图像,拥有异常的图像在输入自编码器后将会无法正确重建。比较原图和重建图的编码,若超过一定阈值则判定为异常图像。该方法原本用于 X 光图像的异常探测,但有很大的希望能够在可见光的缺陷检测中也获得较好结果。训练过程仅需要使用无异常的正样本图像,因此解决了负样本缺少的问题。

3.1.4 主动学习

Feng C. 等人 [10] 在 ResNet 的基础上使用了主动学习(Active Learning, AL)的方法来进行缺陷探测和分类。主动学习系统在训练初期只会在一个较小的数据集中训练,随后再加入更多未经标注的数据。系统并不需要所有数据都拥有标签,而是会在训练中主动发现一部分高标注价值的样本,发给专家进行标注,然后继续训练。在这个方法中,有两类的样本被认为是高价值样本:一是分类结果的概率接近 0.5,即神经网络高度不确定的样本;二是按照认定为缺陷的可能性对所有样本进行排序,排名靠前的样本,即神经网络最认为是缺陷的样本。该方法类似于半监督学习,不需要对所有的数据进行标注,解决了标注困难的问题。

3.2 应对特征细微

3.2.1 目标识别

Ma L. 等人 [11] 以及 Wang T. 等人 [12] 分别在不同的缺陷探测问题中运用了滑窗 CNN 的目标识别方法。在一张较大的图像上,一个较小的滑窗(例如 128*128 大小)以一定间隔滑动取样,将小样本输入训练好的 CNN 进行分类。将预测标签为缺陷的区域组合,即可得到缺陷所在的位置。这一方法较为简单,容易训练也容易部署,然而缺点在于获得的缺陷位置较为粗略,无法获得更精确的、乃至像素级别的位置判定。

Cha YJ. 等人 [13] 则在缺陷探测问题上使用了 Faster-RCNN 模型。相较于上一段的滑窗 CNN 方法,Faster-RCNN 会在第一阶段通过 RPN(Region Proposal Network)来提出候选的目标区域,然后再将目标区域送入骨干网络进行分类。由于 RPN 可以快速的筛选出不同大小的兴趣区域,Faster-RCNN 比滑窗的方法拥有更好的性能,而且能更准确的判定缺陷所在的位置。

Li J. 等人 [14] 使用了 YOLO(You Only Look Once)来进行缺陷探测。他们对原本的 YOLO 进行了魔改,把原本末端的全连接层替换成了卷积层来输出最终预测结果。YOLO 顾名思义是一个单阶段的目标探测模型,图像在输入网络后将一次性完成提出兴趣区域和分类。比起前两段的两阶段探测方法,这显然会更快,再加上原本的全连接层被替换为相较更轻量的卷积层,全卷积的 YOLO 在性能上将会非常优秀。

Chen J. 等人 [15] 更进一步,组合了多个网络进行多阶段的缺陷检测。他们提出的方法共有三个阶段:首先通过一个修改了卷积层尺寸的 SSD(Single Shot Detector)网络进行待检测工件的定位,得到位置后切割出该工件的子图;第二阶段使用 YOLO 网络对工件上的螺丝进行定位,分别切割出对应的子图;第三阶段使用一个轻量级的 GoogLeNet 对这些螺丝的子图进行分类,判断是否为缺陷。通过这样的多个网络级联,有效提升了对较小目标的检测准确率。

3.2.2 图像分割

Huang Y. 等人 [16] 使用了图像分割的方法来解决缺陷探测的问题。在经典的端到端语义分割网络 U-Net 的基础上,他们加入了额外的 MCue 和 Push 两个改动,提出了 MCuePushU 模型。MCue 是在特定问题上根据经验提出的传统算法,使用 MCue 可以生成粗略的缺陷高亮图。将原图和 MCue 的输出共同输入 U-Net,为模型分割提供了额外的先验知识。在 U-Net 中间生成的特征向量也被额外送入一个简单的全连接网络 Push,用于绘制缺陷区域的边框。结合 U-Net 和 Push 的输出,即可得到带有边框的像素级缺陷分割图。这一方法能够做到像素级的探测缺陷,并且由于 U-Net 全卷积的特性,该方法拥有相当好的性能。

Qiu L. 等人 [17] 同样使用了图像分割。他们使用了另一个语义分割网络 FCN(Fully Convolutional Networks)用于分割和探测。这个方法单独训练了两个 FCN 分别用于两阶段的检测:第一阶段的 FCN 类似于传统的形态,图像输入后生成一张对应的分割图;第二阶段的 FCN 去掉了升采样的部分,将特征向量直接进行评分,第一阶段获得的疑似缺陷的兴趣区域将会被切割后送入第二阶段的 FCN 进行打分,以过滤错误分割的部分。最后对分割图基于原图做导向图滤波(Guided Filter),获得最终结果。这一方法同样拥有全卷积图像分割的优点,并且多阶段的检测使其能够很好的降低结果的假阳性,有效提升准确性。

3.2.3 自编码器

缺陷探测中,产品表面的外观往往都是有一定规律性的。由于自编码器能够压缩并提取图像特征的特性,这一方法在缺陷检测中非常常用。

Tao X. 等人 [18] 在缺陷探测任务中使用了级联自编码器(Cascade Autoencoder, CASAE)的方法。这个方法顺序连接了两个同样结构的自编码器:原始图像输入第一个自编码器后,输出同样分辨率的缺陷概率图;这个概率图紧接着输入第二个自编码进一步微调。相较于普通的自编码器,编码器部分的最后增加了 1*1 卷积和 Softmax 层以输出概率图。通过级联两个自编码器,CASAE 实现了类似于上一节图像分割的效果。

Mei S. 等人 [2] [3] 提出的 MSCDAE 方法在 3.1.2 节已有粗略介绍。在三层高斯金字塔中分别训练三个卷积降噪自编码器,各自比较原始图和生成的重建图得到缺陷的残差图。结合三层的残差图即可得到最终的缺陷分割结果。他们引入了降噪自编码器,即在训练阶段对输入图像人为添加噪声,有效的提升了算法的健壮性,使得自编码器更好的捕获图像特征,提高准确性。

自编码器与生成式对抗网络结合也是一个热门的方法。

Zhao Z. 等人 [4] 提出的方法已在 3.1.2 有过介绍。这个方法把自编码器直接作为了生成式对抗网络的生成器,利用判别器与之博弈,进一步提升自编码器重建的效果。

Di H. 等人 [6] 的方法同样于 3.1.2 节进行了介绍。不同于 Zhao Z. 等人 [4],他们提出的方法把自编码器的编码器作为了生成式对抗网络的判别器。训练的第一阶段会先完成对自编码器的训练,保留编码器作为特征提取网络。在编码器的输出层之后再加入一个 Softmax 层,就形成了第二阶段生成式对抗网络的判别器。利用编码器能够有效提取图像特征的特性,对判别器进行预训练,有效提升了最终的分类准确性。

Akcay S. 等人 [9] 提出的 GANomaly 模型则在 3.1.3 节有过了介绍。他们为自编码器使用了特殊的对抗训练方法,通过编码器-解码器-编码器的组合,为损失函数额外加入了编码器输出特征向量的 L2 距离。这样的对抗训练对自编码器加上了更多的约束,进一步提高精确度。除此之外,他们也引入了生成式对抗网络。类似于 Zhao Z. 等人 [4] 的方法,编码器-解码器组合的自编码器整体被视为了生成式对抗网络的生成器部分,通过判别器的拮抗来进一步提高准确率。在测试阶段,他们使用的检测方法并不是比较原图和重建图,而是比较了原图和重建图各自编码的 L1 距离(类似于本段开头提到的额外损失),超过一定阈值判定为异常图像。这一方法有效利用了编码器特性过滤噪声,提升了算法的稳健性。

3.2.4 多尺度特征

由于缺陷通常都非常微小,而待检测的图像往往有较大或有较多的像素,在大尺度的输入中探测小尺度细节对目标探测和语义分割算法是一个重大的挑战。合理利用多尺度特征是解决这个问题的一个明确的方向。

Chen J. 等人 [15] 的方法在 3.2.1 节中已有所介绍。他们级联了三个网络:SSD,YOLO 和简化版的 GoogLeNet,先检测较大的支架,然后检测支架上的紧固件,最后再对紧固件进行缺陷检测。使用如此由粗到细的多尺度模型结构进行探测,有效解决了缺陷尺度过小的问题,获得了不错的准确度。

上一节 3.2.3 的开头提到了 Tao X. 等人 [18] 使用的 CASAE 方法。在自编码器结构中,为了增加网络对于多尺度信息的感知,他们添加了跳跃连接,把多尺度的特征从编码器直接传到对应深度的解码器中,有效结合了多尺度的特征。除此以外,他们还在编码器部分的卷积层中使用了空洞卷积,相较传统卷积有效提升了网络的感受野,从而进一步提升了效果。

Mei S. 等人 [2] [3] 提出的 MSCDAE 方法(已于 3.1.2 和 3.2.3 节中介绍)则更是非常明确的运用了高斯金字塔来获得多尺度特征。三个自编码器分别在高斯金字塔的三层进行训练,在三个不同尺度上分别对缺陷进行捕获。结合三个尺度做检测,很好的解决了缺陷过于细微的问题。

3.2.5 生成式对抗网络

由于生成式对抗网络能够自行学习数据分布进行模仿的特性,使用它进行无监督/半监督学习是一个相当热门的方向。由于这个原因,本节将介绍的四种方法均已于 3.1.2 和 3.1.3 节中提到过了。同时,自编码器能够无监督的进行图像信息压缩提取的特性也与生成式对抗网络能够很好的组合,因此本节四种方法中的三种均于 3.2.3 节提到过,没有涉及的 [5] 虽然没有明确使用自编码器,但是仍然有类似的思想呈现。

Zhao Z. 等人 [4] (3.1.2,3.2.3)把生成式对抗网络的生成器直接替换为了一个自编码器。生成器和判别器博弈的原本目的是为了让生成器生成足够真实、足够符合原始数据分布的数据,这里作用于自编码器的解码器输出,为自编码器提供了另一层约束,使其能够重建出更加准确的图像。

Di H. 等人 [6] (3.1.3,3.2.3)把事先训练好的自编码器的编码器部分用作了生成式对抗网络的判别器。生成式对抗网络一向被诟病的一个问题在于难以训练,交替训练两个网络使其博弈的特点使得整个训练过程对超参数相当敏感,一不小心就没法收敛。使用自编码器对判别器进行预训练无疑极大的缓解了这一问题。不仅如此,在进入生成式对抗网络的训练阶段后,原先自编码器依旧会接受梯度下降的参数更新以保证自编码器的功能。于是自编码器的重建过程进一步成为了训练生成式对抗网络过程中的一个正则项,进一步提升训练效果。

Akcay S. 等人 [9] (3.1.3,3.2.3)提出的 GANomaly 方法中,生成式对抗网络的作用则类似于 [4],为自编码器的训练提供进一步的约束。在训练过程中,他们为判别器判断的重建图误差使用了一种非常规的计算方式:正常情况下,使用判别器比较原图和重建图的误差将直接使用判别器输出结果(一个 0-1 的数值)的差距。然而在 GANomaly 方法中,这一误差的计算采用了判别器的中间层表示:把原图和重建图在判别器中的中间层表示提取出来,求这两个特征表示层的 L2 距离,即得到两张图的误差。这样的计算能够更精确的比较两张图的隐藏细节差距,进一步提升模型的精度。

Hu G. 等人 [5] (3.1.2)则创新性的在生成器和判别器之外引入了逆变器 E 和浅训练的判别器 D。训练阶段,首先训练生成器和判别器两个网络,使得生成器能够学习到无缺陷样本图像的数据分布。作者为此引入了浅训练和完全训练两个阶段:浅训练阶段使用了较小的学习率,且在生成器生成的图像上加入额外的噪声,当判别器训练到一定阈值即停止。浅训练得到的判别器 D 就可以作为一个缺陷检测器了。浅训练完成后,将会继续按照正常的训练流程对生成器和判别器进行完全训练。在得到生成器、判别器和浅训练判别器 D 后,将会额外训练一个逆变器模型 E,将无缺陷样本重新映射回输入生成器的隐空间。测试阶段,缺陷图输入浅训练 D 的输出是一个缺陷的概率图;缺陷图通过逆变器 E 再输入生成器后可生成无缺陷的重建图,两者相减得到缺陷的残差图。结合这两个结果即可得到最终结果。其中,逆变器 E 和生成器的关系非常类似于自编码器,只不过训练顺序和思路和传统自编码器正好相反。如此引入额外的两个子模型为最终的检测结果提供了更多的约束,使结果更加精确。

四. 小结

产品缺陷检测在工业生产的质量控制环节一直有着相当的重要性,因此各行各业都在努力寻求更精准且更省力的解决方案。计算机技术的飞速发展为自动化的缺陷检测提供了良好的基础,计算机视觉等算法的研究则为更精确的检测铺平了道路。

本文结合近几年的计算机视觉研究文献,总结了多种应对缺陷检测难点的算法和技巧。我之后将结合无监督学习、卷积降噪自编码器、生成式对抗网络等方法,开展毕设项目的设计,完成一个特定场景下的缺陷检测系统。具体设计细节将在毕设论文中进一步展开。

参考文献

[1] Xu X, Zheng H, Guo Z, et al. SDD-CNN: Small Data-Driven Convolution Neural Networks for Subtle Roller Defect Inspection[J]. Applied Sciences, MDPI AG, 2019, 9(7): 1364.

[2] Mei S, Yang H, Yin Z. An unsupervised-learning-based approach for automated defect inspection on textured surfaces[J]. IEEE Transactions on Instrumentation and Measurement, 2018, 67(6): 1266-1277.

[3] Mei S, Wang Y, Wen G. Automatic fabric defect detection with a multi-scale convolutional denoising autoencoder network model[J]. Sensors, 2018, 18(4): 1064.

[4] Zhao Z, Li B, Dong R, et al. A Surface Defect Detection Method Based on Positive Samples[C]//Pacific Rim International Conference on Artificial Intelligence. Springer, Cham, 2018: 473-481.

[5] Hu G, Huang J, Wang Q, et al. Unsupervised fabric defect detection based on a deep convolutional generative adversarial network[J]. Textile Research Journal, 2019: 0040517519862880.

[6] Di H, Ke X, Peng Z, et al. Surface defect classification of steels with a new semi-supervised learning method[J]. Optics and Lasers in Engineering, 2019, 117: 40–48.

[7] Odena A. Semi-supervised learning with generative adversarial networks[J]. arXiv preprint arXiv:1606.01583, 2016.

[8] Gao Y, Gao L, Li X, et al. A semi-supervised convolutional neural network-based method for steel surface defect recognition[J]. Robotics and Computer-Integrated Manufacturing, 2020, 61: 101825.

[9] Akcay S, Atapour-Abarghouei A, Breckon T P. Ganomaly: Semi-supervised anomaly detection via adversarial training[C]//Asian Conference on Computer Vision. Springer, Cham, 2018: 622-637.

[10] Feng C, Liu M Y, Kao C C, et al. Deep active learning for civil infrastructure defect detection and classification[M]//Computing in civil engineering 2017. 2017: 298-306.

[11] Ma L, Lu Y, Nan X F, et al. Defect Detection of Mobile Phone Surface Based on Convolution Neural Network[J]. DEStech Transactions on Computer Science and Engineering, 2017 (icmsie).

[12] Wang T, Chen Y, Qiao M, et al. A fast and robust convolutional neural network-based defect detection model in product quality control[J]. The International Journal of Advanced Manufacturing Technology, 2018, 94(9-12): 3465-3471.

[13] Cha Y J, Choi W, Suh G, et al. Autonomous structural visual inspection using region‐based deep learning for detecting multiple damage types[J]. Computer‐Aided Civil and Infrastructure Engineering, 2018, 33(9): 731-747.

[14] Li J, Su Z, Geng J, et al. Real-time detection of steel strip surface defects based on improved yolo detection network[J]. IFAC-PapersOnLine, 2018, 51(21): 76-81.

[15] Chen J, Liu Z, Wang H, et al. Automatic defect detection of fasteners on the catenary support device using deep convolutional neural network[J]. IEEE Transactions on Instrumentation and Measurement, 2017, 67(2): 257-269.

[16] Huang Y, Qiu C, Yuan K. Surface defect saliency of magnetic tile[J]. The Visual Computer, 2020, 36(1): 85-96.

[17] Qiu L, Wu X, Yu Z. A high-efficiency fully convolutional networks for pixel-wise surface defect detection[J]. IEEE Access, 2019, 7: 15884-15893.

[18] Tao X, Zhang D, Ma W, et al. Automatic metallic surface defect detection and recognition with convolutional neural networks[J]. Applied Sciences, 2018, 8(9): 1575.


#courses
本文总字数 8340
本文阅读量
本站访客量

↪ reply by email