Utilisation de l'ISU
Rapports scientifiques volume 12, Numéro d'article : 11604 (2022) Citer cet article
1991 Accès
2 Citations
Détails des métriques
La détection de défauts de surface est un processus vital dans la production industrielle et un axe de recherche important en vision par ordinateur. Bien que les méthodes actuelles de détection de défauts d'apprentissage en profondeur basées sur la vision par ordinateur puissent atteindre une grande précision de détection, elles sont principalement basées sur l'apprentissage supervisé. Ils nécessitent de nombreux échantillons de défauts pour former le modèle, ce qui n'est pas compatible avec la situation actuelle dans laquelle les échantillons de défauts industriels sont difficiles à obtenir et coûteux à étiqueter. Nous proposons donc un nouveau modèle de détection de défauts de petits échantillons non supervisé-ISU-GAN, qui est basé sur l'architecture CycleGAN. Une connexion de saut, un module SE et un module Involution sont ajoutés au générateur, permettant d'améliorer considérablement la capacité d'extraction de caractéristiques du modèle. De plus, nous proposons une méthode de segmentation des défauts basée sur SSIM qui s'applique à la détection de défauts basée sur GAN et peut extraire avec précision les contours des défauts sans avoir besoin d'un post-traitement redondant de réduction du bruit. Des expériences sur l'ensemble de données DAGM2007 montrent que l'ISU-GAN non supervisé peut atteindre une précision de détection plus élevée et des profils de défauts plus fins avec moins d'un tiers des données d'apprentissage non étiquetées que le modèle supervisé avec l'ensemble d'apprentissage complet. Par rapport aux modèles de segmentation supervisés UNet et ResUNet++ avec plus d'échantillons d'apprentissage, notre modèle améliore la précision de détection de 2,84 % et 0,41 % respectivement et le score F1 de 0,025 et 0,0012 respectivement. De plus, le profil prédit obtenu à l'aide de notre méthode est plus proche du profil réel que les autres modèles utilisés pour la comparaison.
Les produits peuvent présenter des défauts de surface dans le processus de production industriel réel en raison d'erreurs de machine, d'erreurs de travail et de problèmes de processus de production. Les défauts de surface affectent non seulement l'esthétique et les performances du produit, entraînant une baisse de la satisfaction de l'utilisateur, mais peuvent également constituer un danger pour la sécurité, constituant une menace pour la vie et la propriété de l'utilisateur. Par conséquent, la détection des défauts de surface est une partie essentielle de la production industrielle.
Pendant longtemps, le processus de défaut de surface industriel s'est appuyé sur un travail manuel, qui est non seulement chronophage et laborieux mais aussi très subjectif, qui ne peut répondre aux besoins de la production industrielle avec une efficacité et une précision élevées. Par conséquent, la technologie de détection automatisée des défauts basée sur la vision par ordinateur a été une direction de recherche plus populaire. Actuellement, les méthodes automatisées de détection de défauts basées sur la vision artificielle comprennent principalement des méthodes traditionnelles et des méthodes d'apprentissage en profondeur.
Les méthodes traditionnelles reposent sur les informations structurelles de l'image pour détecter les défauts. Cela nécessite généralement des efforts humains pour concevoir l'algorithme de détection correspondant en fonction des caractéristiques du défaut et du scénario d'application réel. Les méthodes traditionnelles actuelles de détection des défauts basées sur la vision artificielle comprennent principalement le filtrage de Gabor1, l'algorithme de modèle binaire local amélioré (MB-LBP)2, l'algorithme de Sobel amélioré3, etc. La plupart des méthodes de vision traditionnelles reposent fortement sur des caractéristiques de défaut spécifiques et sont difficiles à réaliser. détection de bout en bout. Le temps et le coût économique de la conception manuelle de différents algorithmes d'inspection pour différents défauts sont très élevés et nécessitent un grand nombre de personnes ayant une forte expertise, ce qui est difficile pour répondre aux exigences d'efficacité et de coût de la production industrielle. De plus, en pratique, les algorithmes de détection basés sur les caractéristiques des défauts vus par l'œil humain sont sensibles aux interférences dues aux changements de l'environnement extérieur, ce qui rend difficile l'obtention d'une robustesse satisfaisante.
Avec l'avènement de l'apprentissage en profondeur, divers algorithmes basés sur les réseaux de neurones convolutifs (CNN) ont obtenu des résultats surprenants dans de nombreux sous-domaines de la vision artificielle. Par rapport aux méthodes traditionnelles de détection des défauts, les méthodes d'apprentissage en profondeur éliminent principalement le besoin de modéliser manuellement les caractéristiques des défauts et permettent une détection de bout en bout. Ils présentent également les avantages d'une précision de détection élevée, d'une convergence rapide et d'une robustesse.
Plus précisément, les méthodes standard d'apprentissage en profondeur pour la détection des défauts comprennent des méthodes de détection de cible, des méthodes de segmentation sémantique et de nouvelles méthodes de détection génératives antagonistes basées sur un réseau.
La détection d'objets est une tâche fondamentale dans le domaine de la vision industrielle. Dont le but est de détecter la position ou la catégorie d'un objet spécifique dans une image donnée. Spécifiquement dans l'application de la détection de défauts, la zone où se trouve le défaut est utilisée comme objet à détecter. Les réseaux de détection standard dans le domaine de la détection des défauts sont SSD4, YOLO5, Faster R-CNN6, etc. Dans le domaine de la détection des défauts, les modèles de détection d'objets fonctionnent généralement bien en termes de vitesse et de précision. Cependant, l'impossibilité d'extraire des profils de défauts reste un inconvénient majeur car un profil fin peut aider à explorer les causes des défauts dans l'industrie.
Contrairement à la classification au niveau de l'objet pour la détection d'objets, la segmentation sémantique poursuit une classification au niveau des pixels. Contrairement à la détection d'objets, qui n'a besoin que de donner des cadres de prédiction au niveau de l'objet, la segmentation sémantique nécessite une prédiction de classification pour chaque pixel de l'image. Ainsi, l'utilisation de réseaux de segmentation sémantique pour la détection de défaut localise le défaut et segmente le contour réel du défaut. Les principaux réseaux de segmentation actuels dans la détection des défauts sont Mask R-CNN7, UNet8, SegNet9, etc. Les modèles de segmentation sémantique peuvent extraire les contours des défauts, mais comme ils classent sur une base par pixel, ils nécessitent un grand nombre d'échantillons d'apprentissage et d'annotations pixel par pixel.
De nombreuses techniques de détection de défauts basées sur la vision artificielle présentent encore deux défis importants pour les applications industrielles pratiques. Premièrement, les échantillons d'apprentissage contenant des défauts sont difficiles à obtenir. Deuxièmement, l'étiquetage manuel des échantillons d'apprentissage est coûteux. Dans ce cas, le Generative Adversarial Networks (GAN)10 offre une nouvelle façon de penser dans la détection des défauts avec ses puissantes capacités de génération de données. Il oppose de manière créative deux réseaux fonctionnellement différents (générateur G et discriminateur D) l'un contre l'autre. Ils sont entraînés les uns contre les autres pour améliorer leurs performances respectives, ce qui donne un générateur capable de générer des données fausses à vraies. Le réseau de détection de défauts utilisé dans cet article est basé sur l'une des variantes de GAN-CycleGAN11. CycleGAN est essentiellement constitué de deux GAN symétriques en miroir, qui peuvent apprendre deux distributions différentes d'échantillons entre les relations de mappage, et sont largement utilisés dans les domaines de la vision par ordinateur tels que la traduction d'images et la migration de style.
Étant donné que la formation des réseaux GAN n'est généralement pas supervisée, elle permet d'économiser une grande partie des coûts associés à l'annotation des ensembles de données, ce qui constitue un avantage significatif dans son application pratique.
Ces dernières années, il y a eu une prolifération de méthodes d'apprentissage en profondeur pour la détection des défauts, avec de nombreux nouveaux modèles obtenant de bons résultats de détection sur des ensembles de données spécifiques. Par exemple, Lee et al.12 ont proposé une méthode de prise de décision en temps réel pour la détection des défauts de surface en acier basée sur le CNN et les cartes d'activation de classe. Mei et al.13 ont utilisé des réseaux d'auto-encodeurs de débruitage avec des pyramides gaussiennes pour reconstruire les défauts et combinés avec une fusion multi-échelle pour détecter les défauts de surface dans les tissus avec de bons résultats. Zhong et al.14 ont proposé PVANET++ basé sur Faster R-CNN, qui associe la carte des caractéristiques de bas niveau à la carte des caractéristiques de haut niveau pour former une nouvelle carte de superexpression pour l'extraction de propositions, appliquée à la détection des défauts dans les goupilles fendues des chemins de fer. Tabernik et al.15 ont conçu un modèle de détection en deux étapes basé sur le réseau de segmentation et le réseau discriminatif. Il a extrait des profils de défauts fins sur l'ensemble de données KolektorSDD. Huang et al.16 ont proposé un module MCue amélioré avec UNet pour générer des images de saillance pour détecter les défauts de surface des carreaux magnétiques. Li et al.17 ont proposé un UNet amélioré avec un module Dense Block et une connexion de saut de sommation pour détecter les fissures de surface en béton, et la méthode a atteint une précision moyenne des pixels de 91,59 % et une IoU moyenne de 84,53 % sur l'ensemble de données sur les défauts du béton. Inspiré par UNET et DenseNet, le DefectSegNet proposé par Roberts et al.18 adopte une connexion de saut à l'intérieur et entre les blocs, ce qui montre une précision élevée des pixels dans des ensembles de données de défauts d'acier de haute qualité.
Les modèles actuels de détection des défauts de surface basés sur l'apprentissage en profondeur général peuvent atteindre une précision de détection élevée et des exigences en temps réel, mais ils nécessitent principalement un grand nombre d'échantillons négatifs et d'étiquettes pour la formation, ce qui est coûteux et difficile à mettre en œuvre dans les applications industrielles.
L'utilisation de GAN pour la détection des défauts de surface est une approche relativement nouvelle, vue pour la première fois dans AnoGAN19 proposé par Schlegl et al. en 2017. AnoGAN apprend une distribution en continu d'échantillons positifs dans l'espace potentiel pendant la phase de formation, tandis que la phase de test trouve de manière itérative le vecteur le plus proche dans cet espace, puis compare la sortie du générateur avec la carte d'origine pour trouver la région anormale. Comme l'optimisation itérative dans la phase de formation prenait trop de temps, les auteurs ont proposé une version améliorée de f-AnoGAN avec une structure d'encodeur20 en 2019. f-AnoGAN atténue dans une certaine mesure le problème de la consommation de temps énorme. D'autres versions améliorées de manière similaire incluent Zenati et al.21 et Akcay et al.22. Niu et al.23 ont utilisé le CycleGAN original pour réparer et détecter les défauts. Ils ont utilisé beaucoup plus d'échantillons pour former le réseau et il est difficile d'obtenir des performances de détection stables dans le cas de fonds de défauts complexes.
En réponse à la difficulté d'obtenir des échantillons de défauts dans les applications industrielles, Di et al.24 ont combiné l'auto-encodeur convolutif (CAE) et le réseau contradictoire génératif semi-supervisé (SGAN) pour proposer un CAE-SGAN semi-supervisé afin d'obtenir de meilleurs résultats de détection avec moins de formation d'images de tôles laminées à chaud. He et al.25 ont proposé un algorithme de fusion basé sur cDCGAN et ResNet pour générer des pseudo-étiquettes pour les échantillons non marqués et l'ont utilisé pour former un modèle de détection de défauts, qui a obtenu de bons résultats sur l'ensemble de données NEU-CLS. Zhao et al.26 ont proposé une méthode de détection basée sur des échantillons positifs qui utilisait un module de génération de défauts pour créer des défauts pour les échantillons positifs, puis formait un DCGAN pour réparer les défauts. Mais comment générer des défauts proches de la vraie distribution est un problème plus difficile.
Bien que les méthodes actuelles de détection de défauts basées sur le GAN puissent être semi-supervisées ou non supervisées, elles ne fonctionnent toujours bien que sur de simples surfaces texturées uniformes. Les réseaux GAN qui peuvent être appliqués à des environnements d'inspection industrielle complexes nécessitent des recherches supplémentaires.
Pour résoudre les problèmes courants de coût d'annotation élevé et de difficulté à obtenir des données de formation pour la détection de défauts d'apprentissage en profondeur, nous avons conçu un modèle ISU-GAN non supervisé et une méthode d'extraction de défauts basée sur SSIM. ISU est une abréviation d'Involution-SE-U, ce qui signifie un réseau structuré en forme de U utilisant l'opérateur Involution et l'opérateur SE. ISU-GAN est essentiellement une version améliorée de CycleGAN. Les différences par rapport à la structure de réseau CycleGAN d'origine incluent : 1. Le générateur adopte une structure de type UNet pour réduire la perte possible de fonctionnalités défectueuses pendant le processus d'encodage-décodage de l'image d'entrée ; 2. l'opérateur SE est utilisé pour les cartes de caractéristiques des couches critiques afin de supprimer les canaux les moins importants ; 3. l'opérateur d'involution est utilisé pour les cartes de caractéristiques obtenues par sous-échantillonnage pour répondre à la demande de différentes capacités visuelles des régions défectueuses et non défectueuses.
Dans la phase de formation, nous voulons apprendre à obtenir des générateurs qui mappent les échantillons positifs (échantillons sans défaut) et les échantillons négatifs (échantillons défectueux) les uns aux autres. Le réseau de réparation de défauts mappe des échantillons négatifs sur des échantillons positifs et le réseau de fabrication de défauts mappe des échantillons positifs sur des échantillons négatifs. En phase de test. Nous entrons l'image de test dans le réseau de réparation des défauts lors de la phase de test. Nous utilisons ensuite l'algorithme de similarité structurelle (SSIM)27 pour comparer l'image d'origine et l'image de réparation afin d'obtenir une carte de score SSIM avec la même résolution que l'image d'origine. Nous utilisons enfin l'algorithme OTSU28 pour extraire les contours des défauts de manière adaptative.
Notre méthode atteint une précision moyenne de 98,43 % et un score F1 de 0,9792 sur l'ensemble de données DAGM2007 en utilisant seulement un petit nombre d'échantillons d'apprentissage. Il peut segmenter des profils de défauts très précis. Nous validons également la supériorité de notre structure de réseau ISU-GAN sur d'autres modèles de détection de défauts couramment utilisés et l'efficacité de ses principaux modules par des expériences comparatives et d'ablation.
En général, l'innovation de notre travail comprend principalement les deux aspects suivants.
Nous proposons un nouveau réseau de détection de défauts GAN, ISU-GAN, convergeant rapidement et atteignant une excellente précision de détection avec un petit ensemble de données d'apprentissage.
Nous proposons une méthode de segmentation des défauts basée sur SSIM qui s'applique à la détection de défauts basée sur GAN. Sans étiquettes requises, notre méthode peut extraire avec précision les contours des défauts en l'absence de post-traitement redondant de réduction du bruit.
Principe de notre méthode de détection. (a) Phase de formation. (b) Phase d'essai. \(G_{n2p}\) et \(G_{p2n}\) sont respectivement des générateurs d'échantillons positifs et négatifs, \(D_p\) et \(D_n\) sont respectivement des discriminateurs d'échantillons positifs et négatifs. SSIM est l'algorithme de similarité structurelle et OTSU est l'algorithme de segmentation de seuil adaptatif OTSU.
Dans cette section, nous décrivons le principe de la méthode de détection de défauts proposée dans cet article et la structure du modèle ISU-GAN. Dans la phase de formation, nous formons ISU-GAN pour apprendre la relation de cartographie entre les échantillons négatifs et positifs. ISU-GAN est basé sur l'architecture CycleGAN et se compose de deux GAN coopérants, comme illustré à la Fig. 1. La ligne orange continue indique \(GAN_P\) et la ligne bleue continue indique \(GAN_N\), qui sont les GAN pour réparer les défauts et générer des défauts, respectivement.
Le premier réseau antagoniste \(GAN_P\) est constitué d'un Générateur \(G_{n2p}\) et d'un Discriminateur \(D_p\). L'entrée de \(G_{n2p}\) est l'ensemble d'échantillons négatifs N dans l'ensemble de données d'apprentissage, qui répare les régions d'image défectueuses dans N et génère des échantillons pseudo-positifs \(\widetilde{P}\) qui ne contiennent pas de défauts. L'entrée du discriminateur \(D_p\) est le vrai échantillon P et l'échantillon pseudo-positif \(\widetilde{P}\), dont le rôle est de distinguer P de \(\widetilde{P}\). De manière correspondante, un autre réseau antagoniste \(GAN_N\) est constitué d'un générateur \(G_{p2n}\) et d'un discriminateur \(D_n\). L'entrée de \(G_{p2n}\) est l'ensemble d'échantillons positifs P dans l'ensemble de données d'apprentissage, qui sert à ajouter des défauts aux images dans P et à générer des échantillons pseudo-négatifs \(\widetilde{N}\) qui contiennent des défauts. L'entrée du discriminateur \(D_n\) est le vrai échantillon négatif N et l'échantillon pseudo-négatif \(\widetilde{N}\), dont le rôle est de distinguer N de \(\widetilde{N}\).
Sur la base du critère de cohérence de cycle de CycleGAN, il est nécessaire d'entrer \(\widetilde{P}\) dans \(G_{p2n}\) pour générer des échantillons quadratiques pseudo-négatifs \(\overline{N}\). Nous nous attendons à ce que \(\overline{N}\) et N soient aussi similaires que possible, c'est-à-dire \(n\approx G_{p2n}(G_{n2p}(n)), n\in N\). En conséquence, \(\widetilde{N}\) est entré dans \(G_{n2p}\) pour générer un échantillon quadratique pseudo-positif \(\overline{P}\), \(p\approx G_{n2p}(G_{p2n}(p)), p\in P\).
Dans la phase de test, l'ensemble de données de test X (contenant des échantillons positifs et négatifs) est introduit dans le générateur de réparation de défauts \(G_{n2p}\) obtenu à partir de la formation. Pour tout échantillon \(x\in X\), l'algorithme SSIM est utilisé pour comparer x et \(G_{n2p}(x)\) afin d'obtenir la carte des scores SSIM avec la même résolution que x (plus le score est élevé, plus la similarité de la région est élevée). Ensuite, l'algorithme de segmentation de seuil adaptatif OTSU est utilisé pour segmenter la carte de score SSIM afin de déterminer s'il existe des défauts dans x et d'extraire les contours de défaut possibles.
Le générateur est basé sur les directives de conception de l'encodeur-décodeur et a une structure générale similaire à UNet, comme illustré à la Fig. 2. Une fois l'image entrée dans le générateur, elle est d'abord sous-échantillonnée par trois \ (3 \ fois 3 \) couches convolutives pour obtenir une carte de caractéristiques à 256 canaux, qui passe ensuite par le module SE pour filtrer les canaux de la carte de caractéristiques par importance. Son but est de tirer pleinement parti des propriétés indépendantes des canaux du prochain module Involution pour se concentrer sur les canaux les plus critiques. Neuf blocs résiduels consécutifs suivent la couche Involution pour améliorer la convergence du modèle. Plus loin se trouvent les modules Involution et SE de conception symétrique, et une couche de suréchantillonnage implémentée par trois \(4\fois 4\) convolutions transposées. En particulier, pour réduire la perte de caractéristiques due à l'opération de sous-échantillonnage-suréchantillonnage, nous utilisons une connexion de saut pour agréger les informations des cartes de caractéristiques peu profondes et profondes. Nous filtrons donc les cartes de caractéristiques à 64 canaux et 256 canaux à partir de l'opération de sous-échantillonnage par le module SE, puis les concaténons avec les cartes de caractéristiques correspondant au même nombre de canaux de l'opération de suréchantillonnage, et utilisons une couche convolutive \(3 \fois 3\) pour restaurer le nombre de canaux à son état d'origine.
Dans la structure du générateur, toutes les couches convolutives sauf à \(\bigstar \) portent la norme d'instance et ReLU.
Avec une architecture de type UNet, la structure du réseau du générateur contient trois couches de sous-échantillonnage convolutif et trois couches de suréchantillonnage convolutif transposées. Le réseau agrège les informations des cartes de caractéristiques inférieures via des connexions de saut, avec une couche intermédiaire contenant un module Squeeze Excitation (SE) et un module Involution pour améliorer l'extraction des caractéristiques. * Inspiré par StyleGANv229, nous supprimons la couche IN \(\bigstar \) pour éliminer les artefacts pouvant apparaître dans l'image générée.
Le discriminateur utilise la structure PatchGAN30, contenant seulement quatre couches convolutives superficielles \(4 \times 4\). L'image d'entrée est d'abord transformée en une carte de caractéristiques à 512 canaux en passant par trois couches convolutives avec un nombre multiplicatif de filtres, puis réduite à une carte de caractéristiques à un seul canal X par l'action d'une couche convolutive avec un numéro de filtre de 1. Chaque pixel sur X représente le score du discriminateur de la région de localisation correspondante de l'image d'entrée. Par rapport aux discriminateurs conventionnels, le discriminateur de la structure PatchGAN peut discriminer différemment chaque patch de l'image d'entrée, permettant l'extraction de caractéristiques d'image locales, ce qui est propice à l'amélioration de la qualité des détails de l'image générée.
Dans la structure Discriminator, toutes les couches convolutives sont livrées avec Instance Norm et LeakyReLU avec une pente de 0,2. LeakyReLU est utilisé à la place de ReLU pour atténuer le problème de disparition du gradient pendant l'entraînement.
Pour réduire la perte de caractéristiques de détail d'image due au processus de sous-échantillonnage-sur-échantillonnage, nous avons effectué une connexion de saut entre les cartes de caractéristiques intermédiaires à 64 canaux et à 128 canaux, voir Fig. 2. La connexion de saut dans ISU-GAN consiste à connecter la carte de caractéristiques peu profondes à la carte de caractéristiques profondes dans la dimension du canal (à l'aide d'un pavé de réflexion pour ajuster la résolution exacte si les deux cartes de caractéristiques ont des résolutions différentes). Ensuite, une convolution de 3 \(\times \) 3 est utilisée pour restaurer la carte de caractéristiques avec le double du nombre de canaux au nombre de canaux d'origine. Contrairement à la connexion de saut conventionnelle, la carte des caractéristiques peu profondes est redimensionnée pour l'importance du canal avant la connexion du canal, à l'aide du bloc SE. L'avantage d'ajouter le module SE à la connexion de saut est qu'il fournit une meilleure agrégation des caractéristiques essentielles des cartes de caractéristiques peu profondes, permettant au modèle d'extraire des profils de défauts avec une puissance accrue.
Le bloc de compression et d'excitation est un module proposé dans Ref.31 qui apprend la relation entre les canaux de caractéristiques individuels pour obtenir le poids de chaque canal, redimensionnant ainsi l'importance de tous les canaux. Cela permet au modèle de se concentrer davantage sur les canaux contenant des informations importantes et de supprimer ceux qui ne le sont pas. L'organigramme du bloc SE est illustré à la Fig. 3.
L'opération Squeeze effectue une compression des fonctionnalités sur chaque canal de la carte de fonctionnalités, convertissant la carte bidimensionnelle en un nombre réel qui agrège toutes les fonctionnalités sur le canal. Dans ce cas, la mise en commun de la moyenne globale est utilisée pour implémenter l'opération de compression, comme dans l'équation. (1).
Structure du module SE. \(\alpha \) est le rapport de sous-échantillonnage du canal et \(\otimes \) désigne l'opération de multiplication du tenseur.
L'opération Excitation vise à apprendre les interrelations entre les différents canaux de la carte des caractéristiques et à évaluer l'importance de chaque canal. Deux convolutions \(1 \times 1\) successives avec un numéro de filtre de \(\frac{c}{\alpha }\) et c, où \(\alpha \) est le facteur de réduction d'échelle du canal pour réduire les paramètres du réseau. Après deux convolutions et une activation ReLU, le vecteur \(c \times 1 \times 1\) représentant l'importance de chaque canal est ensuite cartographié entre 0 et 1 à l'aide de la fonction sigmoïde. Le processus est comme dans l'Eq. (2).
Enfin, le vecteur d'importance du canal z obtenu à partir de l'apprentissage est multiplié par la carte de caractéristiques d'origine x pour obtenir la carte de caractéristiques redimensionnée \(\widetilde{x}\), c'est-à-dire \(\widetilde{x} = z\cdot x\). Le bloc SE a quatre applications dans notre réseau de générateurs (comme indiqué dans la partie rouge de la Fig. 1), deux avant la connexion de saut et deux dans la couche intermédiaire de 256 canaux.
L'opérateur de convolution traditionnel a deux propriétés principales : l'indépendance de l'espace et la spécificité du canal. Bien que son indépendance spatiale garantisse l'efficacité de la convolution, elle prive le noyau de convolution de la capacité de s'adapter à différents modèles dans différentes régions. Le problème de la redondance des canaux dans la convolution n'a pas été résolu même dans de nombreux réseaux CNN bien connus.
Lors du récent CVPR2021, le module Involution32 a été proposé pour répondre à ce problème. L'opérateur d'involution, qui a une spécificité d'espace et une indépendance de canal contrairement à la convolution, utilise la fonction de génération de noyau \(\phi \) pour générer différents noyaux de convolution pour différentes régions de localisation d'une image. L'opérateur Involution donne au réseau différents modèles visuels basés sur différents emplacements spatiaux.
La forme du noyau d'involution H dépend de la taille de la carte de caractéristiques d'entrée x, et la fonction de génération de noyau génère H en fonction de pixels spécifiques.
où \(W_1\) et \(W_2\) représentent des transformations linéaires et \(\sigma \) désigne BN et ReLU. \(W_1\) réduit la représentation des pixels spécifiques à l'emplacement de \(c \times 1 \times 1\) à \(\frac{c}{r} \times 1 \times 1\) (r représente le rapport de réduction), qui \(W_2\) change alors en \(G \times k \times k\). G est le nombre de canaux dans chaque groupe, et tous les canaux du groupe partagent les paramètres du noyau H, qui est généralement défini sur 16. Enfin, le noyau généré H effectue une opération de convolution en une seule étape sur une région de pixels spécifique.
Pour la détection des défauts de surface, l'utilisation du module Involution répond au besoin de différentes capacités visuelles dans différentes zones de l'image (régions défectueuses et non défectueuses), permettant au modèle d'extraire des contours de défauts plus réalistes.
La similarité structurelle (SSIM) est un algorithme qui mesure la similarité de deux images, en tenant compte de la luminosité, du contraste et des caractéristiques structurelles de l'image. Le SSIM mesure ces différences via la fonction de comparaison de luminance l(x, y), la fonction de comparaison de contraste c(x, y) et la fonction de comparaison structurelle s(x, y), respectivement.
où \(\mu _x\), \(\sigma _x\) et \(\sigma _{xy}\) désignent respectivement la moyenne de x, la variance de x et la covariance de x et y. Pour simplifier la forme, soit \(C_3=C_2/2\). La fonction exponentielle SSIM est exprimée comme Eq. 7.
Il est préférable de trouver l'indice SSIM localement que globalement dans l'évaluation de la qualité d'image. Ainsi, la moyenne, la variance et la covariance dans les équations ci-dessus sont calculées dans la zone locale à l'intérieur de la fenêtre glissante. Le score SSIM global final est la moyenne des scores de toutes les régions locales dans la fenêtre glissante. La taille de la fenêtre SSIM est un hyperparamètre. Grâce à une comparaison expérimentale, nous l'avons fixé à 9. L'algorithme SSIM peut être utilisé non seulement pour mesurer la similarité de deux images, mais également comme mesure de perte lors de la formation du modèle, appelée perte SSIM. La perte SSIM a l'avantage d'une convergence de formation rapide, donc ce document utilise la perte SSIM dans la phase de pré-formation pour réduire le temps de formation requis.
Dans ISU-GAN, nous utilisons trois types de fonctions de perte : Perte Adversarial \(L_{GAN}\), Perte de cohérence de cycle \(L_{cycle}\) et Perte d'identité \(L_{identity}\).
\(L_{GAN}\) est divisé en \(L_{GAN\_G}\) et \(L_{GAN\_D}\) en termes d'implémentations spécifiques, qui représentent les cibles d'optimisation du générateur G et du discriminateur D, respectivement. La perte contradictoire est mesurée à l'aide de la perte L2, comme indiqué dans les équations. (1) et (2), où 0 et 1 représentent respectivement le tenseur 0 complet et le tenseur 1 complet. G veut que les faux échantillons générés trompent D, c'est-à-dire que les faux échantillons d'entrée rendent la sortie du discriminateur aussi proche que possible de 1. Au contraire, D veut faire la distinction entre les vrais et les faux échantillons autant que possible. Ainsi, lorsque l'entrée est un échantillon réel, D veut que sa sortie soit aussi proche que possible de 1. Alors que pour un faux échantillon, la sortie est aussi proche que possible de 0.
Nous voulons que les échantillons obtenus à partir des échantillons réels après avoir passé séquentiellement une cartographie directe et une cartographie inverse soient aussi cohérents que possible avec les échantillons originaux pour améliorer la stabilité du modèle généré, c'est-à-dire \(G_{n2p}(G_{p2n}(p)) \approx p\) et \(G_{p2n}(G_{n2p}(n)) \approx n\). Nous utilisons le Cycle Consistency Loss \(L_{cycle}\) pour mesurer cette similarité. En particulier, pour combiner les avantages de la convergence rapide de la perte SSIM et de la haute fidélité des détails de la perte L1, nous utilisons une stratégie de remplacement de la fonction de perte pour \(L_{cycle}\). Nous formons d'abord k époques en utilisant la perte SSIM pour permettre une convergence accélérée, puis nous la remplaçons par la perte L1 pour optimiser le détail des images générées, comme le montre l'équation. (10), où nous fixons empiriquement k à 10.
Pour réduire la probabilité de prédire un échantillon positif comme un échantillon négatif, nous voulons que le générateur de réparation de défauts \(G_{n2p}\) ne modifie pas trop l'échantillon positif. Pour éviter un bruit d'interférence inutile, nous nous attendons à ce que p soit aussi similaire que possible à \(G_{n2p}(p)\). Nous utilisons la perte d'identité \(L_{identité}\) pour mesurer ce degré de dissemblance.\(L_{identité}\) utilise la même stratégie de remplacement de la fonction de perte que \(L_{cycle}\), comme indiqué dans l'équation. (7).
DAGM200733 est un ensemble de données bien connu pour la détection industrielle de défauts faiblement supervisés, qui contient dix défauts de texture produits artificiellement. Cet ensemble de données est téléchargé à partir de https://hci.iwr.uni-heidelberg.de/node/3616. Chaque classe est divisée en un ensemble d'apprentissage et un ensemble de test. Toutes les images dans DAGM sont des images en niveaux de gris de 512 \(\times \) 512, où les images de défauts sont étiquetées avec une faible supervision. Nous avons sélectionné trois de ces classes représentatives (comme dans le tableau 1) pour nos expériences. La classe 1 a une texture de surface plus diversifiée. La classe 6 a une texture de surface plus salissante. La classe 7 a des défauts de ruban. Nous avons choisi ces trois classes pour tester la robustesse de l'ISU-GAN pour diverses textures, textures désordonnées et défauts de ruban respectivement. Les images de défauts pour les trois classes utilisées sont présentées à la Fig. 4.
Les trois catégories sélectionnées d'échantillons défectueux et leurs étiquettes. (a–c) sont respectivement les classes 1, 6 et 7, et (d–f) sont leurs étiquettes correspondantes.
Dans les expériences de comparaison de cet article, nous utilisons la précision (Acc) et le score F1 pour comparer l'efficacité de détection des défauts des différents modèles. Dans les études d'ablation, nous utilisons le score F1 et MSE pour examiner l'impact de différents modules sur les performances du réseau.
Nous définissons ici TN : échantillon défectueux prédit et échantillon réellement défectueux ; FN : échantillon défectueux prédit mais échantillon réellement non défectueux ; TP : échantillon non défectueux prédit et échantillon réellement non défectueux ; FP : échantillon prédit non défectueux mais échantillon réellement défectueux.
La précision est définie comme la proportion de tous les échantillons correctement prédits, comme dans l'Eq. (2).
Le score F1 est une mesure statistiquement significative de la précision d'un modèle dichotomique, défini comme la moyenne additionnée de la précision et du rappel :
Dans nos études d'ablation, nous utilisons l'erreur quadratique moyenne (MSE) pour mesurer la similarité entre les échantillons pseudo-positifs restaurés par le générateur de réparation de défauts et les échantillons positifs d'origine. Sa valeur inférieure indique que l'image reconstruite est plus proche de l'originale en détail. Nous n'utilisons pas d'échantillons négatifs lors du calcul de la MSE car plus la réparation est bonne pour la région défectueuse, plus la MSE sera élevée. Pour cet article, la MSE est calculée comme la moyenne de tous les échantillons positifs.
L'environnement expérimental utilisé dans cet article est le suivant : CPU : Intel(R) Xeon(R) CPU E5-2620 v4 @ 2,10 GHz, GPU : GeForce GTX 1080Ti, Mémoire : 128G, Python : 3.6.13, Pytorch : 1.7.1.
Pour améliorer la convergence du modèle, nous redimensionnons l'image d'entrée de 512 \(\times \) 512 à 256 \(\times \) 256, et la méthode d'interpolation utilisée est bicubique34. Pour améliorer la robustesse du modèle, la taille du lot est définie sur 1 et toutes les images d'entrée sont exécutées avec une probabilité égale dans l'une des trois opérations suivantes : (1) maintien constant, (2) retournement horizontal et (3) retournement vertical. Notre réseau a été formé dès le début pour toutes les expériences, en utilisant l'optimiseur Adam35, avec un taux d'apprentissage initial de 0,0002 et une époque de formation de 100. Dans la section des expériences de comparaison, nous comparerons les performances d'ISU-GAN avec les modèles de segmentation de détection de défauts couramment utilisés (UNet, ResUNet++) et les réseaux GAN classiques (CycleGAN original, DCGAN) pour la détection et la segmentation des défauts. Dans la section ablation étudiée, nous comparerons l'impact de chaque module ISU-GAN sur les performances du réseau.
Dans cette section, nous comparons les performances de détection des défauts et de segmentation de notre ISU-GAN avec certains modèles. Les modèles utilisés pour la comparaison incluent les réseaux GAN classiques CycleGAN et DCGAN, les modèles de segmentation sémantique couramment utilisés UNet et sa version améliorée ResUNet++. UNet est l'un des modèles classiques de segmentation sémantique, souvent utilisé comme modèle de référence pour diverses tâches de segmentation, et il est également largement utilisé dans le domaine de la détection de défauts17,18. ResUNet++ est un membre relativement nouveau de la famille UNet, qui combine les avantages de ResNet et UNet, et introduit des blocs SE pour montrer des capacités de segmentation d'image plus puissantes. Dans les travaux liés à la section, nous avons mentionné que CycleGAN23 et DCGAN26 ont été implémentés pour l'ensemble de données DAGM avec de bons résultats, nous avons donc choisi ces GAN à des fins de comparaison. Les résultats de l'expérience dans la phase de test sont présentés dans la figure 5 et le tableau 2.
D'après les résultats expérimentaux, on peut voir que malgré l'utilisation de moins d'un tiers des données d'entraînement des autres modèles et sans étiquettes, ISU-GAN montre toujours une amélioration de plus de 2,5 % de la moyenne des deux métriques par rapport à UNet. ResUNet++, une version améliorée de UNet, fonctionne nettement mieux que UNet dans toutes les catégories, mais ses Acc et F1 sont inférieurs à ISU-GAN d'environ 0,4 % et 0,1 %. En revanche, lorsque l'on compare les résultats de détection de CycleGAN et DCGAN, ISU-GAN s'est considérablement amélioré dans toutes les catégories de données, avec une amélioration de plus de 1,5 % et 3,0 % en moyenne. En comparant les données de test de chaque modèle, on peut vérifier que notre méthode est efficace.
Il convient de mentionner que ISU-GAN fonctionne nettement moins bien que ResUNet++ sur la classe 1 et se situe au niveau inférieur de toutes les classes. La raison possible est que la grande variété de textures d'arrière-plan dans la classe 1 rend plus difficile pour notre modèle de trouver les relations de mappage d'échantillon positives et négatives que nous attendons.
Comparaison des résultats d'extraction des défauts. (a) Image originale, (b) étiquette, (c) UNet, (d) ResUNet++, (e) DCGAN, (f) ISU-GAN.
Comme le montre la figure 5, même sans utiliser d'étiquettes pendant la formation, notre modèle est segmenté plus finement et plus précisément pour les défauts que UNet et ResUNet ++ basés sur l'apprentissage supervisé, ce qui profitera aux travailleurs de l'industrie manufacturière pour déterminer le type de défauts. Avec la même formation non supervisée, la méthode DCGAN doit créer manuellement des défauts pour les images, ce qui est plus fastidieux. Alors que notre méthode omet cette procédure et a des résultats nettement meilleurs. Nous comparons également les résultats de réparation des défauts d'ISU-GAN et de CycleGAN, voir Fig. 6. On peut observer que la carte de réparation générée par ISU-GAN est plus proche de l'image d'origine en détail, en particulier la texture sur les bords est plus lisse et plus réaliste.
Comparaison des résultats de réparation des défauts. (a) Image originale, (b) étiquette, (c) CycleGAN, (d) ISU-GAN.
Des études d'ablation ont été mises en place pour étudier l'impact de trois modules cruciaux (connexion de saut, involution, SE) dans la structure du générateur de l'ISU-GAN sur l'efficacité de la détection des défauts. Les modèles de générateur comparés dans l'expérience d'ablation sont : 1. le CycleGAN d'origine (par défaut) ; 2. en utilisant un seul des trois modules ; 3. en utilisant les trois modules (ISU-GAN).
L'ensemble de données et les hyperparamètres utilisés pour les expériences d'ablation sont les mêmes que les expériences de comparaison de section, et tous les sous-modèles utilisent la méthode proposée dans la méthodologie de section pour détecter les défauts. Les résultats des expériences sont présentés dans le tableau 3.
En moyenne, l'amélioration de la connexion de saut pour le modèle réside principalement dans la réduction significative de MSE, mais l'amélioration du score F1 n'est pas apparente. En revanche, le bloc Involution améliore considérablement le score F1 mais augmente également sensiblement le MSE, tandis que le bloc SE optimise les deux valeurs dans une moindre mesure. Pour l'ISU-GAN avec les trois modules, nous pouvons voir qu'il obtient les meilleurs résultats dans les deux valeurs moyennes, et l'amélioration est significative par rapport au CycleGAN d'origine. Cela indique que la structure du modèle ISU-GAN est raisonnable et pratique.
D'après les résultats de cet article, notre modèle de détection de défauts proposé ISU-GAN et la méthode d'extraction de défauts associée peuvent bien fonctionner dans des conditions non supervisées avec un petit nombre d'échantillons d'apprentissage. ISU-GAN utilise de manière innovante la connexion de saut, le bloc SE et le bloc d'involution dans le générateur pour obtenir une meilleure caractérisation des caractéristiques des défauts. De plus, la méthode d'extraction de défauts basée sur SSIM peut extraire des profils de défauts plus précis.
Grâce à des expériences de comparaison, nous montrons que ISU-GAN peut obtenir un meilleur effet de détection de défauts même si les conditions d'entraînement sont beaucoup plus faibles que UNet et ResUNet++. A travers des études d'ablation, nous montrons l'impact des trois principaux modules de l'ISU-GAN sur les performances du réseau et vérifions l'efficacité de la structure ISU-GAN.
Dans les expériences de comparaison de section, nous avons mentionné que l'ISU-GAN fonctionne nettement moins bien que les autres classes en raison de la difficulté à cartographier les échantillons positifs et négatifs dans des ensembles de données avec des types de texture plus riches. Selon ce problème, nous optimiserons davantage la structure du réseau pour obtenir une performance plus robuste dans les travaux ultérieurs.
Les ensembles de données utilisés dans cette étude peuvent être téléchargés sur : Les ensembles de données utilisés dans cette étude peuvent être téléchargés sur : https://hci.iwr.uni-heidelberg.de/node/3616.
Liu, YB, Xiao, ZT, Zhang, F. & Wu, J. Méthode de détection des défauts de tissu basée sur des filtres de Gabor. Adv. Mater. Rés. 301, 229–234 (2011).
Annonces d'article Google Scholar
Liu, Y., Xu, K. & Xu, J. Une approche améliorée de reconnaissance des défauts mb-lbp pour la surface des plaques d'acier. Appl. Sci. 9, 4222 (2019).
Article Google Scholar
Shi, T., Kong, J.-Y., Wang, X.-D., Liu, Z. & Zheng, G. Algorithme Sobel amélioré pour la détection des défauts des surfaces des rails avec une efficacité et une précision accrues. J. Central South Univ. 23, 2867–2875 (2016).
Article Google Scholar
Liu, W. et al. Ssd : détecteur multibox monocoup. Dans Conférence européenne sur la vision par ordinateur, 21–37 (Springer, 2016).
Redmon, J., Divvala, S., Girshick, R. & Farhadi, A. Vous ne regardez qu'une seule fois : détection unifiée d'objets en temps réel. Dans Proc. Conférence IEEE sur la vision par ordinateur et la reconnaissance de formes, 779–788 (2016).
Ren, S., He, K., Girshick, R. & Sun, J. Faster r-cnn : vers la détection d'objets en temps réel avec des réseaux de proposition de région. Adv. Neural. Inf. Processus. Syst. 28, 91–99 (2015).
Google Scholar
He, K., Gkioxari, G., Dollár, P. & Girshick, R. Mask r-cnn. Dans Proc. Conférence internationale IEEE sur la vision par ordinateur, 2961-2969 (2017).
Ronneberger, O., Fischer, P. & Brox, T. U-net : réseaux convolutifs pour la segmentation d'images biomédicales. Dans Conférence internationale sur l'informatique médicale et l'intervention assistée par ordinateur, 234-241 (Springer, 2015).
Badrinarayanan, V., Kendall, A. & Cipolla, R. Segnet : une architecture d'encodeur-décodeur à convolution profonde pour la segmentation d'images. IEEE Trans. Modèle Anal. Mach. Renseignement. 39, 2481-2495 (2017).
Article Google Scholar
Goodfellow, I. et al. Réseaux antagonistes génératifs. Adv. Information neuronale. Processus. Syst. 27 (2014).
Zhu, J.-Y., Park, T., Isola, P. & Efros, AA Traduction d'image à image non appariée à l'aide de réseaux contradictoires à cycle cohérent. Dans Proc. Conférence internationale IEEE sur la vision par ordinateur, 2223–2232 (2017).
Lee, SY, Tama, BA, Moon, SJ & Lee, S. Diagnostic des défauts de surface en acier à l'aide d'un réseau de neurones à convolution profonde et d'une carte d'activation de classe. Appl. Sci. 9, 5449 (2019).
Article Google Scholar
Mei, S., Wang, Y. & Wen, G. Détection automatique des défauts de tissu avec un modèle de réseau d'auto-encodeurs à débruitage convolutif multi-échelles. Capteurs 18, 1064 (2018).
Annonces d'article Google Scholar
Zhong, J., Liu, Z., Han, Z., Han, Y. & Zhang, W. Une méthode d'inspection des défauts basée sur cnn pour les goupilles fendues caténaires dans les chemins de fer à grande vitesse. IEEE Trans. Instrument. Mes. 68, 2849-2860 (2018).
Article Google Scholar
Tabernik, D., Šela, S., Skvarč, J. & Skočaj, D. Approche d'apprentissage en profondeur basée sur la segmentation pour la détection des défauts de surface. J. Intel. Fab. 31, 759–776 (2020).
Article Google Scholar
Huang, Y., Qiu, C. & Yuan, K. Saillance des défauts de surface de la tuile magnétique. Vis. Calcul. 36, 85–96 (2020).
Article CAS Google Scholar
Li, S., Zhao, X. & Zhou, G. Détection automatique des dommages multiples au niveau du pixel de la structure en béton à l'aide d'un réseau entièrement convolutif. Infrastructure civile assistée par ordinateur Ing. 34, 616–634 (2019).
Article Google Scholar
Roberts, G. et al. Apprentissage profond pour la segmentation sémantique des défauts dans les images de tige avancées des aciers. Sci. Rep. 9, 1–12 (2019).
Article Google Scholar
Schlegl, T., Seeböck, P., Waldstein, SM, Schmidt-Erfurth, U. & Langs, G. Détection d'anomalies non supervisée avec des réseaux contradictoires génératifs pour guider la découverte de marqueurs. Dans Conférence internationale sur le traitement de l'information en imagerie médicale, 146-157 (Springer, 2017).
Schlegl, T., Seeböck, P., Waldstein, SM, Langs, G. & Schmidt-Erfurth, U. f-anogan : détection rapide d'anomalies non supervisée avec des réseaux antagonistes génératifs. Méd. Image anale. 54, 30–44 (2019).
Article Google Scholar
Zenati, H., Foo, CS, Lecouat, B., Manek, G. & Chandrasekhar, VR Détection efficace des anomalies à base de gan. Préimpression sur http://arxiv.org/abs/1802.06222 (2018).
Akcay, S., Atapour-Abarghouei, A. & Breckon, TP Ganomaly : détection d'anomalies semi-supervisée via un entraînement contradictoire. Dans Conférence asiatique sur la vision par ordinateur, 622–637 (Springer, 2018).
Niu, S., Lin, H., Niu, T., Li, B. & Wang, X. Defectgan : détection de défauts faiblement supervisée à l'aide d'un réseau contradictoire génératif. En 2019 IEEE 15th International Conference on Automation Science and Engineering (CASE), 127–132 (IEEE, 2019).
Di, H., Ke, X., Peng, Z. & Dongdong, Z. Classification des défauts de surface des aciers avec une nouvelle méthode d'apprentissage semi-supervisé. Opter. Laser Ing. 117, 40–48 (2019).
Article Google Scholar
He, Y., Song, K., Dong, H. & Yan, Y. Classification semi-supervisée des défauts de la surface de l'acier basée sur un réseau contradictoire multi-formation et génératif. Opter. Laser Ing. 122, 294–302 (2019).
Article Google Scholar
Zhao, Z., Li, B., Dong, R. & Zhao, P. Une méthode de détection des défauts de surface basée sur des échantillons positifs. Dans Pacific Rim International Conference on Artificial Intelligence, 473–481 (Springer, 2018).
Wang, Z., Bovik, AC, Sheikh, HR & Simoncelli, EP Évaluation de la qualité d'image : de la visibilité des erreurs à la similarité structurelle. IEEE Trans. Processus d'image. 13, 600–612 (2004).
Annonces d'article Google Scholar
Otsu, N. Une méthode de sélection de seuil à partir d'histogrammes en niveaux de gris. IEEE Trans. Syst. Homme Cybern. 9, 62–66 (1979).
Article Google Scholar
Karras, T. et al. Analyse et amélioration de la qualité d'image de stylegan. Dans Proc. Conférence IEEE/CVF sur la vision par ordinateur et la reconnaissance de formes, 8110–8119 (2020).
Isola, P., Zhu, J.-Y., Zhou, T. & Efros, AA Traduction d'image à image avec des réseaux contradictoires conditionnels. Dans Proc. Conférence IEEE sur la vision par ordinateur et la reconnaissance de formes, 1125–1134 (2017).
Hu, J., Shen, L. et Sun, G. Réseaux de compression et d'excitation. Dans Proc. Conférence IEEE sur la vision par ordinateur et la reconnaissance de formes, 7132–7141 (2018).
Li, D. et al. Involution : Inversion de l'inhérence de la convolution pour la reconnaissance visuelle. Dans Proc. Conférence IEEE/CVF sur la vision par ordinateur et la reconnaissance de formes, 12321–12330 (2021).
Wieler, M. & Hahn, T. Symposium DAGM sur l'apprentissage faiblement supervisé pour l'inspection optique industrielle (2007).
Keys, R. Interpolation de convolution cubique pour le traitement d'images numériques. IEEE Trans. Acoustique. Processus du signal vocal. 29, 1153-1160 (1981).
Article ADS MathSciNet Google Scholar
Kingma, DP & Ba, J. Adam : Une méthode d'optimisation stochastique. Dans Conférence internationale sur les représentations de l'apprentissage (2015).
Jha, D. et al. Resunet++ : Une architecture avancée pour la segmentation d'images médicales. Dans Symposium international sur le multimédia (2019).
Télécharger les références
Cette recherche a été financée par la National Science Foundation of China Project, Grant Number 61703355, le Natural Science Foundation Project of Zhangzhou 2019, Grant Number ZZ2019J34 et le Program for Young Excellent Talents in University of Fujian Province, Grant Number 201847.
Ces auteurs ont contribué à parts égales : Yijing Guo et Linwei Zhong.
École des sciences et technologies de l'information, Université de Xiamen Tan Kah Kee College, Zhangzhou, 363105, Chine
Yijing Guo, Yi Qiu, Huawei Wang et Choujun Zhan
École d'informatique, Université de Xiamen, Xiamen, 361005, Chine
Linwei Zhong et Zongheng Wen
École d'ingénierie aérospatiale, Université de Xiamen, Xiamen, 361005, Chine
Fengqiang Gao
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Conceptualisation, YG et LZ ; méthodologie, GJ ; logiciel, LZ; validation, LZ, FG et WZ ; analyse formelle, YQ et HW ; enquête, YG et CZ ; ressources, GJ ; conservation des données, YG et LZ ; préparation du projet d'écriture original, YG et LZ ; rédaction-révision et édition, YG et HW ; visualisation, YQ, FG et WZ ; supervision, GJ ; administration de projet, YG ; acquisition de financement, YG, FG et CZ Tous les auteurs ont lu et accepté la version publiée du manuscrit.
Correspondance avec Yijing Guo.
Les auteurs ne déclarent aucun intérêt concurrent.
Springer Nature reste neutre en ce qui concerne les revendications juridictionnelles dans les cartes publiées et les affiliations institutionnelles.
Libre accès Cet article est sous licence Creative Commons Attribution 4.0 International, qui autorise l'utilisation, le partage, l'adaptation, la distribution et la reproduction sur tout support ou format, à condition que vous accordiez le crédit approprié à l'auteur ou aux auteurs originaux et à la source, fournissez un lien vers la licence Creative Commons et indiquez si des modifications ont été apportées. Les images ou tout autre matériel de tiers dans cet article sont inclus dans la licence Creative Commons de l'article, sauf indication contraire dans une ligne de crédit au matériel. Si le matériel n'est pas inclus dans la licence Creative Commons de l'article et que votre utilisation prévue n'est pas autorisée par la réglementation légale ou dépasse l'utilisation autorisée, vous devrez obtenir l'autorisation directement du détenteur des droits d'auteur. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by/4.0/.
Réimpressions et autorisations
Guo, Y., Zhong, L., Qiu, Y. et al. Utilisation d'ISU-GAN pour la détection non supervisée de défauts de petits échantillons. Sci Rep 12, 11604 (2022). https://doi.org/10.1038/s41598-022-15855-7
Télécharger la citation
Reçu : 07 avril 2022
Accepté : 30 juin 2022
Publié: 08 juillet 2022
DOI : https://doi.org/10.1038/s41598-022-15855-7
Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :
Désolé, aucun lien partageable n'est actuellement disponible pour cet article.
Fourni par l'initiative de partage de contenu Springer Nature SharedIt
En soumettant un commentaire, vous acceptez de respecter nos conditions d'utilisation et nos directives communautaires. Si vous trouvez quelque chose d'abusif ou qui ne respecte pas nos conditions ou directives, veuillez le signaler comme inapproprié.