Apprentissage profond pour l'évaluation de la qualité d'image de l'angiographie par tomographie par cohérence optique

Merci d'avoir visité Nature.com.Vous utilisez une version de navigateur avec une prise en charge CSS limitée.Pour une expérience optimale, nous vous recommandons d'utiliser un navigateur mis à jour (ou de désactiver le mode de compatibilité dans Internet Explorer).De plus, pour garantir un support continu, nous affichons le site sans styles ni JavaScript.
Curseurs affichant trois articles par diapositive.Utilisez les boutons Précédent et Suivant pour vous déplacer dans les diapositives, ou les boutons du contrôleur de diapositives à la fin pour vous déplacer dans chaque diapositive.
L'angiographie tomographique par cohérence optique (OCTA) est une nouvelle méthode de visualisation non invasive des vaisseaux rétiniens.Bien que l’OCTA ait de nombreuses applications cliniques prometteuses, la détermination de la qualité des images reste un défi.Nous avons développé un système basé sur l'apprentissage profond utilisant le classificateur de réseau neuronal ResNet152 pré-entraîné avec ImageNet pour classer les images superficielles du plexus capillaire à partir de 347 scans de 134 patients.Les images ont également été évaluées manuellement comme étant vraies par deux évaluateurs indépendants pour un modèle d'apprentissage supervisé.Étant donné que les exigences en matière de qualité d'image peuvent varier en fonction des paramètres cliniques ou de recherche, deux modèles ont été formés, l'un pour la reconnaissance d'images de haute qualité et l'autre pour la reconnaissance d'images de faible qualité.Notre modèle de réseau neuronal montre une excellente aire sous la courbe (AUC), IC à 95 % 0,96-0,99, \(\kappa\) = 0,81), ce qui est nettement meilleur que le niveau de signal rapporté par la machine (AUC = 0,82, 95). % IC).0,77 à 0,86, \(\kappa\) = 0,52 et AUC = 0,78, IC à 95 % 0,73 à 0,83, \(\kappa\) = 0,27, respectivement).Notre étude démontre que les méthodes d'apprentissage automatique peuvent être utilisées pour développer des méthodes de contrôle qualité flexibles et robustes pour les images OCTA.
L'angiographie par tomographie par cohérence optique (OCTA) est une technique relativement nouvelle basée sur la tomographie par cohérence optique (OCT) qui peut être utilisée pour la visualisation non invasive de la microvascularisation rétinienne.OCTA mesure la différence dans les modèles de réflexion des impulsions lumineuses répétées dans la même zone de la rétine, et les reconstructions peuvent ensuite être calculées pour révéler les vaisseaux sanguins sans utilisation invasive de colorants ou d'autres agents de contraste.L'OCTA permet également l'imagerie vasculaire à résolution en profondeur, permettant aux cliniciens d'examiner séparément les couches vasculaires superficielles et profondes, aidant ainsi à différencier les maladies choriorétiniennes.
Bien que cette technique soit prometteuse, la variation de la qualité de l’image reste un défi majeur pour une analyse fiable des images, rendant l’interprétation des images difficile et empêchant une adoption clinique généralisée.Étant donné que l'OCTA utilise plusieurs analyses OCT consécutives, il est plus sensible aux artefacts d'image que l'OCT standard.La plupart des plates-formes OCTA commerciales fournissent leur propre mesure de qualité d'image appelée Force du signal (SS) ou parfois Indice de force du signal (SSI).Cependant, les images avec une valeur SS ou SSI élevée ne garantissent pas l’absence d’artefacts d’image, qui peuvent affecter toute analyse d’image ultérieure et conduire à des décisions cliniques incorrectes.Les artefacts d'image courants pouvant survenir dans l'imagerie OCTA comprennent les artefacts de mouvement, les artefacts de segmentation, les artefacts d'opacité du support et les artefacts de projection1,2,3.
Alors que les mesures dérivées de l'OCTA, telles que la densité vasculaire, sont de plus en plus utilisées dans la recherche translationnelle, les essais cliniques et la pratique clinique, il existe un besoin urgent de développer des processus de contrôle de qualité d'image robustes et fiables pour éliminer les artefacts d'image4.Les connexions sautées, également appelées connexions résiduelles, sont des projections dans l'architecture de réseau neuronal qui permettent aux informations de contourner les couches convolutives tout en stockant les informations à différentes échelles ou résolutions5.Étant donné que les artefacts d’image peuvent affecter les performances des images à petite et à grande échelle, les réseaux neuronaux à connexion sautée sont bien adaptés pour automatiser cette tâche de contrôle qualité5.Des travaux récemment publiés se sont montrés prometteurs pour les réseaux neuronaux convolutionnels profonds formés à l'aide de données de haute qualité provenant d'estimateurs humains6.
Dans cette étude, nous formons un réseau neuronal convolutif à saut de connexion pour déterminer automatiquement la qualité des images OCTA.Nous nous appuyons sur des travaux antérieurs en développant des modèles distincts pour identifier les images de haute qualité et les images de faible qualité, car les exigences en matière de qualité d'image peuvent différer selon des scénarios cliniques ou de recherche spécifiques.Nous comparons les résultats de ces réseaux avec ceux des réseaux de neurones convolutifs sans connexions manquantes pour évaluer l'intérêt d'inclure des fonctionnalités à plusieurs niveaux de granularité dans l'apprentissage profond.Nous avons ensuite comparé nos résultats à la force du signal, une mesure communément acceptée de la qualité d’image fournie par les fabricants.
Notre étude a inclus des patients diabétiques ayant fréquenté le Yale Eye Center entre le 11 août 2017 et le 11 avril 2019. Les patients atteints d'une maladie choriorétinienne non diabétique ont été exclus.Il n'y avait aucun critère d'inclusion ou d'exclusion basé sur l'âge, le sexe, la race, la qualité de l'image ou tout autre facteur.
Les images OCTA ont été acquises à l'aide de la plate-forme AngioPlex sur un Cirrus HD-OCT 5000 (Carl Zeiss Meditec Inc, Dublin, CA) selon les protocoles d'imagerie 8\(\times\)8 mm et 6\(\times\)6 mm.Un consentement éclairé pour la participation à l'étude a été obtenu de chaque participant à l'étude, et l'Institutional Review Board (IRB) de l'Université de Yale a approuvé l'utilisation du consentement éclairé avec photographie globale pour tous ces patients.Suivant les principes de la Déclaration d'Helsinki.L'étude a été approuvée par l'IRB de l'Université de Yale.
Les images de plaques de surface ont été évaluées sur la base du score d'artefact de mouvement (MAS) décrit précédemment, du score d'artefact de segmentation (SAS), du centre fovéal, de la présence d'opacité médiatique et d'une bonne visualisation des petits capillaires, telle que déterminée par l'évaluateur d'image.Les images ont été analysées par deux évaluateurs indépendants (RD et JW).Une image a un score de 2 (éligible) si tous les critères suivants sont remplis : l'image est centrée sur la fovéa (à moins de 100 pixels du centre de l'image), MAS est 1 ou 2, SAS est 1 et l'opacité du support est inférieure à 1. Présente sur les images de taille / 16, et de petits capillaires sont visibles sur les images de taille supérieure à 15/16.Une image est notée 0 (pas de note) si l'un des critères suivants est rempli : l'image est décentrée, si MAS vaut 4, si SAS vaut 2, ou si l'opacité moyenne est supérieure à 1/4 de l'image, et les petits capillaires ne peuvent pas être ajustés à plus de 1 image/4 pour les distinguer.Toutes les autres images qui ne répondent pas aux critères de notation 0 ou 2 sont notées 1 (écrêtage).
Sur la fig.1 montre des exemples d'images pour chacune des estimations mises à l'échelle et des artefacts d'image.La fiabilité inter-évaluateurs des scores individuels a été évaluée par la pondération kappa de Cohen8.Les notes individuelles de chaque évaluateur sont additionnées pour obtenir une note globale pour chaque image, allant de 0 à 4. Les images avec une note totale de 4 sont considérées comme bonnes.Les images avec un score total de 0 ou 1 sont considérées comme de mauvaise qualité.
Un réseau neuronal convolutif d'architecture ResNet152 (Fig. 3A.i) pré-entraîné sur des images de la base de données ImageNet a été généré à l'aide de fast.ai et du framework PyTorch5, 9, 10, 11. Un réseau neuronal convolutif est un réseau qui utilise les connaissances acquises. filtres pour numériser des fragments d’images afin d’étudier les caractéristiques spatiales et locales.Notre ResNet formé est un réseau neuronal à 152 couches caractérisé par des lacunes ou des « connexions résiduelles » qui transmettent simultanément des informations avec plusieurs résolutions.En projetant des informations à différentes résolutions sur le réseau, la plateforme peut apprendre les caractéristiques des images de faible qualité à plusieurs niveaux de détail.En plus de notre modèle ResNet, nous avons également formé AlexNet, une architecture de réseau neuronal bien étudiée, sans manquer de connexions à des fins de comparaison (Figure 3A.ii)12.Sans connexions manquantes, ce réseau ne sera pas en mesure de capturer des fonctionnalités avec une granularité plus élevée.
L'ensemble d'images OCTA13 original de 8\(\times\)8 mm a été amélioré à l'aide de techniques de réflexion horizontale et verticale.L'ensemble de données complet a ensuite été divisé de manière aléatoire au niveau de l'image en ensembles de données de formation (51,2 %), de tests (12,8 %), de réglage des hyperparamètres (16 %) et de validation (20 %) à l'aide de la boîte à outils scikit-learn python14.Deux cas ont été considérés, l'un basé sur la détection uniquement des images de la plus haute qualité (score global 4) et l'autre basé sur la détection uniquement des images de la plus faible qualité (score global 0 ou 1).Pour chaque cas d'utilisation de haute et de mauvaise qualité, le réseau neuronal est recyclé une fois sur nos données d'image.Dans chaque cas d'utilisation, le réseau neuronal a été formé pendant 10 époques, tous les poids de couche sauf les plus élevés ont été gelés et les poids de tous les paramètres internes ont été appris pendant 40 époques à l'aide d'une méthode de taux d'apprentissage discriminante avec une fonction de perte d'entropie croisée 15, 16..La fonction de perte d'entropie croisée est une mesure de l'échelle logarithmique de l'écart entre les étiquettes de réseau prédites et les données réelles.Pendant l'entraînement, une descente de gradient est effectuée sur les paramètres internes du réseau neuronal afin de minimiser les pertes.Les hyperparamètres du taux d'apprentissage, du taux d'abandon et de la réduction de poids ont été ajustés à l'aide de l'optimisation bayésienne avec 2 points de départ aléatoires et 10 itérations, et l'AUC sur l'ensemble de données a été ajustée en utilisant les hyperparamètres comme objectif de 17.
Exemples représentatifs d’images OCTA 8 × 8 mm de plexus capillaires superficiels notés 2 (A, B), 1 (C, D) et 0 (E, F).Les artefacts d'image affichés incluent des lignes scintillantes (flèches), des artefacts de segmentation (astérisques) et l'opacité du support (flèches).L'image (E) est également décentrée.
Des courbes de caractéristiques de fonctionnement du récepteur (ROC) sont ensuite générées pour tous les modèles de réseaux neuronaux, et des rapports sur l'intensité du signal du moteur sont générés pour chaque cas d'utilisation de faible et de haute qualité.L'aire sous la courbe (AUC) a été calculée à l'aide du progiciel pROC R, et les intervalles de confiance à 95 % et les valeurs p ont été calculés à l'aide de la méthode DeLong18,19.Les scores cumulés des évaluateurs humains sont utilisés comme référence pour tous les calculs ROC.Pour la force du signal signalée par la machine, l'AUC a été calculée deux fois : une fois pour le seuil du score de scalabilité de haute qualité et une fois pour le seuil du score de scalabilité de faible qualité.Le réseau neuronal est comparé à la force du signal AUC, reflétant ses propres conditions de formation et d'évaluation.
Pour tester davantage le modèle d'apprentissage profond formé sur un ensemble de données distinct, des modèles de haute qualité et de faible qualité ont été directement appliqués à l'évaluation des performances de 32 images de dalles de surface complètes de 6\(\times\) 6 mm collectées à l'Université de Yale.Eye Mass est centré en même temps que l'image 8 \(\times \) 8 mm.Les images 6\(\×\) 6 mm ont été évaluées manuellement par les mêmes évaluateurs (RD et JW) de la même manière que les images 8\(\×\) 8 mm, l'ASC a été calculée ainsi que la précision et le kappa de Cohen. .également .
Le rapport de déséquilibre de classe est de 158 : 189 (\(\rho = 1,19\)) pour le modèle de faible qualité et de 80 : 267 (\(\rho = 3,3\)) pour le modèle de haute qualité.Étant donné que le rapport de déséquilibre des classes est inférieur à 1 : 4, aucune modification architecturale spécifique n’a été apportée pour corriger le déséquilibre des classes20,21.
Afin de mieux visualiser le processus d'apprentissage, des cartes d'activation de classe ont été générées pour les quatre modèles d'apprentissage profond formés : modèle ResNet152 de haute qualité, modèle ResNet152 de faible qualité, modèle AlexNet de haute qualité et modèle AlexNet de faible qualité.Les cartes d'activation de classe sont générées à partir des couches convolutives d'entrée de ces quatre modèles, et les cartes thermiques sont générées en superposant les cartes d'activation avec les images sources des ensembles de validation 8 × 8 mm et 6 × 6 mm22, 23.
La version R 4.0.3 a été utilisée pour tous les calculs statistiques et les visualisations ont été créées à l'aide de la bibliothèque d'outils graphiques ggplot2.
Nous avons collecté 347 images frontales du plexus capillaire superficiel mesurant 8 \(\times \)8 mm auprès de 134 personnes.La machine a signalé la force du signal sur une échelle de 0 à 10 pour toutes les images (moyenne = 6,99 ± 2,29).Sur les 347 images acquises, l'âge moyen à l'examen était de 58,7 ± 14,6 ans et 39,2 % provenaient de patients de sexe masculin.Parmi toutes les images, 30,8 % provenaient de Caucasiens, 32,6 % de Noirs, 30,8 % d'Hispaniques, 4 % d'Asiatiques et 1,7 % d'autres races (Tableau 1).).La répartition par âge des patients atteints d'OCTA différait significativement en fonction de la qualité de l'image (p < 0,001).Le pourcentage d'images de haute qualité chez les patients plus jeunes âgés de 18 à 45 ans était de 33,8 %, contre 12,2 % d'images de mauvaise qualité (Tableau 1).La distribution du statut de rétinopathie diabétique variait également de manière significative en termes de qualité d'image (p < 0,017).Parmi toutes les images de haute qualité, le pourcentage de patients présentant une RDP était de 18,8 %, contre 38,8 % de toutes les images de mauvaise qualité (Tableau 1).
Les évaluations individuelles de toutes les images ont montré une fiabilité inter-évaluation modérée à forte entre les personnes lisant les images (kappa pondéré de Cohen = 0,79, IC à 95 % : 0,76-0,82), et il n'y avait aucun point d'image où les évaluateurs différaient de plus de 1 (Fig. 2A)..L'intensité du signal était significativement corrélée à la notation manuelle (corrélation du moment du produit Pearson = 0,58, IC à 95 % 0,51–0,65, p <0,001), mais de nombreuses images ont été identifiées comme ayant une intensité de signal élevée mais une faible notation manuelle (Fig. .2B).
Au cours de la formation des architectures ResNet152 et AlexNet, la perte d'entropie croisée lors de la validation et de la formation tombe sur 50 époques (Figure 3B,C).La précision de la validation au cours de la période de formation finale est supérieure à 90 % pour les cas d'utilisation de haute et de faible qualité.
Les courbes de performances du récepteur montrent que le modèle ResNet152 surpasse considérablement la puissance du signal signalée par la machine dans les cas d'utilisation de faible et de haute qualité (p < 0,001).Le modèle ResNet152 surpasse également considérablement l'architecture AlexNet (p = 0,005 et p = 0,014 pour les cas de faible qualité et de haute qualité, respectivement).Les modèles résultants pour chacune de ces tâches ont pu atteindre des valeurs AUC de 0,99 et 0,97, respectivement, ce qui est nettement meilleur que les valeurs AUC correspondantes de 0,82 et 0,78 pour l'indice d'intensité du signal de la machine ou de 0,97 et 0,94 pour AlexNet. ..(Fig. 3).La différence entre ResNet et AUC en termes de force du signal est plus élevée lors de la reconnaissance d'images de haute qualité, ce qui indique les avantages supplémentaires de l'utilisation de ResNet pour cette tâche.
Les graphiques montrent la capacité de chaque évaluateur indépendant à marquer et à comparer avec la force du signal rapportée par la machine.(A) La somme des points à évaluer est utilisée pour créer le nombre total de points à évaluer.Les images avec un score d'évolutivité global de 4 se voient attribuer une qualité élevée, tandis que les images avec un score d'évolutivité global de 1 ou moins se voient attribuer une qualité faible.(B) L’intensité du signal est en corrélation avec les estimations manuelles, mais les images avec une intensité de signal élevée peuvent être de moins bonne qualité.La ligne pointillée rouge indique le seuil de qualité recommandé par le fabricant en fonction de la force du signal (force du signal \(\ge\)6).
L'apprentissage par transfert ResNet offre une amélioration significative de l'identification de la qualité d'image pour les cas d'utilisation de faible et de haute qualité par rapport aux niveaux de signal rapportés par la machine.(A) Diagrammes d'architecture simplifiés des architectures pré-entraînées (i) ResNet152 et (ii) AlexNet.(B) Historique de formation et courbes de performances du récepteur pour ResNet152 par rapport à la force du signal rapportée par la machine et aux critères de faible qualité d'AlexNet.(C) Historique de formation du récepteur ResNet152 et courbes de performances par rapport à la force du signal rapportée par la machine et aux critères de haute qualité AlexNet.
Après ajustement du seuil de limite de décision, la précision de prédiction maximale du modèle ResNet152 est de 95,3 % pour le cas de faible qualité et de 93,5 % pour le cas de haute qualité (Tableau 2).La précision de prédiction maximale du modèle AlexNet est de 91,0 % pour le cas de faible qualité et de 90,1 % pour le cas de haute qualité (Tableau 2).La précision maximale de prédiction de l’intensité du signal est de 76,1 % pour le cas d’utilisation de faible qualité et de 77,8 % pour le cas d’utilisation de haute qualité.D'après le kappa de Cohen (\(\kappa\)), l'accord entre le modèle ResNet152 et les estimateurs est de 0,90 pour le cas de faible qualité et de 0,81 pour le cas de haute qualité.Le kappa AlexNet de Cohen est respectivement de 0,82 et 0,71 pour les cas d'utilisation de faible qualité et de haute qualité.La force du signal kappa de Cohen est respectivement de 0,52 et 0,27 pour les cas d'utilisation de faible et de haute qualité.
La validation de modèles de reconnaissance de haute et basse qualité sur des images 6\(\x\) d'une plaque plate de 6 mm démontre la capacité du modèle entraîné à déterminer la qualité de l'image selon divers paramètres d'imagerie.Lors de l'utilisation de dalles peu profondes de 6\(\x\) 6 mm pour la qualité d'imagerie, le modèle de faible qualité avait une AUC de 0,83 (IC à 95 % : 0,69 à 0,98) et le modèle de haute qualité avait une AUC de 0,85.(IC à 95 % : 0,55 à 1,00) (Tableau 2).
L'inspection visuelle des cartes d'activation de classe de couche d'entrée a montré que tous les réseaux de neurones entraînés utilisaient des caractéristiques d'image lors de la classification des images (Fig. 4A, B).Pour 8 images \(\times \) 8 mm et 6 \(\times \) 6 mm, les images d'activation ResNet suivent de près le système vasculaire rétinien.Les cartes d'activation AlexNet suivent également les vaisseaux rétiniens, mais avec une résolution plus grossière.
Les cartes d'activation de classe pour les modèles ResNet152 et AlexNet mettent en évidence les fonctionnalités liées à la qualité de l'image.(A) Carte d’activation de classe montrant une activation cohérente après un système vasculaire rétinien superficiel sur des images de validation de 8 \(\times \) 8 mm et (B) une étendue sur des images de validation plus petites de 6 \(\times \) 6 mm.Modèle LQ formé sur des critères de qualité faible, modèle HQ formé sur des critères de qualité élevée.
Il a déjà été démontré que la qualité de l’image peut grandement affecter toute quantification des images OCTA.De plus, la présence d’une rétinopathie augmente l’incidence des artefacts d’image7,26.En fait, dans nos données, conformément aux études précédentes, nous avons trouvé une association significative entre l'augmentation de l'âge et la gravité de la maladie rétinienne et la détérioration de la qualité de l'image (p < 0,001, p = 0,017 pour l'âge et le statut DR, respectivement ; Tableau 1) 27 Par conséquent, il est essentiel d’évaluer la qualité de l’image avant d’effectuer toute analyse quantitative des images OCTA.La plupart des études analysant des images OCTA utilisent des seuils d'intensité de signal rapportés par machine pour exclure les images de mauvaise qualité.Bien qu’il ait été démontré que l’intensité du signal affecte la quantification des paramètres OCTA, une intensité de signal élevée à elle seule peut ne pas suffire à exclure les images comportant des artefacts d’image2,3,28,29.Il est donc nécessaire de développer une méthode plus fiable de contrôle de la qualité des images.À cette fin, nous évaluons les performances des méthodes d’apprentissage profond supervisé par rapport à la force du signal signalé par la machine.
Nous avons développé plusieurs modèles pour évaluer la qualité de l'image, car différents cas d'utilisation de l'OCTA peuvent avoir des exigences de qualité d'image différentes.Par exemple, les images doivent être de meilleure qualité.De plus, des paramètres quantitatifs spécifiques d’intérêt sont également importants.Par exemple, la superficie de la zone avasculaire fovéale ne dépend pas de la turbidité du milieu non central, mais affecte la densité des vaisseaux.Alors que nos recherches continuent de se concentrer sur une approche générale de la qualité d'image, non liée aux exigences d'un test particulier, mais destinée à remplacer directement la force du signal rapportée par la machine, nous espérons donner aux utilisateurs un plus grand degré de contrôle afin qu'ils puissent peut sélectionner la métrique spécifique qui intéresse l’utilisateur.choisissez un modèle qui correspond au degré maximum d'artefacts d'image considéré comme acceptable.
Pour les scènes de faible et de haute qualité, nous montrons d'excellentes performances des réseaux neuronaux à convolution profonde sans connexion, avec des AUC de 0,97 et 0,99 et des modèles de faible qualité, respectivement.Nous démontrons également les performances supérieures de notre approche d’apprentissage profond par rapport aux niveaux de signaux signalés uniquement par les machines.Les connexions sautées permettent aux réseaux de neurones d'apprendre des caractéristiques à plusieurs niveaux de détail, en capturant des aspects plus fins des images (par exemple le contraste) ainsi que des caractéristiques générales (par exemple le centrage de l'image30,31).Étant donné que les artefacts d’image qui affectent la qualité de l’image sont probablement mieux identifiés sur une large plage, les architectures de réseaux neuronaux avec des connexions manquantes peuvent présenter de meilleures performances que celles sans tâches de détermination de la qualité de l’image.
Lors du test de notre modèle sur des images OCTA 6\(\×6mm), nous avons remarqué une diminution des performances de classification pour les modèles de haute et de basse qualité (Fig. 2), contrairement à la taille du modèle entraîné pour la classification.Comparé au modèle ResNet, le modèle AlexNet présente une atténuation plus importante.Les performances relativement meilleures de ResNet peuvent être dues à la capacité des connexions résiduelles à transmettre des informations à plusieurs échelles, ce qui rend le modèle plus robuste pour classer les images capturées à différentes échelles et/ou grossissements.
Certaines différences entre les images 8 \(\×\) 8 mm et les images 6 \(\×\) 6 mm peuvent conduire à une mauvaise classification, notamment une proportion relativement élevée d'images contenant des zones avasculaires fovéales, des changements de visibilité, des arcades vasculaires et pas de nerf optique sur l'image 6×6 mm.Malgré cela, notre modèle ResNet de haute qualité a pu atteindre une AUC de 85 % pour des images de 6 \(\x\) 6 mm, configuration pour laquelle le modèle n'a pas été entraîné, ce qui suggère que les informations sur la qualité de l'image codées dans le réseau neuronal est adapté.pour une taille d’image ou une configuration de machine en dehors de sa formation (Tableau 2).De manière rassurante, les cartes d'activation de type ResNet et AlexNet de 8 \(\times \) 8 mm et 6 \(\times \) 6 mm ont pu mettre en évidence les vaisseaux rétiniens dans les deux cas, suggérant que le modèle contient des informations importantes.sont applicables pour classer les deux types d’images OCTA (Fig. 4).
Lauerman et coll.L'évaluation de la qualité des images sur les images OCTA a été réalisée de la même manière à l'aide de l'architecture Inception, un autre réseau neuronal convolutif à connexion sautée6,32 utilisant des techniques d'apprentissage en profondeur.Ils ont également limité l’étude aux images du plexus capillaire superficiel, mais en utilisant uniquement les images plus petites de 3 × 3 mm d’Optovue AngioVue, bien que des patients atteints de diverses maladies choriorétiniennes aient également été inclus.Notre travail s'appuie sur leurs fondations, notamment plusieurs modèles pour répondre à différents seuils de qualité d'image et valider les résultats pour des images de différentes tailles.Nous rapportons également la métrique AUC des modèles d'apprentissage automatique et augmentons leur précision déjà impressionnante (90 %)6 pour les modèles de faible qualité (96 %) et de haute qualité (95,7 %)6.
Cette formation présente plusieurs limites.Premièrement, les images ont été acquises avec une seule machine OCTA, comprenant uniquement des images du plexus capillaire superficiel à 8\(\times\)8 mm et 6\(\times\)6 mm.La raison pour laquelle les images provenant de couches plus profondes sont exclues est que les artefacts de projection peuvent rendre l’évaluation manuelle des images plus difficile et peut-être moins cohérente.De plus, les images n'ont été acquises que chez des patients diabétiques, pour lesquels l'OCTA apparaît comme un outil diagnostique et pronostique important33,34.Bien que nous ayons pu tester notre modèle sur des images de différentes tailles pour garantir la robustesse des résultats, nous n'avons pas pu identifier des ensembles de données appropriés provenant de différents centres, ce qui a limité notre évaluation de la généralisabilité du modèle.Bien que les images aient été obtenues à partir d’un seul centre, elles ont été obtenues auprès de patients d’origines ethniques et raciales différentes, ce qui constitue une force unique de notre étude.En incluant la diversité dans notre processus de formation, nous espérons que nos résultats seront généralisés dans un sens plus large et que nous éviterons d’encoder des préjugés raciaux dans les modèles que nous formons.
Notre étude montre que les réseaux neuronaux à saut de connexion peuvent être entraînés pour atteindre des performances élevées dans la détermination de la qualité des images OCTA.Nous fournissons ces modèles comme outils pour des recherches ultérieures.Étant donné que différentes mesures peuvent avoir des exigences de qualité d'image différentes, un modèle de contrôle qualité individuel peut être développé pour chaque mesure en utilisant la structure établie ici.
Les recherches futures devraient inclure des images de différentes tailles provenant de différentes profondeurs et de différentes machines OCTA afin d'obtenir un processus d'évaluation de la qualité des images par apprentissage profond qui puisse être généralisé aux plates-formes OCTA et aux protocoles d'imagerie.Les recherches actuelles reposent également sur des approches d’apprentissage profond supervisé qui nécessitent une évaluation humaine et une évaluation d’images, ce qui peut demander beaucoup de travail et de temps pour de grands ensembles de données.Il reste à voir si les méthodes d’apprentissage profond non supervisées peuvent faire la distinction de manière adéquate entre les images de mauvaise qualité et les images de haute qualité.
À mesure que la technologie OCTA continue d'évoluer et que les vitesses de numérisation augmentent, l'incidence des artefacts d'image et des images de mauvaise qualité peut diminuer.Les améliorations apportées au logiciel, telles que la fonctionnalité de suppression des artefacts de projection récemment introduite, peuvent également atténuer ces limitations.Cependant, de nombreux problèmes subsistent car l'imagerie de patients présentant une mauvaise fixation ou une turbidité importante du milieu entraîne invariablement des artefacts d'image.À mesure que l'OCTA est de plus en plus utilisée dans les essais cliniques, une attention particulière est nécessaire pour établir des lignes directrices claires sur les niveaux d'artefacts d'image acceptables pour l'analyse d'images.L'application de méthodes d'apprentissage profond aux images OCTA est très prometteuse et des recherches supplémentaires sont nécessaires dans ce domaine pour développer une approche robuste du contrôle de la qualité des images.
Le code utilisé dans la recherche actuelle est disponible dans le référentiel octa-qc, https://github.com/rahuldhodapkar/octa-qc.Les ensembles de données générés et/ou analysés au cours de la présente étude sont disponibles auprès des auteurs respectifs sur demande raisonnable.
Spaide, RF, Fujimoto, JG & Waheed, NK Artefacts d'image en angiographie par cohérence optique.Rétine 35, 2163-2180 (2015).
Fenner, BJ et coll.Identification des caractéristiques d'imagerie qui déterminent la qualité et la reproductibilité des mesures de densité du plexus capillaire rétinien en angiographie OCT.BR.J. Ophthalmol.102, 509-514 (2018).
Lauerman, JL et coll.Influence de la technologie de suivi oculaire sur la qualité d'image de l'angiographie OCT dans la dégénérescence maculaire liée à l'âge.Arc funéraire.clinique.Exp.ophtalmologie.255, 1535-1542 (2017).
Babyuch AS et coll.Les mesures de densité de perfusion capillaire OCTA sont utilisées pour détecter et évaluer l’ischémie maculaire.chirurgie ophtalmique.Imagerie laser rétinienne 51, S30 – S36 (2020).
He, K., Zhang, X., Ren, S. et Sun, J. Apprentissage résiduel profond pour la reconnaissance d'images.En 2016, lors de la conférence IEEE sur la vision par ordinateur et la reconnaissance de formes (2016).
Lauerman, JL et coll.Évaluation automatisée de la qualité des images angiographiques OCT à l’aide d’algorithmes d’apprentissage profond.Arc funéraire.clinique.Exp.ophtalmologie.257, 1641-1648 (2019).
Lauermann, J. et coll.La prévalence des erreurs de segmentation et des artefacts de mouvement en angiographie OCT dépend de la maladie de la rétine.Arc funéraire.clinique.Exp.ophtalmologie.256, 1807-1816 (2018).
Pask, Adam et al.Pytorch : une bibliothèque d'apprentissage profond impérative et haute performance.Traitement avancé des informations neuronales.système.32, 8026-8037 (2019).
Deng, J. et al.ImageNet : une base de données d'images hiérarchiques à grande échelle.Conférence IEEE 2009 sur la vision par ordinateur et la reconnaissance de formes.248-255.(2009).
Krizhevsky A., Sutzkever I. et Hinton GE Imagenet classification utilisant des réseaux neuronaux convolutifs profonds.Traitement avancé des informations neuronales.système.25, 1 (2012).


Heure de publication : 30 mai 2023
  • WeChat
  • WeChat