Your browser doesn't support javascript.
loading
Inteligencia artificial explicable, una perspectiva al problema de la clasificación automática de COVID-19 mediante radiografías de tórax
López-Cabrera, José Daniel; Pérez-Díaz, Marlen.
  • López-Cabrera, José Daniel; s.af
  • Pérez-Díaz, Marlen; s.af
Medisur ; 20(2)abr. 2022.
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1405902
RESUMEN
RESUMEN Esta investigación pretende dilucidar, a partir del análisis de técnicas de inteligencia artificial explicables, la robustez y el nivel de generalización de los métodos de visión por computadora propuestos para identificar COVID-19 utilizando imágenes de radiografías de tórax. Asimismo, alertar a los investigadores y revisores sobre el problema del aprendizaje por atajos. En este estudio se siguen recomendaciones para identificar si los modelos de clasificación automática de COVID-19 se ven afectados por el aprendizaje por atajos. Para ello, se revisaron los artículos que utilizan métodos de inteligencia artificial explicable en dicha tarea. Se evidenció que al utilizar la imagen de radiografía de tórax completa o el cuadro delimitador de los pulmones, las regiones de la imagen que más contribuyen a la clasificación aparecen fuera de la región pulmonar, algo que no tiene sentido. Los resultados indican que, hasta ahora, los modelos existentes presentan el problema de aprendizaje por atajos, lo cual los hace inapropiados para ser usados en entornos clínicos.
ABSTRACT
ABSTRACT This research aims to elucidate, from the analysis of explainable artificial intelligence techniques, the robustness and level of generalization of the proposed computer vision methods to identify COVID-19 using chest X-ray images. Also, alert researchers and reviewers about the problem of learning by shortcuts. In this study, recommendations are followed to identify if the automatic classification models of COVID-19 are affected by shortcut learning. To do this, articles that use explainable artificial intelligence methods were reviewed. It was shown that when using the full chest X-ray image or the bounding box of the lungs, the regions of the image that contribute the most to the classification appear outside the lung region, something that does not make sense. The results indicate that, so far, the existing models present the problem of learning by shortcuts, which makes them inappropriate to be used in clinical settings.

Full text: Available Index: LILACS (Americas) Type of study: Practice guideline Language: Spanish Journal: Medisur Journal subject: Science / Public Health Year: 2022 Type: Article

Similar

MEDLINE

...
LILACS

LIS

Full text: Available Index: LILACS (Americas) Type of study: Practice guideline Language: Spanish Journal: Medisur Journal subject: Science / Public Health Year: 2022 Type: Article