View Categories

Un chequeo de la realidad de una IA confiable: la falta de transparencia de los productos de inteligencia artificial en la atención médica

Introducción y Objetivos

La inteligencia artificial (IA) tiene el potencial de aliviar las cargas y las escaseces que agobian a los sistemas de salud. Sin embargo, los sesgos algorítmicos inherentes presentan un riesgo considerable de causar daño durante el despliegue. Es crucial la transparencia sobre el desarrollo y la validación de los algoritmos para identificar sesgos y comunicar riesgos potenciales de daño. Aunque existen numerosas guías sobre cómo lograr la transparencia para productos de IA médica, no está claro si la información disponible públicamente informa adecuadamente sobre sus riesgos.

Métodos

Para evaluar esto, se recuperó documentación pública sobre los 14 productos de radiología basados en IA certificados por la CE de la categoría de riesgo IIb disponibles en la UE, desde sitios web de proveedores, publicaciones científicas y la base de datos europea EUDAMED. Utilizando una encuesta autodesarrollada, se informó sobre su desarrollo, validación, consideraciones éticas y advertencias de implementación, según las guías de IA confiable. Cada pregunta se calificó con 0, 0.5 o 1, para indicar si la información requerida estaba “no disponible”, “parcialmente disponible” o “totalmente disponible”. Los puntajes de transparencia de cada producto se calcularon en relación con las 55 preguntas. Los puntajes de transparencia oscilaron entre 6.4% y 60.9%, con una mediana de 29.1%.

Resultados

Las brechas principales de transparencia incluyeron la falta de documentación sobre datos de entrenamiento, consideraciones éticas y limitaciones para el despliegue. Aspectos éticos como el consentimiento, la monitorización de seguridad y el cumplimiento de GDPR rara vez se documentaron. Además, las advertencias de implementación para diferentes demografías y configuraciones médicas eran escasas.

Conclusiones

La documentación pública de productos de IA médica autorizados en Europa carece de suficiente transparencia pública para informar sobre la seguridad y los riesgos. Hacemos un llamado a los legisladores y reguladores para establecer requisitos legalmente obligatorios para la transparencia pública y sustantiva, con el fin de cumplir la promesa de una IA confiable para la salud.

Referencia Bibliográfica: #

Fehr J, Citro B, Malpani R, Lippert C, Madai VI. (2024). A trustworthy AI reality-check: the lack of transparency of artificial intelligence products in healthcare. Frontiers in Digital Health, 6:1267290. doi: 10.3389/fdgth.2024.1267290

Enlace al Artículo: #

A trustworthy AI reality-check: the lack of transparency of artificial intelligence products in healthcare

Funciona con BetterDocs

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *