Cómo evitar que la inteligencia artificial falle más a las mujeres en los diagnósticos médicos | Tecnología

Aburrida en un hospital de Nueva Jersey, Diane Camacho le contó a ChatGPT los síntomas que padecía y le pidió que hiciera una lista de posibles diagnósticos médicos. Tenía dificultad para respirar, dolor en el pecho y la sensación de que su corazón “se detenía y arrancaba”. El chatbot OpenAI le dijo que la ansiedad era el diagnóstico más probable. Camacho volvió a preguntar por el pronóstico para un hombre con los mismos síntomas, con la sorpresa de que la inteligencia artificial le advirtió de la posibilidad de que sufriera una embolia pulmonar, un síndrome coronario agudo o una miocardiopatía, pero ningún rastro de ansiedad. Así lo publicó Camacho hace unas semanas en la red X (antes Twitter).

La IA generativa, como ChatGPT, combina grandes cantidades de datos con algoritmos y toma decisiones mediante aprendizaje automático. Si los datos están incompletos o no son representativos, los algoritmos pueden estar sesgados. Al realizar el muestreo, los algoritmos pueden cometer errores sistemáticos y seleccionar algunas respuestas sobre otras. Ante estos problemas, la ley europea de inteligencia artificial aprobada el pasado diciembre prioriza que la herramienta se desarrolle con criterios éticos, transparentes y libres de sesgos.

Los dispositivos médicos, según la norma, se consideran de alto riesgo y deben cumplir requisitos estrictos: tener datos de alta calidad, registrar su actividad, tener documentación detallada del sistema, proporcionar información clara al usuario, tener medidas de supervisión humana y con un alto nivel. de robustez, seguridad y precisión, según explica la Comisión Europea.

El puesta en marcha Por Pol Solà de los Santos, presidente de Vincer.Ai, se encarga de auditar a las empresas para que puedan cumplir con las condiciones europeas. “Esto lo hacemos a través de un sistema de gestión de calidad de algoritmos, modelos y sistemas de inteligencia artificial. Se hace un diagnóstico del modelo de lenguaje y lo primero es ver si hay daños y cómo lo corregimos”. Además, si una empresa tiene un modelo sesgado, recomienda advertirle con un descargo de responsabilidad. “Si quisiéramos distribuir un medicamento no apto para niños de 7 años, sería impensable no avisar”, explica Solà de los Santos.

En el entorno de la salud, las herramientas de inteligencia artificial (IA) se están volviendo comunes en las pruebas y programación de diagnóstico por imágenes. Ayudan a los trabajadores sanitarios a acelerar el trabajo y ser más precisos. En radiología son “sistemas de ayuda”, indica Josep Munuera, director de Radiodiagnóstico del Hospital Sant Pau de Barcelona y experto en tecnologías digitales aplicadas a la salud. “Los algoritmos están dentro de dispositivos de resonancia magnética y reducen el tiempo que se tarda en obtener la imagen”, explica Munuera. Así, una resonancia magnética que duraría 20 minutos se puede acortar a sólo siete minutos, gracias a la introducción de algoritmos.

Los sesgos pueden generar diferencias en la atención médica según el género, el origen étnico o la demografía. Un ejemplo se da en las radiografías de tórax, como explica Luis Herrera, arquitecto de soluciones de Databricks España: “Los algoritmos utilizados han mostrado diferencias de precisión en función del género, lo que ha provocado diferencias en la atención. Específicamente, la precisión en el diagnóstico de las mujeres fue mucho menor”. El sesgo de género, señala Munuera, es un clásico: “Tiene que ver con sesgos poblacionales y con bases de datos. Los algoritmos se alimentan o consultan en bases de datos, y si las bases de datos históricas tienen un sesgo de género, la respuesta estará sesgada”. Sin embargo, añade: “Existe un sesgo de género en la salud, independientemente de la inteligencia artificial”.

Cómo evitar el sesgo

¿Cómo se reentrena la base de datos para evitar sesgos? Arnau Valls, ingeniero coordinador del departamento de Innovación del Hospital Sant Joan de Déu de Barcelona, ​​explica cómo se hizo en un caso de detección de covid en Europa, utilizando un algoritmo desarrollado con población china: “La precisión del algoritmo cayó un 20% y aparecieron falsos positivos. Fue necesario crear una nueva base de datos y añadir al algoritmo imágenes de la población europea”.

Para afrontar un modelo sesgado como usuarios debemos ser capaces de contrastar las respuestas que nos da la herramienta, indica Herrera: “Debemos promover la conciencia sobre los sesgos en la IA y fomentar el uso del pensamiento crítico, así como exigir transparencia a las empresas. y validar las fuentes”.

Los expertos acuerdan no utilizar ChatGPT con fines médicos. Pero José Ibeas, director del grupo de Nefrología del Instituto de Investigación e Innovación del Hospital Universitario Parc Taulí de Sabadell (Barcelona), sugiere que la herramienta evolucionaría positivamente si el chatbot consultar bases de datos médicas. “Estamos empezando a trabajar en ello. La forma de hacerlo es entrenar la base de datos de pacientes con el sistema OpenAI utilizando sus propios algoritmos e ingenieros. De esta forma se protege la privacidad de los datos”, explica Ibeas.

La tecnología ChatGPT es útil en el entorno médico en determinados casos, reconoce Ibeas: “Su capacidad para generar estructuras, anatómicas o matemáticas, es total. La formación que tiene en estructuras moleculares es muy buena. Allí realmente se inventa poco”. Coincidiendo con el resto de expertos, Ibeas advierte de que la inteligencia artificial nunca sustituirá al médico, pero puntualiza: “El médico que no sabe de inteligencia artificial será sustituido por el que sí sabe”.

puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.

Suscríbete para seguir leyendo

Leer sin límites

_


Entrada siguiente

39 pruebas hundieron a los asesinos del padre Quique Vásquez

Mar Feb 6 , 2024
San Pedro Sula, Honduras. La terna de jueces del Tribunal de Sentencia declaró ayer culpables a los imputados del asesinato del padre José Enrique Vásquez con base en una valoración armoniosa de las 39 pruebas presentadas en concatenación por el Ministerio Público (MP). Agotadas las audiencias de debate, el tribunal […]
39 pruebas hundieron a los asesinos del padre Quique Vásquez

Puede que te guste

Chief Editor

Johny Watshon

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur

Quick Links