Aburrida en un hospital de Nueva Jersey, Diane Camacho le contó a ChatGPT los síntomas que padecía y le pidió que hiciera una lista de posibles diagnósticos médicos. Tenía dificultad para respirar, dolor en el pecho y la sensación de que su corazón “se detenía y arrancaba”. El chatbot OpenAI le dijo que la ansiedad era el diagnóstico más probable. Camacho volvió a preguntar por el pronóstico para un hombre con los mismos síntomas, con la sorpresa de que la inteligencia artificial le advirtió de la posibilidad de que sufriera una embolia pulmonar, un síndrome coronario agudo o una miocardiopatía, pero ningún rastro de ansiedad. Así lo publicó Camacho hace unas semanas en la red X (antes Twitter).
La IA generativa, como ChatGPT, combina grandes cantidades de datos con algoritmos y toma decisiones mediante aprendizaje automático. Si los datos están incompletos o no son representativos, los algoritmos pueden estar sesgados. Al realizar el muestreo, los algoritmos pueden cometer errores sistemáticos y seleccionar algunas respuestas sobre otras. Ante estos problemas, la ley europea de inteligencia artificial aprobada el pasado diciembre prioriza que la herramienta se desarrolle con criterios éticos, transparentes y libres de sesgos.
Los dispositivos médicos, según la norma, se consideran de alto riesgo y deben cumplir requisitos estrictos: tener datos de alta calidad, registrar su actividad, tener documentación detallada del sistema, proporcionar información clara al usuario, tener medidas de supervisión humana y con un alto nivel. de robustez, seguridad y precisión, según explica la Comisión Europea.
El puesta en marcha Por Pol Solà de los Santos, presidente de Vincer.Ai, se encarga de auditar a las empresas para que puedan cumplir con las condiciones europeas. “Esto lo hacemos a través de un sistema de gestión de calidad de algoritmos, modelos y sistemas de inteligencia artificial. Se hace un diagnóstico del modelo de lenguaje y lo primero es ver si hay daños y cómo lo corregimos”. Además, si una empresa tiene un modelo sesgado, recomienda advertirle con un descargo de responsabilidad. “Si quisiéramos distribuir un medicamento no apto para niños de 7 años, sería impensable no avisar”, explica Solà de los Santos.
En el entorno de la salud, las herramientas de inteligencia artificial (IA) se están volviendo comunes en las pruebas y programación de diagnóstico por imágenes. Ayudan a los trabajadores sanitarios a acelerar el trabajo y ser más precisos. En radiología son “sistemas de ayuda”, indica Josep Munuera, director de Radiodiagnóstico del Hospital Sant Pau de Barcelona y experto en tecnologías digitales aplicadas a la salud. “Los algoritmos están dentro de dispositivos de resonancia magnética y reducen el tiempo que se tarda en obtener la imagen”, explica Munuera. Así, una resonancia magnética que duraría 20 minutos se puede acortar a sólo siete minutos, gracias a la introducción de algoritmos.
Los sesgos pueden generar diferencias en la atención médica según el género, el origen étnico o la demografía. Un ejemplo se da en las radiografías de tórax, como explica Luis Herrera, arquitecto de soluciones de Databricks España: “Los algoritmos utilizados han mostrado diferencias de precisión en función del género, lo que ha provocado diferencias en la atención. Específicamente, la precisión en el diagnóstico de las mujeres fue mucho menor”. El sesgo de género, señala Munuera, es un clásico: “Tiene que ver con sesgos poblacionales y con bases de datos. Los algoritmos se alimentan o consultan en bases de datos, y si las bases de datos históricas tienen un sesgo de género, la respuesta estará sesgada”. Sin embargo, añade: “Existe un sesgo de género en la salud, independientemente de la inteligencia artificial”.
Cómo evitar el sesgo
¿Cómo se reentrena la base de datos para evitar sesgos? Arnau Valls, ingeniero coordinador del departamento de Innovación del Hospital Sant Joan de Déu de Barcelona, explica cómo se hizo en un caso de detección de covid en Europa, utilizando un algoritmo desarrollado con población china: “La precisión del algoritmo cayó un 20% y aparecieron falsos positivos. Fue necesario crear una nueva base de datos y añadir al algoritmo imágenes de la población europea”.
Para afrontar un modelo sesgado como usuarios debemos ser capaces de contrastar las respuestas que nos da la herramienta, indica Herrera: “Debemos promover la conciencia sobre los sesgos en la IA y fomentar el uso del pensamiento crítico, así como exigir transparencia a las empresas. y validar las fuentes”.
Los expertos acuerdan no utilizar ChatGPT con fines médicos. Pero José Ibeas, director del grupo de Nefrología del Instituto de Investigación e Innovación del Hospital Universitario Parc Taulí de Sabadell (Barcelona), sugiere que la herramienta evolucionaría positivamente si el chatbot consultar bases de datos médicas. “Estamos empezando a trabajar en ello. La forma de hacerlo es entrenar la base de datos de pacientes con el sistema OpenAI utilizando sus propios algoritmos e ingenieros. De esta forma se protege la privacidad de los datos”, explica Ibeas.
La tecnología ChatGPT es útil en el entorno médico en determinados casos, reconoce Ibeas: “Su capacidad para generar estructuras, anatómicas o matemáticas, es total. La formación que tiene en estructuras moleculares es muy buena. Allí realmente se inventa poco”. Coincidiendo con el resto de expertos, Ibeas advierte de que la inteligencia artificial nunca sustituirá al médico, pero puntualiza: “El médico que no sabe de inteligencia artificial será sustituido por el que sí sabe”.
puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.
Suscríbete para seguir leyendo
Leer sin límites
_



