Cómo evitar que la inteligencia artificial decepcione más a las mujeres en los diagnósticos médicos |  Tecnología
Cómo evitar que la inteligencia artificial decepcione más a las mujeres en los diagnósticos médicos |  Tecnología

Aburrida en un hospital de Nueva Jersey, Diane Camacho le contó a ChatGPT los síntomas que padecía y le pidió que hiciera una lista de posibles diagnósticos médicos. Tenía dificultad para respirar, dolor en el pecho y la sensación de que su corazón “se detenía y arrancaba”. El chatbot de OpenAI le dijo que la ansiedad era el diagnóstico más probable. Camacho volvió a preguntar por el pronóstico para un hombre con los mismos síntomas, con la sorpresa de que la IA le había advertido de la posibilidad de sufrir una embolia pulmonar, un síndrome coronario agudo o una miocardiopatía, pero ningún rastro de ansiedad. Así lo publicó Camacho hace unas semanas en la red X (antes Twitter).

La IA generativa, como ChatGPT, combina grandes cantidades de datos con algoritmos y toma decisiones mediante aprendizaje automático. Si los datos están incompletos o no son representativos, los algoritmos pueden estar sesgados. Durante el muestreo, los algoritmos pueden cometer errores sistemáticos y seleccionar algunas respuestas sobre otras. Ante estos problemas, la ley europea sobre inteligencia artificial aprobada el pasado diciembre da prioridad a que la herramienta se desarrolle con criterios éticos, transparentes y libres de sesgos.

Los dispositivos médicos, según la norma, se consideran de alto riesgo y deben cumplir requisitos rigurosos: tener datos de alta calidad, registrar su actividad, tener documentación detallada del sistema, proporcionar información clara al usuario, tener medidas de seguridad, supervisión humana y con un alto nivel de robustez, seguridad y precisión, según explica la Comisión Europea.

EL arrancar por Pol Solà de los Santos, presidente de Vincer.Ai, tiene la tarea de verificar que las empresas cumplen con las condiciones europeas. “Esto lo hacemos a través de un sistema de gestión de calidad de algoritmos, modelos y sistemas de inteligencia artificial. Se hace un diagnóstico del modelo de lenguaje y lo primero es ver si hay daños y cómo corregirlos”. Además, si una empresa tiene una plantilla parcial, recomienda notificarlo con un descargo de responsabilidad. “Si quisiéramos distribuir un medicamento que no es apto para niños de 7 años, sería impensable no avisar”, explica Solà de los Santos.

En el entorno sanitario, las herramientas de inteligencia artificial (IA) se están volviendo comunes en las pruebas y programación de diagnóstico por imágenes. Ayudan a los trabajadores sanitarios a acelerar su trabajo y ser más precisos. En radiología son “sistemas de ayuda”, indica Josep Munuera, director de Radiodiagnóstico del Hospital Sant Pau de Barcelona y experto en tecnologías digitales aplicadas a la salud. “Los algoritmos están dentro de los dispositivos de resonancia magnética y reducen el tiempo que se tarda en obtener la imagen”, explica Munuera. Por tanto, una resonancia que duraría 20 minutos se puede reducir a sólo siete minutos, gracias a la introducción de algoritmos.

Los sesgos pueden generar diferencias en la atención médica según el género, el origen étnico o la demografía. Un ejemplo se da en las radiografías de tórax, tal y como explica Luis Herrera, arquitecto de soluciones de Databricks España: “Los algoritmos utilizados mostraban diferencias de precisión en función del género, lo que provocaba diferencias en la atención. Específicamente, la precisión en el diagnóstico de las mujeres fue mucho menor”. Los prejuicios de género, subraya Munuera, son clásicos: “Tiene que ver con prejuicios demográficos y con bases de datos. Los algoritmos se introducen o consultan en bases de datos, y si las bases de datos históricas tienen un sesgo de género, la respuesta estará sesgada”. Sin embargo, añade: “Existen sesgos de género en la salud, independientemente de la IA”.

Cómo evitar los prejuicios

¿Cómo se reentrena la base de datos para evitar sesgos? Arnau Valls, ingeniero coordinador del departamento de Innovación del Hospital Sant Joan de Déu de Barcelona, ​​explica cómo se hizo en un caso de detección de covid en Europa, utilizando un algoritmo desarrollado con población china: “La precisión del algoritmo disminuyó un 20% y aparecieron falsos positivos. Era necesario crear una nueva base de datos y añadir al algoritmo imágenes de la población europea.”

Para abordar un modelo sesgado como usuarios debemos ser capaces de contrarrestar las respuestas que nos proporciona la herramienta, indica Herrera: “Debemos promover la concienciación sobre los sesgos en la inteligencia artificial y promover el uso del pensamiento crítico, así como exigir transparencia a las empresas . y validar fuentes.

Los expertos acuerdan no utilizar ChatGPT con fines médicos. Pero José Ibeas, director del grupo de Nefrología del Instituto de Investigación e Innovación del Hospital Universitario Parc Taulí de Sabadell (Barcelona), sugiere que la herramienta evolucionaría positivamente si el chatbot consultar bases de datos médicas. “Estamos empezando a trabajar en ello. La forma de hacerlo es entrenar la base de datos de pacientes con el sistema OpenAI utilizando sus propios algoritmos e ingenieros. De esta manera se protege la privacidad de los datos”, explica Ibeas.

La tecnología ChatGPT es útil en el entorno médico en algunos casos, reconoce Ibeas: “Su capacidad para generar estructuras, anatómicas o matemáticas, es total. La formación que tiene en estructuras moleculares es muy buena. Allí se inventa muy poco.” De acuerdo con otros expertos, el Ibeas advierte de que la inteligencia artificial nunca sustituirá al médico, pero subraya: “El médico que no conoce la inteligencia artificial será sustituido por el que la conoce”.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

Regístrate para continuar leyendo

Leer sin límites

_