En medicina, el problema de la inteligencia artificial no es solo cuánto acierta, sino cuándo parece más segura de lo que realmente es. Un equipo del MIT propone ahora un marco para que estos sistemas reconozcan sus propios límites y eviten inducir decisiones clínicas basadas en una confianza que la evidencia no respalda.
La inteligencia artificial (IA) promete ayudar a los médicos a diagnosticar pacientes y elegir tratamientos personalizados. Sin embargo, los sistemas de IA actuales suelen actuar con exceso de confianza. Pueden ofrecer consejos erróneos a pesar de parecer muy fiables, lo que puede llevar a los médicos a seguir sugerencias equivocadas incluso cuando su propio criterio difiere.
Una solución consiste en hacer que la IA sea más humilde. Los sistemas humildes mostrarían claramente cuándo no están seguros de un diagnóstico o recomendación. En ese caso, animarían a los médicos a recabar información adicional, como pruebas complementarias u opiniones de especialistas, antes de tomar una decisión final. Esta investigación se publica en BMJ Health and Care Informatics .
Investigadores del MIT crearon un marco que guía a los desarrolladores en la creación de este tipo de IA básica. Este enfoque añade varios módulos computacionales a los sistemas existentes. Un módulo clave es la Puntuación de Virtud Epistémica. Esta puntuación actúa como una verificación de autoconciencia. Evalúa si la confianza de la IA coincide con la calidad y la exhaustividad reales de los datos disponibles. La virtud epistémica implica ser intelectualmente honesto sobre los límites del propio conocimiento.
Nota sobre el autor
(*) Giulio Prisco es editor sénior de Mindplex. Escritor de ciencia y tecnología, interesado principalmente en ciencia fundamental y espacial, cibernética e inteligencia artificial, TI, realidad virtual, biotecnologías/nanotecnologías y criptotecnologías. Este artículo se publicó originalmente en Mindplex y se reproduce con autorización. La versión en inglés puede consultarse aquí.
Inteligencia artificial intelectualmente honesta
Cuando el sistema detecta que su confianza excede lo que respalda la evidencia, se detiene y señala la incertidumbre. Puede solicitar pruebas específicas, el historial del paciente o una consulta con un especialista. El objetivo es que la IA funcione como un guía o copiloto, en lugar de un oráculo omnisciente. Esto permite que los médicos mantengan el control y fomenta el pensamiento creativo.
El trabajo también aborda los problemas relacionados con los datos de entrenamiento. Muchos modelos de IA aprenden de historiales clínicos electrónicos que no fueron diseñados para este fin. Estos historiales suelen carecer de contexto importante y excluyen a pacientes de zonas rurales o con diferentes orígenes, lo que puede generar sesgos. Los talleres del MIT reúnen a médicos, pacientes, científicos de datos y otros profesionales para examinar detenidamente los conjuntos de datos y reducir estas desigualdades.
Actualmente se prevé probar el marco de trabajo utilizando grandes bases de datos hospitalarias, incluida la base de datos MIMIC del Centro Médico Beth Israel Deaconess. Estas mismas ideas podrían aplicarse a herramientas de IA que analizan imágenes de rayos X o recomiendan tratamientos en salas de urgencias.
Este enfoque pretende crear una inteligencia artificial más segura y reflexiva que apoye, en lugar de anular, la toma de decisiones humanas en medicina.













