La inteligencia artificial (IA) tiene un auge creciente en el cuidado de la salud. El número de hospitales y sistemas sanitarios que la emplean aumenta mes a mes. Sin embargo, dado que esta tecnología impacta directamente en el bienestar de los pacientes, comprender la manera en que obtiene sus resultados y saber que son confiables es crucial. Una manera de lograrlo es con el uso de la llamada inteligencia artificial explicable o XAI, por acrónimo en inglés (eXplainable AI).
El término explicable se refiere a la posibilidad de comprender claramente la manera en que los modelos de IA llegan a una respuesta dada. En los algoritmos más sencillos, como un árbol de opciones, la cadena de decisiones es fácil de trazar y comprender. Sin embargo, en el caso de los modelos de IA más complejos (como la IA generativa) se vuelve muy difícil, si no imposible, comprender la cadena de decisiones. Es decir, la IA se convierte en una “caja negra”: se alimenta con datos pero no se sabe a ciencia cierta cómo los interpreta.
Lo anterior se debe a que la IA procesa los datos mediante algoritmos de machine learning (ML), aprendizaje profundo y redes neuronales complejas. Para ello, no requieren de la intervención humana. Y aún más: por su naturaleza, dichas herramientas ejecutan las tareas de una forma que la mayoría de las personas no puede comprender fácilmente. Es decir, sus resultados puede ser directamente enigmáticos.
Y además, esa incomprensión se no se limita a los legos. Muchas veces ni siquiera los ingenieros o científicos de datos que diseñaron el modelo pueden explicar cómo obtuvo un resultado determinado. Eso se debe a que no comprenden exactamente cómo ocurren los procesos de la IA.
Necesidad de la inteligencia artificial explicable
Ahora bien, en la atención sanitaria existe el imperativo de comprender cómo una IA alcanza un resultado específico. Y no sólo para garantizar la calidad del diagnóstico o los tratamientos. También desempeña un papel importante a la hora de ganarse la confianza de los pacientes. Por supuesto, también tiene que ver con el cumplimiento de las normas regulatorias. Es por ello que cobra cada vez más relevancia la inteligencia artificial explicable.
Sin embargo, favorecer el uso de la inteligencia artificial explicable no es una tarea fácil. El cuidado de la salud utiliza algoritmos complejos de aprendizaje profundo, integrados por numerosas capas y redes neuronales intrincadas, con numerosos parámetros y arquitecturas. Por ende, es casi imposible comprender y seguir directamente sus rutas de decisión. Además, encontrar problemas específicos en el código de los algoritmos es muy difícil.
Ahora bien, diseñar modelos adecuados para una inteligencia artificial explicable tiene ventajas para los ingenieros de IA. Esto es porque se facilita su tarea de depurar los algoritmos y comprender su trabajo interno. Aunque, en la mayoría de los casos, esto tiene un costo: un rendimiento reducido. Sin embargo, la seguridad de los pacientes es prioritaria. Por ende, la capacidad de depurar y refinar los modelos de manera rápida y precisa es vital.
Por otra parte, la inteligencia artificial explicable robustece la auditabilidad del modelo y su uso productivo. También mitiga los riesgos legales, de seguridad y de reputación. En consecuencia, favorece la confianza de los pacientes y los médicos en la IA:
En suma, conforme aumente el uso de las TIC la atención médica, crecerá la demanda de modelos de inteligencia artificial explicable. El objetivo es permitir que sus procesos de toma de decisiones puedan entenderse y ser confiables.