El uso de la inteligencia artificial (IA) en el cuidado de la salud suele asociarse con aplicaciones para los profesionales. Destacan el análisis de imágenes médicas; la búsqueda de nuevos fármacos a partir del big data médico y, por supuesto, la automatización de las tareas administrativas. Sin embargo, su disponibilidad para cualquier usuario ha puesto en relieve algunos problemas de la IA.
La introducción en 2023 de los chatbots inteligentes en los motores de búsqueda de los navegadores web —Bing, de Microsoft y Gemini (antes Bard) de Google— cambió la manera en que muchas personas buscan información en la Internet.
Si bien un gran porcentaje de las pesquisas efectuadas con la IA arrojan resultados útiles, no siempre es el caso.
Algunos ejemplos de respuestas inútiles resultan cómicos, como la aseveración de que los primeros astronautas hallaron gatos en la Luna. A veces se trata de consejos desaforados, como el comer piedras o poner pegamento en la pizza (en el primer caso, el chatbot tomó la información de un artículo satírico aparecido en The Onion; en el segundo, de una receta sarcástica en un blog con más de 12 años de antigüedad).
Pero los problemas de la IA no se limitan a brindar respuestas absurdamente divertidas (aunque no faltará quien las crea). Las propias compañías advierten de la posibilidad de obtener resultados erróneos, incompletos o de plano dañinos. Lo verdaderamente grave es que, cuando se trata de la salud, seguir los consejos equivocados de la IA puede desembocar en la muerte.
Alucinaciones y problemas de la IA
La causa de las respuestas absurdas es bien sabida: los modelos amplios de lenguaje (LLM) buscan contestar con las palabras más adecuadas en función de los datos con los que se entrenaron. Es decir, no dejan de tener cierto grado de aleatoriedad que deriva en que inventen respuestas. Dicho problema se describe con un nombre tan florido como adecuado: alucinación. Ahora bien, en el cuidado de la salud dichos problemas de la IA pueden tornarse muy graves.
Investigadores belgas y alemanes presentaron un estudio en el que analizan la calidad de las respuestas recibidas por los pacientes cuando buscan información sobre medicamentos comunes. Para ello utilizaron Microsoft Bing en su versión para la web (Google Gemini se niega regularmente a responder preguntas médicas).
Le pidieron al chatbot que respondiera 10 preguntas frecuentes sobre los 50 medicamentos más recetados en Estados Unidos. Abarcaron temas como las indicaciones de uso, los mecanismos de acción, las posibles interacciones medicamentosas, las reacciones adversas y las contraindicaciones.
Las 500 respuestas que obtuvieron fueron evaluadas, primero, según la facilidad para entender la información brindada. El resultado: en promedio, las respuestas fueron difíciles de comprender.
Para determinarlo, se empleó la escala de legibilidad Flesch, en la que 100 es muy fácil de leer y 0 extremadamente difícil. El puntaje medio del chatbot fue de 37.2, es decir, entendibles sólo para aquellos con formación universitaria en medicina. De hecho, incluso las respuestas más fáciles sólo serían plenamente claras para personas con al menos educación secundaria.
Médicos irreemplazables
Pero los problemas de la IA reportadas por el estudio no se limitaron a la complejidad del lenguaje. Al analizar la calidad de la información proporcionada, se encontró que 24% de las respuestas contenían datos equivocados. Un 3% adicional de las respuestas eran de plano completamente erróneas.
Para determinar qué tanto dichos problemas de la IA podrían resultar en daño a los pacientes, se evaluaron las respuestas inexactas. Se consideró que hacer caso de poco más de un tercio de ellas (36%) sería inofensivo. En cambio, guiarse por otro 42% resultarían en un daño leve en el paciente. Y lo más grave: tomar por bueno el 22% restante provocaría daños graves e incluso la muerte del paciente.
La conclusión es evidente. Si bien la inteligencia artificial es cada vez más útil para el cuidado de la salud, no pueden obviarse sus limitaciones. La principal es que, por mucho que ha avanzado, sus respuestas no sustituyen el diagnóstico de un médico. Y probablemente nunca lo hagan.