La educación superior utiliza un conjunto creciente de soluciones y herramientas de inteligencia artificial (IA) para desarrollar sus actividades. Sin embargo, no siempre se entiende a fondo la manera en que funcionan los algoritmos ni por qué arrojan ciertos resultados. Ahora bien, comprender la manera en que se llegó a ellos resulta esencial para la confiabilidad. Una manera de lograrlo es con el uso de la llamada IA explicable o XAI, por su acrónimo en inglés (eXplainable AI).

El término explicable se refiere a la posibilidad de comprender claramente la manera en que los modelos de IA llegan a una respuesta dada. En los algoritmos más sencillos, como un árbol de opciones, la cadena de decisiones es fácil de trazar y comprender. Sin embargo, en el caso de los modelos de IA más complejos (como la IA generativa) se vuelve muy difícil, si no imposible, entender la cadena de decisiones. Es decir, la IA se convierte en una “caja negra”: se alimenta con datos pero no se sabe a ciencia cierta cómo los interpreta.

Incomprensión extendida

Lo anterior se debe a que la IA procesa los datos mediante algoritmos de machine learning (ML), aprendizaje profundo y redes neuronales complejas. Para ello, no requieren de la intervención humana. Y aún más: por su naturaleza, dichas herramientas ejecutan las tareas de una forma que la mayoría de las personas no puede entender fácilmente. Es decir, sus resultados pueden ser directamente enigmáticos.

Además, esa incomprensión se no se limita a los legos. Muchas veces ni siquiera los ingenieros o científicos de datos que diseñaron el modelo pueden explicar cómo éste obtuvo un resultado determinado. Eso se debe a que no comprenden exactamente cómo ocurren los procesos de la IA.

Por supuesto, en la educación universitaria la IA explicable ayuda a obtener mejores resultados. Empero, hay desafíos y trampas que deben tenerse en cuenta. Por ejemplo, un error muy común consiste en pensar que la complejidad de un sistema equivale a mayor calidad. No siempre es así. Puede ocurrir que modelos más sencillos y, por ende, interpretables, tengan un rendimiento comparable o incluso superior.

En vista de lo anterior, conviene comenzar con modelos simples de IA explicable y aumentar la complejidad sólo cuando realmente sea necesario. Y entonces debe hacerse gradualmente, para medir y comparar el rendimiento tanto en precisión como en interpretabilidad.

También se debe tomar en cuenta la calidad de los datos: si no son los adecuados, la IA no obtendrá buenos resultados y, a menos que se tratase de una solución XAI, los usuarios podrían no percatarse del problema.

Ventajas de la IA explicable

Ahora bien, el aumento en el uso de la IA en las universidades es muy acusado a nivel global. El asunto se abordó durante un taller organizado recientemente en Bruselas por el European Digital Education Hub, donde un grupo de expertos hizo algunas recomendaciones concernientes a la IA explicable. Entre ellas se encuentran:

●Crear una escala común para medir la explicablidad de la inteligencia artificial. Eso ayudaría a elegir los sistemas más transparentes y comprensibles. También permitiría asegurarse de que las soluciones estén en sintonía con las necesidades específicas de cada universidad.

●Se debe procurar la alfabetización de datos y de inteligencia artificial tanto para los estudiantes como para los profesores y el personal administrativo. De otra manera, se complica la comprensión de los resultados, aun si se trata de soluciones de XAI.

●Cuando sea posible, las universidades o autoridades educativas deben participar en el diseño de las soluciones de IA para la enseñanza. Eso propiciaría que desde el inicio se tomen en cuenta las necesidades específicas de explicabilidad en la educación.

Ahora bien, diseñar modelos adecuados para una XAI tiene ventajas para los ingenieros de IA. Esto es porque se facilita su tarea de depurar los algoritmos y comprender su trabajo interno. Y aunque en la mayoría de los casos eso puede tener por costo un rendimiento reducido, la IA explicable robustece la auditabilidad del modelo y su uso productivo. Además, mitiga los riesgos legales, de seguridad y de reputación.