Por Juan Pablo Ojeda
Un equipo internacional, coordinado por la Universidad de Granada (UGR), ha elaborado un manual pionero sobre inteligencia artificial (IA) explicable (XAI, por sus siglas en inglés), cuyo objetivo es mejorar la transparencia y la confianza en el uso de esta tecnología en sectores clave como la salud, las finanzas y el ámbito legal. Este recurso, dirigido tanto a profesionales como a estudiantes de ciencias computacionales, busca ofrecer una forma de verificar y certificar los resultados de los modelos complejos de IA, fomentando sistemas más justos, comprensibles y éticos.
La guía, que ya está disponible para el público, pretende convertirse en una referencia fundamental para los expertos en el campo de la IA, ya que aborda las principales preocupaciones sobre la naturaleza «opaca» de tecnologías como las Redes Neuronales Profundas (DNNs). Estas redes, aunque extremadamente poderosas en términos de predicción y análisis, se caracterizan por ser sistemas de «caja negra», lo que significa que su comportamiento es difícil de interpretar, lo que genera dudas y riesgos éticos relacionados con su adopción en áreas sensibles.
El reto de la explicabilidad en la inteligencia artificial
En los últimos años, el uso de modelos automáticos de apoyo a la toma de decisiones ha crecido a pasos agigantados. Sin embargo, este avance ha planteado nuevas problemáticas en cuanto a la necesidad de hacer que estos modelos sean más transparentes y accesibles para los usuarios, especialmente cuando se aplican en contextos cruciales como la salud, el sistema judicial o las finanzas.
La profesora Natalia Díaz Rodríguez, directora del manual y miembro del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI), explica que el propósito del manual es ayudar a que los profesionales de la informática y otros campos puedan comprender, explicar y validar los resultados de los modelos de machine learning. «Es fundamental que los usuarios comprendan las capacidades y limitaciones de los modelos de IA, así como las técnicas que explican cómo llegan a sus decisiones», comenta Díaz.
Manual práctico y accesible para la comunidad profesional
El manual desarrollado por el equipo de la UGR contiene una serie de técnicas detalladas de IA explicable (XAI), acompañadas de ejemplos prácticos y cuadernos de trabajo que permiten poner en práctica los conceptos teóricos. Además, se incluye un manual de ayuda que orienta a los usuarios sobre los requisitos necesarios para aplicar cada técnica de manera efectiva, con el fin de garantizar resultados óptimos en cada situación.
La colaboración internacional en este proyecto fue posible gracias a la participación de expertos del Reino Unido, Francia y Austria, quienes aportaron valiosos conocimientos sobre los desafíos éticos, sociales y técnicos que implica la adopción generalizada de la IA explicable. La creación de este manual se realizó durante la estancia de la profesora Díaz en el Instituto Politécnico de París, lo que permitió una integración de enfoques globales en la solución de estos problemas.
Un futuro más claro para la inteligencia artificial
Este manual sobre IA explicable llega en un momento clave para la industria de la inteligencia artificial. A medida que esta tecnología sigue ganando terreno en sectores como la medicina personalizada, el análisis financiero y la justicia, el reto de garantizar que las decisiones tomadas por sistemas automatizados sean comprensibles y transparentes se vuelve cada vez más urgente.
La labor del equipo coordinado por la Universidad de Granada es fundamental para ayudar a que la IA avance de manera ética y responsable, de modo que los usuarios puedan confiar en los sistemas automáticos sin temor a que las decisiones tomadas por estos sean injustas o discriminatorias.