La necesidad de explicar los modelos de Inteligencia Artificial es, sin duda, uno de los campos de investigación más vanguardistas del último lustro, acuñando lo que hoy día se conoce como XAI (Explainable Artificial Intelligence). Este campo de estudio comprende técnicas y métodos orientados a la explicación de la Inteligencia Artificial, teniendo en cuenta tres factores fundamentales:

  1. La naturaleza del modelo a explicar, que puede hacerlo desde inherentemente transparente (un árbol de decisión) hasta completamente opaco e ininteligible (un modelo de aprendizaje profundo).
  2. La audiencia objetivo por la que se persigue la explicación del modelo, sean gerentes que pretenden valorar el rendimiento de sus activos basados en Inteligencia Artificial, desarrolladores que pretenden entender mejor los modelos para poder extender sus capacidades, o usuarios finales que estén interesados en las implicaciones que el uso de esta tecnología tiene en cuestiones sensibles como la privacidad de sus datos.
  3. La forma en la que dicha explicación va a ser fabricada y presentada a la audiencia, que dependerá de su grado de conocimiento y capacidades cognitivas, así como de las posibilidades que brinde el modelo de ser explicado en una u otra forma.
Post completo