P. Morala Miguélez, J. A. Cifuentes Quintero, R. E. Lillo Rodríguez, I. Úcar Marqués
En este trabajo presentamos una comparación entre métodos de interpretabilidad aplicados a redes neuronales, especialmente aplicados a la detección de interacciones de variables. Generalmente, los métodos de interpretabilidad locales SHAP (Explicaciones Aditivas de SHapley) o LRP (Propagación de Relevancia por Capas) se han desarrollado buscando la importancia de variables por separado, pero puede ser aplicadas para intentar detectar efectos de interacciones. Veremos la comparación entre este tipo de métodos y los resultados obtenidos con NN2Poly, un nuevo método de interpretabilidad global capaz de representar redes neuronales (bajo ciertas restricciones) en forma de polinomios, de manera que es capaz de detectar las interacciones entre variables de manera explícita.
Palabras clave: Interpretabilidad, Redes Neuronales, Aprendizaje Automático
Programado
GT03.AMC1 Aprendizaje Automático
7 de noviembre de 2023 18:40
CC2: Sala Conferencias