P. Morala Miguélez, J. A. Cifuentes Quintero, R. E. Lillo Rodríguez, I. Úcar Marqués

En este trabajo presentamos una comparación entre métodos de interpretabilidad aplicados a redes neuronales, especialmente aplicados a la detección de interacciones de variables. Generalmente, los métodos de interpretabilidad locales SHAP (Explicaciones Aditivas de SHapley) o LRP (Propagación de Relevancia por Capas) se han desarrollado buscando la importancia de variables por separado, pero puede ser aplicadas para intentar detectar efectos de interacciones. Veremos la comparación entre este tipo de métodos y los resultados obtenidos con NN2Poly, un nuevo método de interpretabilidad global capaz de representar redes neuronales (bajo ciertas restricciones) en forma de polinomios, de manera que es capaz de detectar las interacciones entre variables de manera explícita.

Palabras clave: Interpretabilidad, Redes Neuronales, Aprendizaje Automático

Programado

GT03.AMC1 Aprendizaje Automático
7 de noviembre de 2023  18:40
CC2: Sala Conferencias


Otros trabajos en la misma sesión

A matheuristic algorithm for feature selection on high dimensional additive models

M. Navarro García, V. Guerrero, M. Durbán, A. del Cerro

Machine-Learning-aided Optimal Transmission Switching

S. Pineda, J. M. Morales, A. Jiménez Cordero


Política de cookies

Usamos cookies solamente para poder idenfiticarte y autenticarte dentro del sitio web. Son necesarias para el correcto funcionamiento del mismo y por tanto no pueden ser desactivadas. Si continúas navegando estás dando tu consentimiento para su aceptación, así como la de nuestra Política de Privacidad.

Adicionalmente, utilizamos Google Analytics para analizar el tráfico del sitio web. Ellos almacenan cookies también, y puedes aceptarlas o rechazarlas en los botones de más abajo.

Aquí puedes ver más detalles de nuestra Política de Cookies y nuestra Política de Privacidad.