P. Morala Miguélez, J. A. Cifuentes Quintero, R. E. Lillo Rodríguez, I. Úcar Marqués

En este trabajo presentamos una comparación entre métodos de interpretabilidad aplicados a redes neuronales, especialmente aplicados a la detección de interacciones de variables. Generalmente, los métodos de interpretabilidad locales SHAP (Explicaciones Aditivas de SHapley) o LRP (Propagación de Relevancia por Capas) se han desarrollado buscando la importancia de variables por separado, pero puede ser aplicadas para intentar detectar efectos de interacciones. Veremos la comparación entre este tipo de métodos y los resultados obtenidos con NN2Poly, un nuevo método de interpretabilidad global capaz de representar redes neuronales (bajo ciertas restricciones) en forma de polinomios, de manera que es capaz de detectar las interacciones entre variables de manera explícita.

Keywords: Interpretabilidad, Redes Neuronales, Aprendizaje Automático

Scheduled

GT03.AMC1 Machine Learning
November 7, 2023  6:40 PM
CC2: Conference Room


Other papers in the same session

A matheuristic algorithm for feature selection on high dimensional additive models

M. Navarro García, V. Guerrero, M. Durbán, A. del Cerro

Machine-Learning-aided Optimal Transmission Switching

S. Pineda, J. M. Morales, A. Jiménez Cordero


Cookie policy

We use cookies in order to be able to identify and authenticate you on the website. They are necessary for the correct functioning of it, and therefore they can not be disabled. If you continue browsing the website, you are agreeing with their acceptance, as well as our Privacy Policy.

Additionally, we use Google Analytics in order to analyze the website traffic. They also use cookies and you can accept or refuse them with the buttons below.

You can read more details about our Cookie Policy and our Privacy Policy.