Interpretabilidad básica: Visualización de Activaciones en Redes Convolucionales Introducción La interpretabilidad es un aspecto crucial en el desarrollo y aplicación de modelos de Deep Learning, especialmente cuando se trata con datos visu…
Filtros aprendidos Introducción Los filtros aprendidos son una parte crucial de la interpretación de las redes convolucionales (CNN). Estos filtros, también conocidos como kernels o características, representan patrones y características cl…
Feature maps Introducción Las feature maps son una herramienta fundamental para entender y visualizar lo que aprenden las redes convolucionales (CNN) a medida que procesan imágenes. A través de la interpretación de estas mapas, podemos obte…