Inferencia variacional: Fundamentos probabilísticos para modelos generativos Introducción La inferencia variacional es una técnica clave que permite convertir problemas de aprendizaje no supervisado en problemas solubles con métodos de opti…
Generación desde ruido: Variational Autoencoders (VAEs) como modelos generativos Introducción La generación de datos a partir de "ruido" es un desafío fundamental en IA y se encuentra en el corazón de la teoría de los modelos gene…
Regularización del espacio latente Introducción La regularización es un concepto fundamental en la construcción y entrenamiento de modelos de inteligencia artificial, especialmente relevantes para las arquitecturas como los Autoencoders Var…
Distribuciones en lugar de puntos: Comprendiendo los Variational Autoencoders Introducción En el ámbito de la Inteligencia Artificial generativa, los modelos basados en redes neuronales como los Generative Adversarial Networks (GANs) y los …
Problemas de interpolación en Autoencoders Introducción La interpolación es una técnica fundamental en la generación de datos continuos. En el contexto de los autoencoders, esta técnica permite generar nuevas muestras que se encuentran entr…
No es realmente generativo: Limitaciones de los Autoencoders estándar Introducción Los autoencoders son una clase de redes neuronales que son capaces de aprender representaciones compactas y significativas para datos complejos, como imágene…
Espacio latente no continuo Introducción El concepto de espacio latente es fundamental para comprender cómo funcionan los modelos generativos, ya sean Autoencoders (AE) o Generative Adversarial Networks (GANs). Sin embargo, una característi…
Qué aprende realmente un Autoencoder clásico Introducción Los autoencoders (AE) son una clase de redes neuronales utilizadas para la compresión y reconstrucción de datos. Su propósito es capturar los patrones más importantes en los datos de…