Logo de CursoIA
CursoIA Curso de Inteligencia Artificial

Modelos generativos: GANs, VAEs, Unidad 1 — Qué es un modelo generativo, 1.1 — Modelos discriminativos vs generativos ·

Aprender la distribución de los datos

Aprender la distribución de los datos

Introducción

En el camino hacia la creación y comprensión de modelos generativos, como VAEs (Autoencoders Variacionales) y GANs (Generative Adversarial Networks), es fundamental entender cómo estos modelos aprenden a representar la distribución subyacente de los datos. La capacidad de aprender una distribución precisa de los datos permite generar ejemplos nuevos que sean coherentes con las características observadas en el conjunto de entrenamiento. En este artículo, exploraremos la importancia de aprender la distribución de los datos y cómo diferencian a modelos generativos de otros tipos de aprendizaje automático.

Explicación principal

Clasificar frente a generar

La clave está en distinguir entre el aprendizaje discriminativo y generativo. Los modelos discriminativos, como las redes neuronales convolucionales (CNNs) o los Random Forests, se utilizan para clasificar datos en distintos grupos basándose en características predefinidas del conjunto de entrenamiento. Por otro lado, los modelos generativos buscan aprender la distribución subyacente de estos datos y generar nuevos ejemplos que son semánticamente coherentes con ese conjunto.

Aprender la distribución de los datos

Un modelo generativo aprende a representar una distribución (probabilística) en lugar de predecir etiquetas o clasificaciones directamente. Por ejemplo, en el caso de imágenes, un VAE aprenderá a modelar cómo se distribuyen las características visuales en el espacio de alta dimensión en el que viven esas imágenes.

Casos de uso reales

Los modelos generativos basados en la aprendizaje de distribuciones son utilizados en una variedad de aplicaciones, desde generar nuevas imágenes hasta modelar patrones complejos en datos financieros. Un ejemplo concreto sería usar un VAE para generar nuevas imágenes de caras humanas que sean semánticamente coherentes con el conjunto de entrenamiento.

Errores típicos / trampas

  1. Overfitting visual: Uno de los errores más comunes es overfitear en datos visuales, donde el modelo aprende demasiados detalles del conjunto de entrenamiento y empieza a generar ejemplos que no son generales. Esto puede ser difícil de detectar sin una evaluación cuidadosa.
  2. Espacio latente restringido: Otro error es creer que el espacio latente (representación abstracta del modelo) es más continuo o flexible de lo que realmente es. En realidad, a menudo está limitado y puede ser difícil explorar nuevas direcciones en este espacio.
  3. Problemas de interpolación: Un VAE puede tener problemas con la interpolación entre puntos en el espacio latente, especialmente si estos puntos no son representaciones válidas del espacio real subyacente.

Checklist accionable

  1. Entender la diferencia: Asegúrate de que entiendes claramente la diferencia entre aprendizaje discriminativo y generativo.
  2. Visualizar la distribución: Utiliza visualizaciones para entender cómo se distribuyen los datos en el espacio latente del modelo.
  3. Ajustar hiperparámetros: Optimiza los hiperparámetros del modelo, especialmente aquellos relacionados con la regularización y la pérdida de reconstrucción.
  4. Evaluación cuidadosa: Realiza una evaluación cuidadosa a través de métodos tanto automáticos como humanos para asegurarte de que el modelo está generando ejemplos coherentes.
  5. Interoperabilidad con otros modelos: Asegúrate de que los modelos generativos se integren bien con otros componentes del pipeline de datos, como preprocesamiento y postprocesamiento.

Cierre

La capacidad de aprender la distribución subyacente de los datos es el pilar sobre el cual se construyen los modelos generativos. Comprender este concepto no solo te prepara para aplicar estos modelos con éxito, sino que también te ayuda a identificar y evitar errores comunes en su entrenamiento y uso.

Siguientes pasos

  • Exploración del espacio latente: Experimenta con diferentes puntos en el espacio latente de un modelo VAE para explorar cómo varían las características generadas.
  • Comparación de modelos: Compara la calidad visual de los resultados generados por GANs y VAEs, y evalúa cuál es más apropiado para tu caso de uso específico.
  • Evaluación humana: Organiza una evaluación humana de los datos generados para obtener feedback directo sobre la coherencia y realismo percibido.

Esperamos que este artículo te haya proporcionado un sólido entendimiento del por qué aprender la distribución subyacente de los datos es tan importante en el campo de los modelos generativos.

Contacto

Indica tu objetivo (ChatGPT, RAG, agentes, automatización) y tu stack (web/backend).