Deepfakes: Implicaciones éticas en modelos generativos Introducción En la era de la inteligencia artificial (IA), los deepfakes han pasado de ser una curiosidad entre entusiastas de la tecnología a un tema de preocupación cada vez mayor. Un…
Uso indevido Introducción El uso indebido de modelos generativos, como GANs (Generative Adversarial Networks) y VAEs (Variational Autoencoders), puede tener consecuencias graves. Estos modelos pueden crear imágenes, texto, música e incluso …
Memorización: Un riesgo técnico en modelos generativos Introducción La memorización es un fenómeno que puede surgir en modelos de aprendizaje automático, especialmente en aquellos entrenados con datos reales. En modelos generativos como GAN…
Overfitting visual: ¿Por qué importa y cómo evitarlo Introducción El overfitting es un problema fundamental que afecta a muchos modelos de aprendizaje automático, incluyendo aquellos utilizados para generar imágenes. Especialmente en la gen…
Sesgos visuales en modelos generativos: VAEs y GANs Introducción En la era de los modelos generativos, como Variational Autoencoders (VAEs) y Generative Adversarial Networks (GANs), es crucial entender cómo estos sistemas pueden perpetuar s…
Diversidad: Evaluando la Realidad Generada por Modelos Generativos Introducción La evaluación de modelos generativos es fundamental para asegurar que las imágenes y datos sintéticos producidos sean coherentes, precisos y útiles. Sin embargo…
Realismo percibido Introducción El realismo percibido es un aspecto crucial a evaluar cuando se utilizan modelos generativos, especialmente GANs y VAEs. Este criterio evalúa la calidad visual y la coherencia de las imágenes generadas por el…
FID: Una Métrica Automática para Evaluación de Modelos Generativos Introducción La medida de la calidad y la representatividad de los modelos generativos es un desafío constante en el campo de la inteligencia artificial. Las métricas automá…