Gradient Boosting para regresión Introducción La regresión es una técnica fundamental en el análisis de datos y la predicción numérica, donde se busca modelar la relación entre una variable dependiente continua (la "respuesta") y …
Random Forest para regresión Introducción El método de Random Forest es una técnica poderosa y flexible que se utiliza ampliamente en aprendizaje supervisado, especialmente en problemas de clasificación y regresión. Cuando hablamos de regre…
Árboles de regresión Introducción La regresión es una técnica fundamental en el aprendizaje supervisado, utilizada para predecir valores continuos. En la unidad 8 de este curso, exploramos modelos de regresión alternativos a la regresión li…
Elastic Net: Regularización en regresión Introducción En el ámbito de los modelos de regresión, la regularización se ha convertido en una herramienta esencial para mitigar el overfitting y mejorar la generalización del modelo. La regulariza…
Lasso La regularización es una técnica esencial en la regresión para prevenir el overfitting y mejorar la interpretabilidad de los modelos. En esta unidad, exploraremos el método Lasso (acortado de "Least Absolute Shrinkage and Selecti…
Ridge: Regularización para Modelos de Regresión Introducción La regularización es un método crucial para evitar overfitting (sobreajuste) en modelos de regresión. El overfitting ocurre cuando un modelo se ajusta demasiado al conjunto de dat…
Interpretabilidad Introducción En la construcción de modelos de regresión, una pregunta esencial que surge constantemente es: ¿cómo podemos comprender y explicar las predicciones que hacen nuestros algoritmos? La interpretabilidad es crucia…
Bias vs Variance: Por qué regularizar los modelos de regresión Introducción En el contexto del machine learning, especialmente en la regresión, dos conceptos clave que a menudo se presentan como problemas opuestos son bias (sesgo) y varianc…