Logo de CursoIA
CursoIA Curso de Inteligencia Artificial

Overfitting y underfitting, Unidad 11 — Interpretación y toma de decisiones, 11.1 — Cuándo aceptar un modelo ·

Error aceptable

Error aceptable

Introducción

En la construcción de modelos de machine learning, uno de los objetivos principales es minimizar tanto el error de entrenamiento como el error de validación. Sin embargo, un modelo con un error demasiado bajo puede indicar overfitting, mientras que un error demasiado alto sugiere underfitting. En este artículo, exploraremos cuándo podemos considerar que un error en nuestro modelo es aceptable y cómo tomar decisiones informadas sobre cuándo nos encontramos con el equilibrio correcto entre complejidad del modelo y generalización.

Explicación principal

Cuando hablamos de "error aceptable" en modelos de machine learning, estamos buscando un nivel de rendimiento que permita al modelo realizar predicciones precisas sin sobreajustarse ni subajustarse. Para lograr esto, debemos considerar varios factores.

Ejemplo práctico

Imagina que estás desarrollando un modelo para predecir el precio de las viviendas en una ciudad basado en características como el tamaño del terreno, la ubicación y el número de baños. Después de varias iteraciones, has llegado a un modelo con los siguientes resultados:

from sklearn.metrics import mean_squared_error

# Predicciones del modelo
predictions = model.predict(X_test)

# True values
true_values = y_test.values

# Calculando el error cuadrático medio (MSE)
mse = mean_squared_error(true_values, predictions)
print(f"Error cuadrático medio: {mse}")

Supongamos que este modelo tiene un MSE de 1000. Esto significa que en promedio, nuestras predicciones se desvían en 1000 unidades del valor real.

Errores típicos / trampas

Al evaluar el error aceptable en modelos de machine learning, existen varios errores comunes y trampas a las que podemos caer:

  1. Subestimación del error: Muchos desarrolladores tienden a subestimar el error real de su modelo, especialmente si no utilizan validación cruzada o se centran únicamente en la precisión de entrenamiento. Es importante tener en cuenta tanto el error de validación como el de test.
  1. Comparaciones injustas: Es fácil comparar modelos basándose en solo un conjunto de datos sin considerar cómo se comporta cada modelo con otros conjuntos de datos o en diferentes condiciones. Esto puede llevar a conclusiones erróneas sobre cuál es mejor.
  1. Falta de contexto: El error aceptable también depende del contexto y los requisitos del proyecto. Por ejemplo, un error de 1000 unidades para la predicción de precios de viviendas podría ser aceptable en algunos casos, pero no en otros donde una pequeña diferencia puede tener consecuencias significativas.

Checklist accionable

Aquí te presentamos un checklist que puedes seguir para determinar si el error en tu modelo es aceptable:

  1. Validación cruzada: Asegúrate de usar validación cruzada para obtener una estimación más precisa del rendimiento del modelo.
  2. Comparaciones justas: Compara modelos basándote en múltiples métricas y considera siempre cómo se comportan con conjuntos de datos diferentes.
  3. Contexto del problema: Evalúa el error en el contexto de la aplicación real del modelo, incluyendo las implicaciones de errores comunes y los beneficios potenciales.
  4. Requisitos del negocio: Analiza cuánto el negocio puede tolerar el error. ¿Es un pequeño error aceptable o es necesario ser extremadamente preciso?
  5. Comparación con estándares: Compara tus resultados con estandarizados en tu industria para tener una referencia.
  6. Iteraciones y refinamientos: Si el error no es aceptable, considera ajustes al modelo (como regularización) o recopilar más datos.

Cierre

Siguientes pasos

  1. Ajuste del modelo: Si el error aún no está dentro de los límites aceptables, considera ajustar el modelo utilizando técnicas como regularización, simplificación del modelo o aumento de la cantidad de datos.
  2. Investigación adicional: Explora cómo otros modelos o técnicas podrían mejorar el rendimiento del modelo en base a tu contexto y requisitos.
  3. Revisión por pares: Solicita una revisión por parte de colegas para obtener perspectives adicionales sobre si el error es aceptable.

En resumen, determinar cuándo un error en un modelo de machine learning es aceptable implica tomar en cuenta varios factores, desde las métricas del modelo hasta el contexto real de su uso. Siguiendo estos pasos y reflexionando críticamente sobre los resultados, podrás construir modelos más precisos y útiles para tus proyectos.

Contacto

Indica tu objetivo (ChatGPT, RAG, agentes, automatización) y tu stack (web/backend).