Casos reales de prompt injection avanzada Introducción La seguridad es una cuestión crucial cuando se trabaja con sistemas que utilizan modelos de lenguaje como LLMs (Modelos de Lenguaje de Gran Escala). Un aspecto particularmente delicado …
Ataques por contexto Introducción La seguridad en la ingeniería de prompts es crucial para garantizar que los modelos LLMs (Modelos de Lenguaje de Generación) funcionen correctamente y de forma segura. Un ataque por contexto es una técnica …
Inyección indirecta Introducción La inyección indirecta es un método sofisticado de ataque en la ingeniería de prompts que permite a los malintencionados introducir información no deseada o manipular el comportamiento de los sistemas basado…
Umbrales de confianza Introducción En la era de los sistemas de inteligencia artificial basados en modelos de lenguaje como LLMs (Modelos de Lenguaje de Gran Escala), es fundamental abordar y gestionar la incertidumbre que se produce durant…
Respuestas condicionadas: Controlando la incertidumbre en prompts Introducción El control de incertidumbre es una habilidad crucial para cualquier arquitecto que trabaje con sistemas basados en LLMs (Modelos de Lenguaje Generativos). Las re…
Forzar “no sé” Introducción En el ámbito de la ingeniería de prompts para sistemas basados en modelos de lenguaje (LLMs), es crucial abordar el control de incertidumbre. Una parte importante de este control es aprender a forzar al modelo a …
Fallbacks programáticos Introducción En el ámbito de la ingeniería de prompts para modelos de lenguaje basados en sistemas LLM (Large Language Models), los fallbacks programáticos son una herramienta esencial para manejar las alucinaciones …
Prompts defensivos Introducción En la era de los sistemas LLMs, no basta con generar respuestas precisas y relevantes; es crucial proteger esos sistemas frente a alucinaciones y fallos. Las alucinaciones son respuestas inesperadas o errónea…