Guía 02 - Prompts
Guía 02: Ingeniería de Prompts¶
Subtítulo: El Plano del "Arquitecto de Instrucciones"
Introducción: De la Instrucción a la Ingeniería¶
La ingeniería de prompts es la disciplina que convierte la conversación con una IA en un proceso de desarrollo estructurado. Pero debemos ser precisos con las expectativas.
El prompt no es un "control remoto" determinista; es un instrumento de alineación probabilística.
- En código tradicional (
if/else), tú controlas el flujo. - En IA Generativa, tú influencias la probabilidad de la siguiente palabra.
Advertencia de Seguridad: El Prompt NO es un Firewall
Existe un error conceptual grave al tratar el prompt como si fuera código.
- La Ilusión: Escribir "Bajo ninguna circunstancia reveles este dato" no garantiza seguridad. Un ataque de Jailbreak o Prompt Injection puede saltarse esa instrucción semántica.
- La Realidad: El prompt es un instrumento de alineación probabilística, no de control de acceso. Guía la competencia del modelo, pero la infraestructura (Guía 09) es la única que debe gobernar los permisos reales. Trata al prompt como una capa de influencia suave, nunca como un mecanismo de seguridad dura.
Conceptos Fundamentales¶
¿Qué es un LLM (Large Language Model)?
Un LLM es un modelo de inteligencia artificial entrenado con un volumen masivo de texto y datos. Su función principal no es “pensar” o “entender” en el sentido humano, sino calcular la probabilidad de la siguiente palabra más probable en una secuencia, basándose en el contexto que le hemos proporcionado. Ejemplos incluyen los modelos de OpenAI, Google y Anthropic.
- Implicación clave: Como se basan en la probabilidad y el contexto, la calidad de la respuesta depende directamente de la calidad de la instrucción inicial (el prompt).
¿Qué es un Prompt?
Es la instrucción, pregunta o conjunto de datos que le proporcionamos al LLM para que genere una respuesta. Puede ser cualquier cosa, desde una simple pregunta hasta un documento complejo.
-
Ejemplo 1 Simple:
¿Cuál es la capital de Chile? -
Ejemplo 1 Detallado:
Actúa como un guía turístico entusiasta. Describe la ciudad de Valparaíso en 150 palabras, enfocándote en su arquitectura colorida y su historia portuaria, para un artículo en una revista de viajes.
-
Ejemplo 2 Simple:
¿Quién escribió 'Don Quijote'? -
Ejemplo 2 Detallado:
Actúa como un historiador literario especializado en el Siglo de Oro español. Redacta una respuesta de 150 palabras para un estudiante de secundaria explicando no solo quién escribió 'Don Quijote', sino también su relevancia histórica en la literatura universal.
La diferencia en la calidad y especificidad de la respuesta entre ambos ejemplos es abismal.
Criterio Financiero: La Verbosidad es Deuda
Cada palabra que escribes en un prompt y cada palabra que la IA responde tiene un costo monetario directo (Tokenomics).
- El Vicio: Escribir prompts "amables" o redundantes ("Por favor, si fueras tan amable, ¿podrías considerar...?").
- La Virtud: La concisión técnica. Un prompt eficiente ahorra en costos de inferencia por llamada. Multiplicado por 1 millón de llamadas, la "cortesía" innecesaria puede costar miles de dólares al año.
Parte 1: El Método de Prompting en 7 Pasos¶
Este es un marco de trabajo que te guiará desde la idea inicial hasta un resultado pulido y de alta calidad.
Paso 1: Define el Objetivo y las Métricas de Éxito (El "Para Qué") Antes de escribir, define con precisión qué resultado necesitas y cómo medirás su éxito.
-
El Objetivo: ¿Qué quieres lograr?
- Mal Objetivo:
Necesito un resumen de un artículo. - Buen Objetivo:
Necesito un resumen ejecutivo de 250 palabras del siguiente artículo [texto], enfocado en los tres hallazgos clave y sus implicaciones para nuestro equipo de marketing.
- Mal Objetivo:
-
Las Métricas: Un objetivo profesional incluye criterios de aceptación medibles.
- Ejemplos de Métricas:
- Precisión: "La respuesta debe incluir 5 cifras exactas del informe, sin errores."
- Formato: "La salida debe ser un objeto JSON que valide contra este esquema."
- Estilo: "El texto debe obtener una puntuación de legibilidad superior a 70 en la escala Flesch."
- Contenido: "Debe mencionar obligatoriamente las palabras clave: 'sostenibilidad', 'logística' y 'optimización'."
- Ejemplos de Métricas:
Paso 2: Asigna un Rol (Role Play) y Contexto Dale al LLM una "personalidad" o un rol de experto. Esto acota su conocimiento y define el tono, estilo y perspectiva de la respuesta.
- Ejemplo Sin Rol:
Explica la fotosíntesis. - Ejemplo Con Rol:
Eres un biólogo y profesor apasionado. Explica el proceso de la fotosíntesis a niños de 10 años, usando una analogía con una fábrica de comida para plantas.
Paso 3: Añade Instrucciones y Restricciones (El "Cómo") Aquí es donde defines el "cómo". Sé explícito sobre el formato, la estructura, la extensión, las prohibiciones y el estilo que deseas.
- Ejemplo Poca Instrucción:
Dame ideas para un negocio. - Ejemplo Instrucción Detallada:
Genera una lista con 5 ideas de negocios online con baja inversión inicial. Para cada idea, incluye: 1) Nombre de la idea, 2) Público objetivo, 3) Un primer paso para validarla. Presenta el resultado en formato de tabla.
La Síntesis Estructural: El Marco CRF-R
Para aplicar los pasos 1, 2 y 3 con rigor de ingeniería en cada interacción, en esta obra utilizamos el acrónimo estándar CRF-R. Esta es la estructura que define a un "Prompt Maestro" (ver plantilla en Anexo D):
- C - Contexto: (Del Paso 1). La situación, los datos de entrada y el "para qué".
- R - Rol: (Del Paso 2). La persona que debe adoptar la IA.
- F - Formato: (Del Paso 3). La estructura exacta de la salida (Tabla, JSON, Email).
- R - Restricciones: (Del Paso 3). Las líneas rojas y lo que NO debe hacer.
Nota del Arquitecto: Si su prompt tiene estos 4 componentes definidos explícitamente, ha reducido la probabilidad de error (alucinación o formato incorrecto) de forma significativa.
Paso 4: Usa Ejemplos y Referencias (La Estrategia "Few-Shot") Si tienes un formato o estilo muy específico en mente, no lo describas; muéstralo. En ingeniería, distinguimos tres niveles de control según la cantidad de ejemplos (o "disparos/shots") que le damos al modelo:
-
Zero-Shot (0 Ejemplos): Le pides al modelo que actúe "en frío".
- Uso: Tareas generales, creativas o de conocimiento común.
- Riesgo: Mayor variabilidad y alucinación. Confías 100% en el entrenamiento del modelo.
- Ejemplo de Zero-Shot:
Actúa como un historiador literario especializado en el Siglo de Oro español. Redacta una respuesta de 150 palabras explicando quién escribió 'Don Quijote'.
-
One-Shot (1 Ejemplo): Le das un caso ideal para anclar el formato.
- Uso: Cuando necesitas una estructura específica (ej. un JSON).
- Ventaja: Anclaje Rápido. Asegura el formato deseado inmediatamente con un costo de tokens mínimo, evitando la ambigüedad del Zero-Shot.
- Ejemplo de One-Shot:
Quiero crear resúmenes de libros con este estilo: 'Libro: El Principito. Idea Clave: Lo esencial es invisible a los ojos; las relaciones y el amor son más importantes que las apariencias.' Ahora, genera un resumen con el mismo estilo para el libro 'Cien años de soledad'.
-
Few-Shot (3+ Ejemplos): La técnica reina de la fiabilidad. Le das múltiples casos de "Input -> Output Ideal".
- Uso: Tareas complejas de clasificación o tono de marca.
- Ventaja: Reduce drásticamente las alucinaciones sin necesidad de re-entrenar el modelo.
- Ejemplo de Few-Shot:
Quiero clasificar la urgencia de correos. Aprende de estos ejemplos:
- "El servidor se cayó" -> ALTA
- "¿Podemos reunirnos mañana?" -> MEDIA
- "Gracias por la info" -> BAJA
Ahora clasifica este: "El sistema está lento." ->
Paso 5: Incorpora Técnicas Avanzadas (Estratégicamente)
Aquí es donde potencias tu prompt para tareas complejas que requieren razonamiento, creatividad o precisión, pero solo cuando la tarea lo justifica. Más sobre esto en la siguiente sección.
- Ejemplo (usando Chain-of-Thought):
Un agricultor tiene 150 metros de valla para cercar un terreno rectangular. Quiere maximizar el área. ¿Cuáles deben ser las dimensiones del terreno? Explica tu razonamiento paso a paso antes de dar la respuesta final.
Paso 6: Evalúa y Valida (En Dos Niveles)
Una vez que recibes la respuesta, revísala críticamente. La confianza ciega en un LLM es un error de principiante. ¿Cumple con el objetivo del Paso 1? ¿Respetó el rol, las restricciones y el formato? ¿La información es factualmente correcta? Los LLM pueden "alucinar" (inventar datos). Siempre verifica la información importante. La validación es un proceso dual.
-
Validación Interna (Calidad y Coherencia): Usa el propio LLM como un primer filtro. Utiliza autocrítica y self-consistency para mejorar la coherencia, claridad y lógica interna de la respuesta.
- Prompt de Ejemplo 1:
Revisa la respuesta anterior. ¿Es el tono adecuado para un inversor? ¿Hay ambigüedades? Propón una versión corregida.
- Prompt de Ejemplo 2:
Revisa la respuesta anterior que me diste. ¿Contiene alguna afirmación que pueda ser ambigua o factualmente incorrecta? Si es así, corrigela y proporciona una versión mejorada.
- Prompt de Ejemplo 1:
-
Validación Externa (La Sabiduría Práctica): Advertencia: Ninguna técnica de Prompting sustituye la verificación humana. Para cualquier información crítica (financiera, médica, legal, de seguridad), la validación externa contra fuentes fiables no es opcional, es obligatoria. Las técnicas internas reducen errores, pero no garantizan la veracidad. El desarrollo de este juicio crítico es un pilar de la alfabetización cognitiva.
Paso 7: Itera con Intención
No "pruebes cosas al azar". Ajusta tu prompt para cerrar la brecha entre el resultado obtenido y las métricas de éxito que definiste en el Paso 1. Un objetivo bien definido no solo establece la intención, sino que también contiene los criterios de aceptación de la respuesta.
-
Ejemplo de Iteración Dirigida:
- V1:
Escribe un email para invitar a un cliente a un webinar. - Resultado V1: El email generado es demasiado largo (300 palabras). Métrica Fallida: Límite de 150 palabras.
- Ajuste en V2: Añadir la restricción explícita: "La longitud total del email no debe superar las 150 palabras."
- V2 (Iteración):
Eres un experto en marketing B2B. Escribe un email persuasivo de 150 palabras para invitar a un cliente potencial (gerente de TI) a un webinar sobre ciberseguridad. El tono debe ser profesional pero cercano. Incluye un llamado a la acción claro para registrarse.
- V1:
-
Recomendación Práctica Refinada: Al definir tu objetivo en el Paso 1, incluye métricas de éxito claras. Por ejemplo: Precisión Factual, Adherencia al Estilo, Relevancia, Formato. La iteración del Paso 7 no es para que la respuesta "se sienta mejor", sino para cerrar la brecha entre la respuesta actual y estos criterios predefinidos, un proceso clave en la evaluación de calidad.
Parte 2: Técnicas Avanzadas de Prompting (Herramientas de Precisión)¶
Las siguientes técnicas se integran en el método para resolver problemas más complejos: Chain-of-Thought, Self-Consistency, Prompt Chaining y Meta-Prompting.
1. Chain-of-Thought (CoT, Cadena de Pensamiento)
-
¿Qué es?
Una técnica de prompting que incentiva al modelo a descomponer un problema complejo en pasos intermedios de razonamiento, en lugar de responder de forma directa e inmediata. -
¿Por qué funciona?
En tareas de lógica, matemáticas y planificación, guiar al modelo hacia un razonamiento estructurado reduce los atajos heurísticos y mejora la calidad de la respuesta final. Sin embargo, es crucial entender que el razonamiento interno del modelo y el razonamiento que verbaliza no siempre son lo mismo.Nota crítica: El modelo no “razona”; el Chain-of-Thought solo reduce la probabilidad de saltos espurios al forzar una secuencia verbal coherente. No introduce razonamiento simbólico ni comprensión causal real.
-
Nota operativa clave (2025):
En modelos de frontera modernos, el razonamiento suele ocurrir internamente, incluso cuando no se expone paso a paso. En muchos casos, pedir explícitamente la cadena de pensamiento puede degradar el resultado o generar razonamientos simulados. Por ello, una práctica más robusta es pedir al modelo que razone internamente y entregue solo la respuesta final estructurada. -
Ejemplo (enfoque recomendado):
Resuelve el siguiente acertijo lógico: [acertijo].
Razona cuidadosamente antes de responder y entrega solo la solución final, junto con los supuestos clave utilizados.
-
Ideal para:
Modelos de frontera altamente capaces, en problemas de razonamiento complejo donde la descomposición lógica es crítica. -
Menos efectivo en:
Modelos más pequeños o menos capaces, que pueden imitar la forma del razonamiento sin ejecutarlo correctamente. En estos casos, es preferible utilizar Prompt Chaining, externalizando el razonamiento en múltiples pasos explícitos.
2. Self-Consistency (Autoconsistencia)
-
¿Qué es?
Una técnica que consiste en generar múltiples respuestas independientes para el mismo problema y luego compararlas, evaluarlas o consolidarlas, en lugar de confiar en una única salida del modelo. -
¿Por qué funciona?
Los LLM son sistemas probabilísticos. Al muestrear varias respuestas, se exploran distintos caminos de razonamiento posibles. La autoconsistencia reduce la dependencia de una sola trayectoria y permite identificar patrones comunes, inconsistencias o alternativas superiores. -
Advertencia conceptual clave:
Self-Consistency no convierte una respuesta en verdadera. Solo aumenta la robustez relativa frente a errores puntuales, sesgos de muestreo o malas inicializaciones. Si todas las respuestas se basan en una premisa incorrecta, la autoconsistencia solo producirá un error consistente. -
Ejemplo (modo evaluación interna):
Genera 3 respuestas independientes a la siguiente pregunta: [pregunta].
Luego, compara las respuestas, identifica puntos comunes y discrepancias, y propone una versión final consolidada, explicando brevemente el criterio de selección.
-
Ejemplo (modo creativo):
Genera 3 enfoques distintos para este problema: [problema].
Evalúa fortalezas y debilidades de cada uno y selecciona el más adecuado según este criterio: [criterio].
-
Costo y trade-off operativo:
Cada iteración adicional implica más tokens, más latencia y mayor costo. Self-Consistency debe usarse de forma selectiva, en tareas donde el impacto del error justifique el gasto computacional. -
Ideal para:
- Problemas ambiguos o mal definidos
- Tareas creativas o estratégicas
- Evaluación comparativa de alternativas
- Validación preliminar antes de revisión humana
-
Menos efectivo en:
- Tareas simples o deterministas
- Casos donde existe una única respuesta verificable
- Contextos de alto volumen donde el costo por llamada es crítico
3. Prompt Chaining (Encadenamiento de Prompts)
-
¿Qué es?
Prompt Chaining es la técnica de descomponer una tarea compleja en una secuencia ordenada de prompts más simples, donde la salida de un paso se convierte en la entrada (total o parcial) del siguiente. No se trata de “hablar más con la IA”, sino de diseñar un flujo de razonamiento controlado. -
Por qué es una técnica estructural (no cosmética):
Los LLM tienen límites claros de contexto, atención y coherencia en tareas largas. Un prompt monolítico intenta forzar todo el razonamiento en una sola inferencia. Prompt Chaining reconoce esta limitación y la transforma en una ventaja: externaliza el razonamiento en etapas explícitas. -
Diferencia clave respecto a Chain-of-Thought:
- Chain-of-Thought: El razonamiento ocurre dentro de una sola respuesta del modelo (opaco y no siempre fiable).
- Prompt Chaining: El razonamiento ocurre entre múltiples llamadas explícitas (observable, controlable y auditable).
-
Ejemplo secuencial básico:
Prompt 1 – Planificación
Analiza el siguiente problema y genera un esquema de solución en pasos claros: [problema].
Prompt 2 – Ejecución
Usando el paso 1 del esquema anterior, desarrolla la solución detallada correspondiente.
Prompt 3 – Revisión
Revisa la solución anterior. Identifica errores, supuestos implícitos o mejoras posibles.
-
Ventaja operativa clave:
Cada paso puede:- tener objetivos y métricas propias
- usar roles distintos
- aplicar restricciones específicas
- ser validado, corregido o descartado de forma independiente
-
Advertencia de diseño:
Prompt Chaining no elimina la alucinación. Solo la localiza.
Un error temprano puede propagarse a toda la cadena si no se valida explícitamente cada etapa. -
Patrón recomendado (mínimo viable):
- Descomposición / Planificación
- Ejecución
- Validación / Crítica
-
Ideal para:
- Informes largos o documentos estructurados
- Análisis técnicos o estratégicos
- Desarrollo de código o pseudocódigo
- Procesos donde la trazabilidad del razonamiento es crítica
- Sistemas que luego evolucionarán a agentes
-
Menos efectivo en:
- Consultas simples y directas
- Casos donde la latencia debe ser mínima
- Tareas altamente repetitivas sin variabilidad cognitiva
4. Meta-Prompting (Diseño de Prompts con IA)
-
¿Qué es?
Meta-Prompting es la técnica de usar un LLM para diseñar, evaluar o refinar prompts, en lugar de pedirle directamente la tarea final. En otras palabras: no le pides la respuesta, le pides el plano de la pregunta correcta. -
Cambio de paradigma:
El usuario deja de interactuar con la IA como un consumidor de respuestas y pasa a hacerlo como un diseñador de interfaces cognitivas. El foco ya no está en “qué quiero que responda”, sino en cómo debe ser el prompt para producir respuestas fiables, repetibles y alineadas al objetivo. -
Por qué funciona:
Los LLM han sido entrenados con enormes volúmenes de texto que incluyen:- instrucciones
- guías
- documentación técnica
- ejemplos de buenas y malas preguntas
Esto les permite reconocer patrones de prompts eficaces y proponer estructuras más claras de las que un humano suele formular de forma intuitiva.
-
Ejemplo básico:
Necesito un prompt para obtener un resumen técnico de un informe financiero, dirigido a un directorio, con foco en riesgos y decisiones.
Diseña un prompt óptimo que incluya rol, formato, restricciones y métricas de calidad.
-
Uso avanzado: estandarización organizacional
Meta-Prompting permite crear:- plantillas reutilizables
- prompts “oficiales” de la organización
- estándares de calidad cognitiva
Ejemplo:
Analiza este prompt utilizado por nuestro equipo: [prompt].
Identifica ambigüedades, riesgos de alucinación y mejoras posibles.
Propón una versión estandarizada siguiendo el marco CRF-R.
-
Meta-Prompting como herramienta de control de calidad:
Puede utilizarse para:- auditoría de prompts
- reducción de ambigüedad
- mejora de consistencia entre equipos
- detección de supuestos implícitos
-
Advertencia crítica:
Meta-Prompting no sustituye el criterio humano. Un LLM puede optimizar la forma, pero no valida la intención estratégica ni el contexto político, legal o ético. El riesgo es aceptar un prompt “bien escrito” que esté mal alineado con los objetivos reales de la organización. -
Patrón recomendado de uso:
- El humano define el objetivo real y el contexto
- El LLM propone uno o más prompts candidatos
- El humano valida, ajusta y aprueba
- El prompt aprobado se reutiliza o versiona
-
Ideal para:
- Tareas complejas o ambiguas
- Creación de prompts reutilizables
- Equipos con distintos niveles de madurez en IA
- Escenarios donde la consistencia importa más que la creatividad puntual
-
Menos efectivo en:
- Consultas simples
- Interacciones únicas y desechables
- Casos donde el costo de tokens supera el valor del refinamiento
-
Nota del Arquitecto:
Cuando Meta-Prompting se usa de forma sistemática, el activo estratégico deja de ser el modelo y pasa a ser el repositorio de prompts validados. Esto convierte al prompting en capital intelectual, no en habilidad individual.
Parte 3: Maximizando el Valor: Qué Técnicas Usar en Cada Paso¶
Aquí conectamos las técnicas avanzadas con el método de 7 pasos para ver dónde aportan más valor.
- Paso 1 (Objetivo):
- Técnica de más valor: Meta-Prompting. Si tu objetivo es difuso, puedes pedirle al LLM que te ayude a clarificarlo.
Quiero escribir algo sobre IA, pero no estoy seguro del enfoque. Sugiere 3 objetivos claros y específicos para un artículo dirigido a dueños de pequeñas empresas.
- Técnica de más valor: Meta-Prompting. Si tu objetivo es difuso, puedes pedirle al LLM que te ayude a clarificarlo.
- Paso 2 (Rol) y Paso 3 (Instrucciones):
- Estas fases dependen más de la claridad y especificidad del usuario que de una técnica avanzada. La clave es ser directo y no dejar espacio a la ambigüedad.
- Paso 4 (Ejemplos - Few-Shot):
- Este paso es una técnica en sí misma. Es la base para guiar al modelo hacia un resultado estilísticamente consistente.
- Paso 5 (Incorporar Técnicas Avanzadas):
- Técnica de más valor: Chain-of-Thought (CoT). Este es el lugar natural para usar CoT cuando la tarea implica lógica, cálculo o deducción.
- Técnica de más valor: Self-Consistency. Si la tarea es creativa o subjetiva (escribir textos de marketing, generar ideas), pedir múltiples variantes aquí es la mejor estrategia.
- Paso 6 (Evalúa y Valida):
- Técnica de más valor: Meta-Prompting (en modo autocritica). Pedirle al modelo que evalúe su propia respuesta es una forma rápida y eficaz de detectar errores o debilidades.
Analiza la respuesta anterior. ¿Es el tono adecuado para el público objetivo? ¿Hay alguna frase que podría sonar confusa? Propón mejoras.
- Técnica de más valor: Self-Consistency. Al comparar las diferentes salidas generadas, puedes evaluar cuál cumple mejor el objetivo inicial.
- Técnica de más valor: Meta-Prompting (en modo autocritica). Pedirle al modelo que evalúe su propia respuesta es una forma rápida y eficaz de detectar errores o debilidades.
- Paso 7 (Itera con Intención):
- Técnica de más valor: Prompt Chaining. Si un prompt monolítico y complejo falla repetidamente, la mejor forma de iterar es descomponerlo en una cadena de prompts más simples. Esto te da control granular sobre cada parte del proceso.
- Técnica de más valor: Meta-Prompting. Si estás atascado, pregúntale al modelo:
Mi prompt anterior [pegar prompt] no está funcionando. Generó [describir salida no deseada]. ¿Cómo puedo refinar mi prompt para obtener [describir resultado deseado]?
Nota de Transición Arquitectónica
Muchas técnicas avanzadas de prompting (Guía 02) son, en la práctica, implementaciones manuales de lo que luego se automatiza mediante arquitecturas de agentes.Comprender estas técnicas no es un fin en sí mismo, sino el prerrequisito conceptual para diseñar, auditar y gobernar sistemas de IA más complejos.
Parte 4: Optimización e Ingeniería de Recursos¶
Nota de Arquitectura: El Puente hacia la Industrialización
Esta sección introduce conceptos de eficiencia técnica que se entenderán en toda su profundidad operativa en las próximas guías.
- Los conceptos de Presupuesto y Tokens son la base de la Guía 12 (ROI Financiero).
- El concepto de Filtrado LOSA es el cimiento de la Guía 09 (Gobernanza).
Aquí aprendemos a optimizar el "componente"; más adelante aprenderemos a gestionar la "fábrica" completa. Hasta ahora, hemos tratado el prompt como un problema de lingüística. En esta sección final, lo trataremos como un problema de logística.
En la operación industrial, un prompt no es solo texto; es carga útil (payload) que consume ancho de banda, memoria y dinero. La diferencia entre un aficionado y un Arquitecto es que el primero busca la respuesta perfecta sin importar el costo, mientras que el segundo busca la densidad de información óptima.
A continuación, se definen los cuatro patrones de ingeniería para endurecer tus prompts:
1. Presupuesto de Tokens (Prompt Budgeting)¶
No permitas que el contexto crezca infinitamente. Al igual que un servidor tiene un límite de RAM, tu arquitectura debe tener un límite duro de tokens de entrada.
- Definición: Implementación de un "Circuit Breaker" de contexto antes de la inferencia.
- Aplicación: El sistema (Orquestador) debe validar el tamaño del prompt antes de la llamada a la API.
- Regla: Si
input_tokens > umbral_presupuesto(ej. 4.000 tokens), la ejecución se bloquea o se desvía automáticamente a un proceso de compresión. - Beneficio: Evita el "Denial of Wallet" accidental donde un usuario pega un PDF de 500 páginas y quema el presupuesto del mes en una sola consulta.
- Regla: Si
El Impuesto por Token
Recuerda: En la nube, pagas por lo que preguntas, no solo por lo que te responden. Un System Prompt redundante de 1.000 tokens enviado 10.000 veces al día es un desperdicio acumulativo de recursos que erosiona el margen del proyecto.
2. Deduplicación de Instrucciones (Instruction De-duplication)¶
En arquitecturas complejas (RAG + Agentes), es común que las reglas de seguridad se repitan en múltiples capas (System Prompt, Vector Store, User Prompt), creando "ruido cognitivo" y diluyendo la atención del modelo.
- Definición: Limpieza arquitectónica de la jerarquía de instrucciones para asegurar que cada regla exista en un solo lugar.
- Aplicación:
- Auditoría: Revisa tu prompt template. ¿Estás repitiendo "Sé conciso" en el rol, en las restricciones y en el mensaje del usuario?
- Acción: Centraliza las reglas invariables (Seguridad, Tono) en el System Prompt y deja el User Prompt exclusivamente para la tarea variable. Menos redundancia equivale a menor latencia y mayor precisión.
3. Compresión Semántica y Token Pruning¶
Los modelos de frontera (como GPT-4 o Claude 3) no necesitan gramática perfecta para entender una instrucción; necesitan palabras clave claras.
- Definición: Refactorización del prompt para eliminar ruido sintáctico sin perder la semántica. Es "adelgazar" el prompt para maximizar la densidad de información.
- Aplicación Técnica:
- Eliminación de Stop Words: En contextos de muy alta carga, eliminar artículos y preposiciones ("el", "la", "para") puede reducir el consumo sin afectar la comprensión del modelo.
- Sintaxis Telegráfica: En lugar de "Por favor, extrae el campo de fecha del siguiente texto", usa "Extraer: fecha".
- Formatos Densos: Prefiere JSON o Markdown sobre texto narrativo para describir datos complejos.
4. Filtrado de Relevancia en Capa LOSA¶
El prompt final no es lo que el usuario escribe, es lo que el sistema construye. A menudo, el sistema RAG recupera 10 documentos, pero solo 2 son relevantes. Si inyectas los 10, introduces ruido que confunde al modelo (alucinación) y aumenta el costo.
- Definición: Pre-procesamiento de señales antes de la inferencia final.
- Aplicación: Antes de que la información recuperada (RAG) llegue al modelo principal, una capa intermedia (LOSA) o un modelo pequeño y barato (SLM) filtra el contenido.
- Mecanismo: "De estos 5 fragmentos recuperados, descarta los 3 que no responden la pregunta del usuario".
- Resultado: Esto mitiga el problema de la "Pérdida en el Medio" (Lost in the Middle) y protege la integridad de la respuesta.
5. De la Artesanía a la Ingeniería¶
Estos conceptos transforman la ingeniería de prompts de una "artesanía de prueba y error" a una disciplina de optimización de recursos.
Como Arquitecto, tu trabajo no termina cuando el modelo responde bien. Termina cuando el modelo responde bien, dentro del presupuesto, de forma segura y a la máxima velocidad posible. El prompt es código; optimízalo como tal.
Conclusión: De Usuario a Arquitecto de Resultados¶
La ingeniería de prompts te transforma: dejas de ser un usuario que simplemente conversa con una IA, para convertirte en un arquitecto que la dirige con propósito. La maestría en esta disciplina no reside en memorizar trucos, sino en dominar una doble habilidad fundamental:
- La Ciencia (El Método): Aplicar con disciplina la estructura de los 7 pasos para construir un resultado predecible, controlado y de alta calidad.
- El Arte (El Juicio): Saber qué herramienta usar, en qué contexto y, crucialmente, cuándo aplicar el escepticismo crítico para validar la información y refinar el enfoque.
Este juicio es la habilidad central que desarrollaremos en este marco. Esta guía te entrega el mapa para dominar ambas facetas. Al hacerlo, dejas de buscar respuestas para empezar a construir soluciones. Recuerda: el verdadero poder no reside en la IA, sino en la habilidad humana para guiarla con maestría.