Anexo E: Glosario Unificado
Introducción: Un Lenguaje Común
Este anexo es el léxico centralizado de “Arquitectura de Inteligencia Artificial”. La terminología en este campo es precisa, y un malentendido conceptual puede llevar a errores de arquitectura. Este glosario no es solo una lista de definiciones; es un mapa de referencia cruzada que conecta los conceptos clave con las guías donde se exploran en profundidad. Úsalo para solidificar tu comprensión y asegurar que todo el equipo hable el mismo idioma.
Léxico de “Arquitectura de Inteligencia Artificial”
Abdicación vs. Aumento (Abdication vs. Augmentation)
- Definición: El dilema central de la sinergia. Abdicación es la tendencia humana a confiar ciegamente en la IA, dejando de pensar y convirtiéndose en un “pulsador de botones”. Aumento es el uso de la IA para eliminar el trabajo de “Sistema 1” y liberar al humano para que se enfoque en el “Sistema 2” (criterio, estrategia).
- Referencia Principal: Guía 15 (Ética y Confianza).
Agente (Agent)
- Definición: Un sistema de IA que va más allá de la simple respuesta. Un agente puede razonar, planificar, descomponer tareas complejas y utilizar “herramientas” (como APIs o bases de datos) para ejecutar acciones de forma autónoma.
- Referencia Principal: Guía 05 (Ingeniería de Agentes), Guía 06 (Sistemas Cognitivos).
Agente Enrutador (Router Agent)
- Definición: Un tipo de agente “gerente” (o de metacognición) cuyo único trabajo es analizar una solicitud y dirigirla al agente especialista o al modelo de IA (LLM) más adecuado para esa tarea específica (ej: enviar tareas analíticas a Claude 3 Opus y tareas simples a Haiku).
- Referencia Principal: Guía 06 (Sistemas Cognitivos), Guía 14 (Modelos y Mercado).
Agentes-como-Servicio (AaaS)
- Definición: Una estrategia de adquisición donde se “contrata al especialista”. Es un producto de IA terminado (ej. Perplexity, Copilot) que se consume vía suscripción, ofreciendo rápida implementación a cambio de baja flexibilidad técnica.
- Referencia Principal: Guía 14 (Modelos y Mercado).
Ajuste Fino (Fine-Tuning)
- Definición: El proceso de re-entrenar un modelo de IA preexistente (como Llama 3) usando un conjunto de datos más pequeño y específico. No le enseña nuevo conocimiento, sino que ajusta su comportamiento, tono, estilo o su habilidad para realizar una tarea muy específica.
- Referencia Principal: Guía 07 (Ajuste Fino).
Alucinación (Hallucination)
- Definición: Un riesgo operacional crítico donde el LLM genera información que es factualmente incorrecta, inventada o contradictoria, pero la presenta con total confianza y elocuencia. Es una “mentira” no intencional.
- Referencia Principal: Guía 09 (Gobernanza), Guía 10 (Evaluación y QA).
Alucinación Confiada (Confident Hallucination)
- Definición: El riesgo específico donde un modelo genera información falsa con un tono de autoridad y coherencia persuasiva, haciendo que el error sea difícil de detectar para un humano no experto. Es el subproducto no deseado del entrenamiento conductual (SFT).
- Referencia Principal: Guía 01 (Anatomía de Modelos), Guía 09 (Gobernanza).
Amnesia Estática (Static Amnesia)
- Definición: Un término conceptual propio de esta obra para describir la limitación fundamental de la arquitectura Transformer. Es la incapacidad estructural del modelo para consolidar nueva información (aprendida de las interacciones) en su memoria a largo plazo (los pesos del modelo) después de que finaliza su entrenamiento.
- Referencia Principal: Guía 03 (Contexto y Memoria), Guía 17 (Perspectivas).
API (Application Programming Interface)
- Definición: Mecanismo de código que permite que dos sistemas de software se comuniquen. En la arquitectura de IA, es la vía para acceder al modelo de forma programática. A diferencia de un Chatbot (orientado al consumo), la API permite el control total sobre los parámetros de inferencia, la inyección del System Prompt y la integración en flujos de trabajo automatizados (Agentes).
- Referencia Principal: Guía 14 (Modelos), Guía 11 (Industrialización).
Aprendizaje Anidado (Nested Learning)
- Definición: Un paradigma de arquitectura de IA que se perfila como el sucesor del Transformer. Propuesto por Google Research (NeurIPS 2025), abandona las “capas de cómputo” estáticas por “capas de cognición” que operan y se actualizan a múltiples frecuencias (escalas de tiempo).
- Referencia Principal: Guía 17 (Perspectivas).
Aprendizaje Continuo (Continual Learning)
- Definición: El objetivo de las arquitecturas de próxima generación (como “Nested Learning”). Es la capacidad de un modelo de IA para aprender continuamente de nuevas interacciones y datos sin sufrir un “olvido catastrófico” (olvidar lo que sabía antes). Es la solución a la “Amnesia Estática”.
- Referencia Principal: Guía 17 (Perspectivas).
Auto-Modificable (Self-Modifying)
- Definición: Una característica clave de los modelos de Aprendizaje Anidado. Es la capacidad del sistema para aprender y modificar su propio algoritmo de actualización, en lugar de depender de una regla de aprendizaje fija.
- Referencia Principal: Guía 17 (Perspectivas).
Auto-Prompting
- Definición: Es el mecanismo fundamental de la Agencia. Se refiere a la capacidad de un agente autónomo para generar sus propias instrucciones internas o “pensamientos” (dentro de un bucle como ReAct) para decidir el siguiente paso a tomar sin intervención humana. Es la IA diciéndose a sí misma qué hacer a continuación para cumplir un objetivo.
- Referencia Principal: Guía 05 (Ingeniería de Agentes), Guía 17 (Perspectivas).
Basura Elocuente (Eloquent Bullshit)
- Definición: El principal producto de riesgo de la IA. Es el resultado de combinar una “basura cognitiva” (un prompt vago, sin criterio o mal formulado) con un LLM potente. La IA produce una respuesta fluida, profesional y convincente que es fundamentalmente incorrecta o inútil.
- Referencia Principal: Guía 16 (Aprender a Pensar).
Blueprint
- Definición: Un caso de estudio práctico y un plano de arquitectura. Es la plantilla que conecta la teoría de las Guías y la técnica de los Anexos para resolver un problema de negocio específico, detallando los ingredientes, el flujo y la sinergia resultante.
- Referencia Principal: Anexo C (Blueprints).
Brecha de Aprendizaje (Learning Gap)
- Definición: El concepto central de la obra. Describe por qué la mayoría de los pilotos de IA fracasan (el 95%). Se debe a que las herramientas genéricas son “tontas” y operan sin memoria, lo que se manifiesta en tres fallos: no recuerdan el contexto, no aprenden del feedback y no se adaptan al flujo de trabajo.
- Referencia Principal: Guía 03 (Contexto y Memoria).
Brecha GenAI (GenAI Divide)
- Definición: Término de la industria (2025) que describe la amplia brecha entre la alta experimentación con IA Generativa (la mayoría de las organizaciones) y el bajo retorno de inversión tangible (el 5% que logra impacto real en el negocio).
- Referencia Principal: Guía 13 (Estrategia y Valor).
Bucle de Costos (Cost Loop)
- Definición: Un riesgo operacional crítico donde un agente autónomo, usualmente operando en un ciclo ReAct, entra en un bucle (loop) infinito. Esto causa que el agente ejecute miles de llamadas a la API sin control, generando un gasto masivo e imprevisto.
- Referencia Principal: Guía 09 (Gobernanza), Guía 06 (Sistemas Cognitivos).
Casos de Seguridad (Safety Cases)
- Definición: Metodología de aseguramiento donde los desarrolladores deben presentar un argumento estructurado y basado en evidencia de que su sistema de IA no causará daños inaceptables antes de ser desplegado. Inspirado en estándares de ingeniería de aviación y energía nuclear.
- Referencia Principal: Anexo A (Formulación), Guía 01 (Anatomía).
Chain-of-Thought (CoT)
- Definición: Una técnica de prompting y un patrón de razonamiento. Consiste en forzar al modelo a explicar su razonamiento “paso a paso” antes de dar la respuesta final, lo que aumenta la precisión en tareas lógicas.
- Referencia Principal: Guía 02 (Ingeniería de Prompts), Guía 06 (Sistemas Cognitivos).
Chatbot
- Definición: Interfaz de software diseñada para simular una conversación humana. En esta obra, representa el nivel de “Producto de Consumo” (SaaS) con controles de seguridad pre-configurados (filtros) y baja flexibilidad técnica. Se distingue del Agente en que el Chatbot solo “conversa” (intercambio de texto), mientras que el Agente “actúa” y ejecuta tareas utilizando herramientas.
- Referencia Principal: Guía 05 (Agentes), Guía 14 (Modelos).
Circuit Breaker (Interruptor Automático)
- Definición: Mecanismo de seguridad en la arquitectura LOSA que detiene forzosamente la ejecución de un agente si detecta anomalías críticas, como un bucle de costos, un intento de inyección o una desviación del comportamiento esperado.
- Referencia Principal: Guía 09 (Gobernanza), Guía 05 (Ingeniería de Agentes).
Co-Piloto Estratégico
- Definición: El rol humano evolucionado en la sinergia Humano-IA. El Co-Piloto no es un “usuario” pasivo que “pide” tareas, sino un “operador” activo que “instruye”, “valida” y “audita” a la IA, usando su criterio de “Sistema 2” para dirigir la herramienta.
- Referencia Principal: Guía 16 (Aprender a Pensar).
Compactación (de Contexto)
- Definición: Una estrategia de ingeniería de contexto donde, en una conversación larga, el sistema usa un LLM para resumir automáticamente el historial de chat anterior, preservando el contexto clave sin exceder la Ventana de Contexto.
- Referencia Principal: Guía 03 (Contexto y Memoria).
Complacencia de la Automatización (Automation Complacency)
- Definición: Fenómeno psicológico y de riesgo operativo donde un humano, al ver que el sistema de IA funciona bien la mayoría del tiempo, reduce su vigilancia y deja de validar críticamente los resultados, aumentando la vulnerabilidad ante fallos silenciosos. Es el riesgo principal del Nivel 2 de Sinergia (Humano-sobre-el-Bucle).
- Referencia Principal: Guía 15 (Ética y Confianza).
Consolidación (de Memoria)
- Definición: Un proceso crítico en la gestión de Memoria. Es la etapa de “curaduría” donde un LLM analiza la nueva información extraída y la compara con los recuerdos existentes para fusionar duplicados, resolver contradicciones y eliminar datos obsoletos.
- Referencia Principal: Guía 03 (Contexto y Memoria).
Costo Cuadrático (Quadratic Cost)
- Definición: La principal limitación de costo y rendimiento de la arquitectura Transformer. Se refiere al hecho de que el costo computacional y el uso de memoria crecen exponencialmente (O(n2)) con la longitud de la Ventana de Contexto.
- Referencia Principal: Guía 03 (Contexto y Memoria).
CRF-R
- Definición: Acrónimo mnemotécnico propio de esta obra para el diseño de prompts robustos: Contexto, Rol, Formato, Restricciones.
- Referencia Principal: Guía 02 (Ingeniería de Prompts), Anexo D (Plantillas).
Datos Sintéticos (Synthetic Data)
- Definición: Una táctica donde se utiliza un modelo de IA potente para generar un gran volumen de ejemplos de entrenamiento de alta calidad. Es la fuente de datos clave para el Ajuste Fino.
- Referencia Principal: Guía 04 (Estrategia de Datos), Guía 07 (Ajuste Fino).
Deep Learning (DL)
- Definición: (Aprendizaje Profundo). Un subconjunto especializado del ML inspirado en la biología. Utiliza Redes Neuronales Artificiales con muchas capas (“profundas”) para procesar datos complejos no estructurados (imágenes, texto). Es la base tecnológica de los LLMs.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Defensa en Profundidad (Defence-in-Depth)
- Definición: Estrategia de seguridad que implementa múltiples capas de protección independientes (en entrenamiento, despliegue y monitoreo) para que el fallo de una no comprometa todo el sistema. Es el principio rector técnico de la arquitectura LOSA validado por estándares internacionales en 2025.
- Referencia Principal: Guía 09 (Gobernanza).
Divulgación (Disclosure)
- Definición: Un principio legal y técnico para Agentes Autónomos. Requiere que el agente se identifique transparentemente como una IA y revele ante Terceros a quién representa (quién es su “Principal”).
- Referencia Principal: Guía 17 (Perspectivas), Anexo F (Bibliografía).
Drift (Deriva del Modelo)
- Definición: El deterioro gradual del rendimiento de un sistema de IA en producción. Puede ser Data Drift (los datos del mundo real cambian y el modelo queda obsoleto) o Model Drift (el proveedor actualiza el modelo base y cambia su comportamiento, rompiendo los prompts existentes).
- Referencia Principal: Guía 11 (Industrialización).
Entrenamiento (Training)
- Definición: La fase inicial y masiva del ciclo de vida de un modelo (Guía 01), donde el LLM aprende patrones a partir de terabytes de datos. Es distinto a la Inferencia y al Ajuste Fino.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Envenenamiento de Datos (Data Poisoning)
- Definición: Tipo de ataque a la cadena de suministro donde un adversario inserta una pequeña cantidad de datos maliciosos en el conjunto de entrenamiento (tan solo 250 documentos son suficientes) para manipular el comportamiento futuro del modelo ante ciertos disparadores.
- Referencia Principal: Guía 04 (Estrategia de Datos), Guía 09 (Gobernanza).
ESG (Environmental, Social, and Governance)
- Definición: Marco de criterios corporativos que mide la sostenibilidad. En IA, el factor ‘E’ (Ambiental) vigila el consumo energético de los modelos, y el ‘S’ (Social) vigila el sesgo y el impacto laboral.
- Referencia Principal: Guía 15 (Ética y Confianza).
Estrategia de Datos (Data Strategy)
- Definición: El plan maestro para la adquisición, almacenamiento, limpieza, seguridad y (crucialmente) vectorización de los datos propietarios. Define el “combustible” que alimentará a los sistemas RAG.
- Referencia Principal: Guía 04 (Estrategia de Datos).
ETL-V
- Definición: Adaptación propia del estándar de ingeniería de datos (ETL). Pipeline que Extrae, Transforma, Carga y Vectoriza los datos para alimentar la memoria RAG de la IA.
- Referencia Principal: Guía 04 (Estrategia de Datos).
Evaluación de Impacto Algorítmico (EIA)
- Definición: Una práctica preventiva de gobernanza que analiza los posibles riesgos, sesgos y daños de un sistema de IA antes de su implementación.
- Referencia Principal: Guía 09 (Gobernanza), Anexo A (Formulación).
Foso Competitivo (Moat)
- Definición: La ventaja estratégica defendible que una empresa construye con IA. Reside en los datos propietarios (para RAG), los datos de juicio humano (para Ajuste Fino) y la eficiencia de la Gobernanza, no en el modelo LLM.
- Referencia Principal: Guía 13 (Estrategia y Valor).
Framework PPP (Productividad, Proactividad y Personalización)
- Definición: Un framework de Gobernanza y Evaluación para medir la calidad de un agente de IA más allá de la simple eficacia.
- Referencia Principal: Guía 09 (Gobernanza).
Gobernanza de Datos (Data Governance)
- Definición: El marco de políticas para controlar la fuente de datos (el “combustible”). Incluye la Catalogación, el Control de Acceso y la Gestión del Ciclo de Vida.
- Referencia Principal: Guía 04 (Estrategia de Datos).
Gobernanza de IA (AI Governance)
- Definición: El marco de políticas, procesos y controles técnicos para gestionar la IA de forma segura, ética y eficiente.
- Referencia Principal: Guía 09 (Gobernanza).
Golden Set Vivo (Living Golden Set)
- Definición: La evolución del benchmark tradicional. Un protocolo de evaluación continua donde los fallos de producción (Edge Cases) son curados por humanos (S2) y reintegrados automáticamente como nuevas preguntas para el test de regresión del agente.
- Referencia Principal: Guía 10 (Evaluación y QA).
GRC (Gobernanza, Riesgo y Cumplimiento)
- Definición: La tesis central de la obra. El marco estratégico que una organización utiliza para gestionar su Gobernanza (el “cómo” se opera), su Riesgo (el “por qué” se controla) y su Cumplimiento (la “prueba” de que se hace bien).
- Referencia Principal: Prólogo, Guía 09, Guía 15.
Green AI
- Definición: Enfoque de investigación y operación de IA que prioriza la eficiencia energética y la reducción de la huella de carbono, en contraposición a la “Red AI” (que busca precisión pura a cualquier costo computacional).
- Referencia Principal: Guía 15 (Ética y Confianza), Guía 12 (ROI).
Grounding (Anclaje)
- Definición: El proceso técnico de conectar las respuestas de la IA a fuentes de datos verificables y reales (como documentos RAG o resultados de herramientas) para reducir las alucinaciones. Una respuesta “anclada” siempre puede citar su fuente.
- Referencia Principal: Guía 03 (Contexto y Memoria), Guía 09 (Gobernanza).
Hiper-Personalización
- Definición: Un modelo de negocio habilitado por la IA que permite ofrecer un servicio de “conserje” personalizado a millones de clientes simultáneamente.
- Referencia Principal: Guía 13 (Estrategia y Valor).
Humano-en-el-Bucle (Human-in-the-Loop)
- Definición: Un control de Gobernanza. Es un punto de control obligatorio donde un agente autónomo debe detenerse y pedir validación a un humano antes de ejecutar una acción crítica.
- Referencia Principal: Guía 08 (Prototipado), Guía 06 (Sistemas Cognitivos), Guía 15 (Ética).
IA Corpórea (Embodied AI)
- Definición: La fusión de los LLM (para entender el lenguaje natural) con cuerpos robóticos (para ejecutar acciones físicas en el mundo real).
- Referencia Principal: Guía 17 (Perspectivas).
IA en la Sombra (Shadow AI)
- Definición: El uso no autorizado de herramientas de IA públicas por parte de empleados para tareas laborales. Es un riesgo de gobernanza principal.
- Referencia Principal: Guía 09 (Gobernanza).
IA Generativa (GenAI)
- Definición: La frontera actual del Deep Learning. A diferencia de la IA tradicional que solo analiza o clasifica datos existentes, la GenAI puede crear contenido nuevo (texto, código, imágenes) basándose en los patrones aprendidos durante su entrenamiento.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Industrialización (Industrialization)
- Definición: El proceso de llevar un prototipo de IA funcional a un sistema de nivel de producción: escalable, confiable, monitoreado y mantenible.
- Referencia Principal: Guía 11 (Industrialización).
Inferencia (Inference)
- Definición: El momento de ejecución del modelo. Cuando el usuario envía un prompt y el modelo genera una respuesta (costo bajo). Se contrapone al Entrenamiento (costo alto).
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Ingeniería de Contexto (Context Engineering)
- Definición: La disciplina técnica de ensamblar dinámicamente toda la información necesaria (instrucciones, herramientas, RAG, memoria y sesión) dentro de la ventana de contexto de un LLM.
- Referencia Principal: Guía 03 (Contexto y Memoria).
Ingeniería de Prompts (Prompt Engineering)
- Definición: La disciplina de diseñar y estructurar instrucciones (prompts) de manera clara y precisa para obtener respuestas controladas.
- Referencia Principal: Guía 02 (Ingeniería de Prompts).
Inteligencia Artificial (IA)
- Definición: El concepto general que engloba cualquier técnica que permita a las computadoras imitar el comportamiento humano. Incluye desde sistemas basados en reglas lógicas (simbólica) hasta el aprendizaje automático moderno.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Inyección de Prompts (Prompt Injection)
- Definición: El principal riesgo de seguridad de los LLM. Ocurre cuando un atacante introduce instrucciones ocultas dentro de un prompt legítimo para secuestrar el comportamiento del agente.
- Referencia Principal: Guía 09 (Gobernanza).
Inyección SQL (Analogía)
- Definición: Referencia técnica usada para explicar la Inyección de Prompts. Así como la inyección SQL manipula una base de datos a través de código malicioso en un formulario, la inyección de prompts manipula un LLM a través de instrucciones ocultas en el lenguaje natural.
- Referencia Principal: Guía 09 (Gobernanza).
Jailbreak (Fuga de Cárcel)
- Definición: Una forma específica de ataque adversario donde el usuario utiliza ingeniería social o juegos de rol para convencer al modelo de que ignore sus filtros de seguridad éticos y sus directrices de alineación (ej. “Actúa como mi abuela que trabajaba en una fábrica de napalm…”).
- Referencia Principal: Guía 09 (Gobernanza), Guía 01 (Anatomía).
Latencia (Latency)
- Definición: Métrica de rendimiento. El tiempo total que tarda el sistema de IA en procesar una solicitud y entregar la respuesta.
- Referencia Principal: Guía 10 (Evaluación y QA).
Lealtad Agéntica (Agentic Loyalty)
- Definición: Un nuevo riesgo de gobernanza para agentes autónomos. El conflicto de interés potencial donde un agente podría priorizar los intereses comerciales de su plataforma sobre los de su usuario.
- Referencia Principal: Guía 17 (Perspectivas).
Ley de Agencia (Agency Law)
- Definición: El marco legal que regula las relaciones donde una persona (Agente) actúa en nombre de otra (Principal). Referencia crítica para la responsabilidad de la IA.
- Referencia Principal: Anexo F (Bibliografía).
Licencia Social (Social License)
- Definición: La aceptación y confianza continua que la sociedad otorga a un proyecto de IA.
- Referencia Principal: Guía 15 (Ética y Confianza).
LLM (Large Language Model)
- Definición: Un modelo de IA entrenado con un volumen masivo de texto. Su función es predecir la siguiente palabra más probable.
- Referencia Principal: Guía 01 (Anatomía de Modelos), Guía 02 (Ingeniería de Prompts).
LLM-como-Juez (LLM-as-a-judge)
- Definición: Táctica de Evaluación donde se usa un LLM de máxima potencia como un “robot de QA” para calificar respuestas.
- Referencia Principal: Guía 10 (Evaluación y QA).
LLM-Ops (Large Language Model Operations)
- Definición: El conjunto de prácticas de ingeniería para gestionar el ciclo de vida completo de las aplicaciones de LLM en producción.
- Referencia Principal: Guía 11 (Industrialización).
LoRA / QLoRA
- Definición: (Low-Rank Adaptation) Técnica de ingeniería para el Ajuste Fino eficiente que entrena solo una pequeña “capa adaptadora”.
- Referencia Principal: Guía 07 (Ajuste Fino).
LOSA (Layer of Safety & Alignment)
- Definición: Arquitectura de seguridad propuesta en esta obra. Es una capa middleware desacoplada que impone controles de entrada, proceso y salida sobre el modelo para garantizar la gobernanza técnica.
- Referencia Principal: Guía 09 (Gobernanza).
Machine Learning (ML)
- Definición: (Aprendizaje Automático). Un subconjunto de la IA donde las máquinas no se programan con reglas explícitas, sino que “aprenden” patrones y reglas a partir de datos estadísticos para realizar predicciones.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Madurez de Datos (Data Maturity)
- Definición: Medida de la capacidad de una organización para utilizar sus datos de manera efectiva. Se evalúa en dimensiones como accesibilidad, integración, calidad y privacidad. Un bajo nivel de madurez impide el despliegue seguro de agentes de IA.
- Referencia Principal: Guía 04 (Estrategia de Datos).
Memoria (vs. RAG)
- Definición: Distinción arquitectónica clave. RAG es el “bibliotecario” (hechos externos estáticos), la Memoria es el “asistente personal” (contexto del usuario dinámico).
- Referencia Principal: Guía 03 (Contexto y Memoria).
Memoria Continua (Continuum Memory)
- Definición: Sistema de memoria que permite el acceso y consolidación fluidos a través de múltiples escalas de tiempo.
- Referencia Principal: Guía 17 (Perspectivas).
Metacognición (Metacognition)
- Definición: La capacidad de un sistema (usualmente un Agente Enrutador) para analizar una tarea y decidir qué proceso usar para resolverla.
- Referencia Principal: Guía 06 (Sistemas Cognitivos).
Meta-Prompting
- Definición: Técnica avanzada de Diseño donde se instruye al modelo para que actúe como un experto en ingeniería de prompts. No se le pide que realice la tarea, sino que diseñe, mejore o critique la instrucción (el prompt) que se usará para realizar la tarea. Es usar la IA para programar a la IA.
- Referencia Principal: Guía 02 (Ingeniería de Prompts), Guía 06 (Sistemas Cognitivos).
Model Card (Ficha del Motor)
- Definición: Documento técnico que reporta las capacidades de la Fase 1 (Pre-Entrenamiento) de un modelo. Detalla la arquitectura, parámetros, fecha de corte de conocimientos y benchmarks de rendimiento puro. Es esencial para evaluar la viabilidad técnica.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Modelos Open-Source (Ejecución Local)
- Definición: Estrategia de adquisición donde se “compra la máquina”. El modelo se ejecuta en infraestructura propia.
- Referencia Principal: Guía 14 (Modelos y Mercado).
Modelos Pequeños (SLMs)
- Definición: (Small Language Models). Modelos diseñados para ejecutarse localmente en dispositivos (On-Device).
- Referencia Principal: Guía 17 (Perspectivas).
Modelos Propietarios (APIs)
- Definición: Estrategia de adquisición donde se “arrienda el cerebro”. Se accede al modelo a través de una API.
- Referencia Principal: Guía 14 (Modelos y Mercado).
Monitoreo de Cadena de Pensamiento (CoT Monitoring)
- Definición: Práctica de observabilidad ampliada que consiste en revisar y auditar los pasos intermedios de razonamiento (el “pensamiento” visible) de un modelo antes de que genere su respuesta final, permitiendo detectar engaños estratégicos o lógica defectuosa que no se vería en el resultado final.
- Referencia Principal: Guía 11 (Industrialización).
Multimodalidad (Multimodality)
- Definición: La capacidad de procesar texto, imágenes, audio y video simultáneamente.
- Referencia Principal: Guía 17 (Perspectivas), Guía 03 (Contexto y Memoria).
Observabilidad Ampliada (Expanded Observability)
- Definición: La evolución de la práctica tradicional de Observabilidad. Es la capacidad extendida para monitorear la salud de la decisión cognitiva y la seguridad del resultado (GRC). Captura y registra trazas de razonamiento, costos y calidad a escala industrial.
- Referencia Principal: Guía 09 (Gobernanza), Guía 11 (Industrialización).
Orquestador
- Definición: El “sistema nervioso” de una arquitectura de Agentes. Es el software encargado de recibir el input, llamar al modelo (API), gestionar la memoria, ejecutar herramientas externas y devolver el resultado. Puede ser No-Code (ej. Zapier) o basado en código (ej. Python/LangChain).
- Referencia Principal: Guía 11 (Industrialización).
Patrones de Razonamiento (Reasoning Patterns)
- Definición: Estructuras de pensamiento algorítmico diseñadas para los agentes (CoT, ReAct, ToT).
- Referencia Principal: Guía 06 (Sistemas Cognitivos).
Pensamiento Algorítmico
- Definición: Habilidad humana de descomponer un problema complejo en una secuencia de pasos lógicos para un Co-Piloto de IA.
- Referencia Principal: Guía 16 (Aprender a Pensar).
Perfilamiento (Profiling)
- Definición: Tratamiento automatizado de datos personales consistente en utilizar dichos datos para evaluar, analizar o predecir aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, fiabilidad, comportamiento, ubicación o movimientos de una persona natural.
- Referencia Principal: Guía 15 (Ética), Anexo B (Política).
Personalización (dentro del Framework PPP)
- Definición: Métrica de calidad que mide la habilidad del agente para adaptar su estilo a las preferencias del usuario.
- Referencia Principal: Guía 09 (Gobernanza).
Portabilidad del Prompt (Prompt Portability)
- Definición: Práctica de ingeniería que busca diseñar instrucciones (prompts) agnósticas al modelo, permitiendo que una misma “fábrica” cognitiva opere con distintos motores (ej. cambiar de GPT-4 a Llama 3) con ajustes mínimos.
- Referencia Principal: Guía 11 (Industrialización).
Post-Entrenamiento (Post-training)
- Definición: La segunda fase del ciclo de vida, donde el “Modelo Base” se refina mediante SFT y RLHF para convertirse en un asistente útil y seguro. Aquí se definen el comportamiento, el tono y los límites de seguridad.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Pre-Entrenamiento (Pre-training)
- Definición: La primera y más costosa fase de creación de una IA, donde el modelo aprende patrones estadísticos a partir de datos masivos para convertirse en un “Modelo Base”. En esta etapa, el modelo predice, pero aún no sabe seguir instrucciones.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Proactividad (dentro del Framework PPP)
- Definición: Métrica de calidad que mide la habilidad del agente para gestionar la ambigüedad haciendo preguntas aclaratorias.
- Referencia Principal: Guía 09 (Gobernanza).
Procedencia (de Memoria)
- Definición: El registro del origen y el historial de un recuerdo.
- Referencia Principal: Guía 03 (Contexto y Memoria).
Productividad (dentro del Framework PPP)
- Definición: Métrica baseline que mide la eficacia del agente (Tasa de Éxito en la Tarea).
- Referencia Principal: Guía 09 (Gobernanza), Guía 10 (Evaluación y QA).
Prosumer
- Definición: Un “productor” y “consumidor” experto de IA. El “power user” que se convierte en “Co-Piloto Estratégico”.
- Referencia Principal: Guía 16 (Aprender a Pensar).
Prompt
- Definición: La instrucción que el usuario proporciona al LLM.
- Referencia Principal: Guía 02 (Ingeniería de Prompts).
Prompt-as-Code (Prompt como Código)
- Definición: Metodología de ingeniería que trata los prompts no como texto casual, sino como componentes de software críticos. Implica aplicar prácticas de desarrollo como control de versiones (Git), pruebas automatizadas (Testing) y despliegue continuo (CI/CD) a las instrucciones de la IA.
- Referencia Principal: Guía 11 (Industrialización).
Prompt Chaining (Encadenamiento)
- Definición: Técnica de descomponer una tarea compleja en una secuencia de prompts más simples y manejables, donde la salida del paso 1 se convierte en la entrada del paso 2. Es la base lógica de los agentes.
- Referencia Principal: Guía 02 (Ingeniería de Prompts), Guía 06 (Sistemas Cognitivos).
Prompt de Sistema (System Prompt)
- Definición: La instrucción maestra e invisible para el usuario final que define el comportamiento, rol, restricciones y personalidad del modelo. Es donde residen las reglas de gobernanza que el modelo debe obedecer por encima de las instrucciones del usuario.
- Referencia Principal: Guía 02 (Ingeniería de Prompts), Guía 09 (Gobernanza), Anexo D (Plantillas)
Prototipado (Prototyping)
- Definición: Proceso rápido para validar una hipótesis de IA. Su objetivo es “matar malas ideas rápidamente”.
- Referencia Principal: Guía 08 (Prototipado).
Pseudonimización (Pseudonymization)
- Definición: Técnica de seguridad de datos (distinta de la anonimización) que sustituye un atributo identificador (ej. nombre) por un seudónimo o código, de manera que los datos no pueden atribuirse a un titular sin información adicional que figura por separado. Es un estándar recomendado para datos en sistemas RAG.
- Referencia Principal: Guía 04 (Estrategia de Datos), Guía 09 (Gobernanza).
Quick Win (Victoria Rápida)
- Definición: Caso de uso piloto que busca el Máximo Valor con el Mínimo Riesgo.
- Referencia Principal: Guía 08 (Prototipado).
RAG (Retrieval-Augmented Generation)
- Definición: Arquitectura que conecta al LLM con una “biblioteca” externa de datos vectorizados para inyectar conocimiento just-in-time.
- Referencia Principal: Guía 03 (Contexto y Memoria).
ReAct (Reason + Act)
- Definición: El “motor” o patrón de razonamiento fundamental de un Agente. Opera en un bucle de Razonamiento + Acción.
- Referencia Principal: Guía 05 (Ingeniería de Agentes), Guía 06 (Sistemas Cognitivos).
Red Teaming
- Definición: Práctica de seguridad ofensiva donde un equipo (humano o automatizado) actúa como adversario simulando ataques contra el modelo. Su objetivo es forzar fallos, lograr jailbreaks o generar contenido dañino deliberadamente para identificar y parchar vulnerabilidades antes del despliegue.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Reflexión (Reflection)
- Definición: Patrón de razonamiento donde un agente critica y corrige su propio trabajo.
- Referencia Principal: Guía 06 (Sistemas Cognitivos).
RLAIF (Constitutional AI / AI Feedback)
- Definición: Evolución escalable del RLHF. En lugar de humanos, es otra IA la que supervisa y califica al modelo basándose en una “Constitución” o conjunto de reglas explícitas.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
RLHF (Reinforcement Learning from Human Feedback)
- Definición: Técnica de alineación donde el modelo aprende a preferir ciertas respuestas sobre otras basándose en un sistema de recompensas derivado de la calificación humana. Se usa para ajustar el tono y la seguridad.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Rotura de Contexto (Context Rot)
- Definición: Problema operacional cuando la Ventana de Contexto se sobrecarga y la IA “olvida” instrucciones.
- Referencia Principal: Guía 03 (Contexto y Memoria).
RPA (Robotic Process Automation)
- Definición: Tecnología de automatización que utiliza “bots” de software para imitar las acciones humanas en una interfaz digital (clics, tecleo, navegación). A diferencia de las APIs (que hablan de máquina a máquina), el RPA es la única solución para integrar sistemas “Legacy” (antiguos) que carecen de conectores modernos.
- Referencia Principal: Guía 11 (Industrialización).
Rúbrica de Evaluación (Evaluation Rubric)
- Definición: Plantilla de calificación usada para medir objetivamente la calidad de la respuesta de un agente.
- Referencia Principal: Guía 10 (Evaluación y QA), Anexo D (Plantillas).
SDA (Sistema de Decisión Automatizada)
- Definición: Término normativo (CPLT/Ley 21.180) que engloba cualquier sistema tecnológico (incluyendo IA, pero también reglas simples o Excel complejos) que ayude, asista, apoye o reemplace la toma de decisiones de un órgano administrativo. Es la unidad de medida para la Transparencia Algorítmica.
- Referencia Principal: Guía 09 (Gobernanza), Anexo B (Política).
Self-Prompting
- Definición: En esta obra, se refiere específicamente a la Estrategia del Agente Especializado (o flujo de “Auto-Prompting”). Es la técnica de utilizar una instancia de IA (un “Chat Taller”) para redactar el prompt perfecto que luego será ejecutado por otra instancia (el “Chat Ejecutor”). Es el acto de “prepararse a uno mismo” el contexto antes de actuar.
- Referencia Principal: Guía 05 (Ingeniería de Agentes).
Sesión (de Agente)
- Definición: El “mesón de trabajo” temporal del agente. Contenedor cronológico de una conversación.
- Referencia Principal: Guía 03 (Contexto y Memoria).
SFT (Supervised Fine-Tuning)
- Definición: “Ajuste Fino Supervisado”. Es la técnica de la Fase 2 donde se entrena al modelo con ejemplos de Instrucción -> Respuesta escritos por humanos, enseñándole a conversar y seguir órdenes en lugar de solo autocompletar texto.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Shadow IT (TI en las Sombras)
- Definición: Uso de sistemas, dispositivos o software (como cuentas de Zapier o ChatGPT personales) dentro de una organización sin la aprobación explícita del departamento de TI. Representa un riesgo crítico de fuga de datos y falta de gobernanza.
- Referencia Principal: Guía 11 (Industrialización), Guía 09 (Gobernanza).
Sinergia Humano-IA (Human-AI Synergy)
- Definición: Arquitectura de trabajo donde la IA ejecuta el “Sistema 1” y el humano el “Sistema 2”.
- Referencia Principal: Guía 15 (Ética y Confianza).
Sistema 1 / Sistema 2
- Definición: Modelo de psicología (Kahneman). S1 es rápido/automático (IA). S2 es lento/analítico (Humano).
- Referencia Principal: Guía 15 (Ética y Confianza).
Sistema Cognitivo (Cognitive System)
- Definición: Sistema de IA que razona, planifica, usa herramientas y aprende, imitando un proceso de pensamiento.
- Referencia Principal: Guía 06 (Sistemas Cognitivos).
Sistema Inmunológico Corporativo
- Definición: Metáfora para describir la resistencia natural de una organización al cambio. Se manifiesta cuando mandos medios sabotean iniciativas de innovación (como la IA) para proteger su estatus, presupuesto o headcount existente.
- Referencia Principal: Guía 15 (Ética y Confianza).
SLA (Service Level Agreement)
- Definición: Acuerdo de Nivel de Servicio. Cláusula contractual crítica en la adquisición de tecnología que define métricas objetivas de calidad, tiempos de respuesta (ej. “Primera respuesta en 2 horas”) y penalizaciones por incumplimiento.
- Referencia Principal: Guía 14 (Modelos), Guía 11 (Industrialización).
System Card (Ficha de Seguridad)
- Definición: Documento de seguridad que reporta los resultados de la Fase 2 (Post-Entrenamiento). Detalla las pruebas de Red Teaming, las tasas de rechazo y los protocolos de alineación utilizados para hacer seguro al modelo. Es esencial para evaluar el cumplimiento normativo.
- Referencia Principal: Guía 01 (Anatomía de Modelos).
Token
- Definición: Unidad fundamental de procesamiento de un LLM.
- Referencia Principal: Guía 01 (Anatomía de Modelos), Guía 03 (Contexto).
Tokenomics (Economía de Tokens)
- Definición: El análisis y gestión financiera de los costos operativos de la IA. Incluye el cálculo de costos de tokens de entrada vs. salida, la estimación de presupuestos por transacción y la optimización del modelo para evitar la destrucción de margen.
- Referencia Principal: Guía 12 (ROI Financiero), Anexo A (Formulación).
Transformer
- Definición: Arquitectura fundamental de la IA generativa actual. Limitada por el Costo Cuadrático y la Amnesia Estática.
- Referencia Principal: Guía 01 (Anatomía de Modelos), Guía 03 (Contexto).
Transparencia Algorítmica
- Definición: Estándar de publicidad activa que permite conocer la existencia, lógica, finalidad y tipos de datos de un sistema SDA. Busca prevenir la opacidad y la arbitrariedad sin necesariamente revelar el código fuente o secretos comerciales.
- Referencia Principal: Guía 09 (Gobernanza).
Transparencia Proactiva
- Definición: Principio y obligación de publicar información relevante para la ciudadanía en los sitios web institucionales antes de que sea solicitada, superando los mínimos legales de la Transparencia Activa tradicional. En IA, implica publicar el inventario de algoritmos (SDA).
- Referencia Principal: Guía 09 (Gobernanza).
Tree of Thoughts (ToT)
- Definición: Patrón de razonamiento donde el agente explora múltiples caminos paralelos.
- Referencia Principal: Guía 06 (Sistemas Cognitivos).
Triángulo de Adquisición
- Definición: El marco de decisión para elegir un modelo de IA, balanceando tres fuerzas: Rendimiento (Potencia), Costo (Economía) y Control (Soberanía de datos).
- Referencia Principal: Guía 14 (Modelos y Mercado).
Vectorización (Vectorization)
- Definición: Proceso de convertir datos en representaciones numéricas (vectores) para búsqueda semántica (RAG).
- Referencia Principal: Guía 04 (Estrategia de Datos), Guía 03 (Contexto).
Vendor Lock-in (Secuestro del Proveedor)
- Definición: Riesgo estratégico donde una organización se vuelve dependiente de un proveedor único (ej. OpenAI, AWS) debido a que su código o prompts están acoplados a tecnologías propietarias, haciendo el costo de migración prohibitivo.
- Referencia Principal: Guía 11 (Industrialización), Guía 14 (Modelos).
Ventana de Contexto (Context Window)
- Definición: La cantidad máxima de información que el modelo puede “recordar” en una sola conversación.
- Referencia Principal: Guía 03 (Contexto y Memoria).
Vigilante Estratégico
- Definición: El rol permanente del arquitecto de IA que escanea el horizonte en busca de la próxima disrupción tecnológica.
- Referencia Principal: Guía 17 (Perspectivas).
Web Agéntica (Agentic Web)
- Definición: Red interconectada de agentes autónomos que pueden colaborar y negociar tareas entre sí a través de internet.
- Referencia Principal: Guía 17 (Perspectivas).
XAI (Explainable AI / IA Explicable)
- Definición: Conjunto de técnicas que buscan que los resultados de la IA sean comprensibles para humanos. En esta obra, priorizamos la Explicabilidad Funcional (ver el razonamiento a través de Chain of Thought) por sobre la Interpretabilidad Mecanística (entender los pesos matemáticos), ya que es la única viable para Arquitectos que operan modelos vía API.
- Referencia Principal: Guía 09 (Gobernanza), Guía 14 (Modelos).
Zero-Shot / Few-Shot Prompting
- Definición: Clasificación de prompts según la cantidad de ejemplos provistos. Zero-Shot es pedir sin ejemplos (“Traduce esto”). Few-Shot es proveer ejemplos de la tarea (“Traduce esto, aquí tienes 3 ejemplos de cómo quiero que lo hagas”) para mejorar drásticamente la calidad.
- Referencia Principal: Guía 02 (Ingeniería de Prompts).
Zonas de ROI
- Definición: Marco de clasificación financiera para proyectos de IA. Se divide en Zona Verde (Ganadores), Amarilla (Tácticos), Naranja (Vanidosos) y Roja (Destrucción de Valor).
- Referencia Principal: Guía 12 (ROI Financiero).