Bibliografía
Bibliografía Fundamental¶
Subtítulo: Lecturas Clave para el Arquitecto y el Vigilante Estratégico
Introducción: Las Fuentes del Criterio¶
Este anexo no es una lista exhaustiva, sino un conjunto curado de lecturas fundacionales. Su objetivo es proporcionar al "Arquitecto" y al "Vigilante Estratégico" las fuentes primarias sobre las que se construye el "criterio" de esta obra.
Prólogo: Geopolítica, Crítica y Seguridad¶
- Suleyman, M. & Bhaskar, M. (2023). "The Coming Wave: Technology, Power, and the Twenty-first Century's Greatest Dilemma". Crown. [Web]
- Por qué leerlo: Es la obra que define el "Problema de la Contención" citado en el Prólogo. Suleyman (fundador de DeepMind y Microsoft AI) argumenta por qué la brecha entre la velocidad tecnológica y la regulación política es el mayor riesgo del siglo.
- Bender, E. M., Gebru, T., et al. (2021). "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?". FAccT '21. [PDF]
- Por qué leerlo: Es el paper académico de referencia para los Críticos Técnicos. Acuña el término "Loros Estocásticos", explicando formalmente por qué la fluidez gramatical de los LLM no implica comprensión semántica ni intención.
- Executive Office of the President. (2025). "Executive Order 14319: Preventing Woke AI in the Federal Government". The White House. [Web]
- Por qué leerlo: Documento legal clave que marca el fin de la neutralidad técnica. Oficializa la postura de la "IA Anti-Woke", redefiniendo los filtros de seguridad (safety) como sesgo ideológico y estableciendo las bases políticas para la fragmentación de la IA.
- Amodei, D. (2023). "Oversight of A.I.: Principles for Regulation". U.S. Senate Judiciary Subcommittee Testimony. [PDF]
- Por qué leerlo: Testimonio escrito oficial donde el CEO de Anthropic detalla ante el Senado por qué la gobernanza, y no solo la capacidad técnica, es el "problema central". Aquí expone los riesgos de corto (biológicos) y largo plazo (autonomía) citados en tu prólogo.
- Innerarity, D. (2025). "Una teoría crítica de la inteligencia artificial". Galaxia Gutenberg. [Web]
- Por qué leerlo: Es la base filosófica de la "Construcción de la Agencia" (Conclusión). Innerarity argumenta que la IA no es una inteligencia que compite con la humana, sino una herramienta de gestión de la complejidad, y que el verdadero peligro es la "abdicación" del juicio humano frente al cálculo algorítmico.
- Asimov, I. (1951-1953). "The Foundation Trilogy". Gnome Press. [Web]
- Por qué leerlo: La trilogía que estructura este libro. Plantea la tesis central de la gobernanza: ante el colapso, la salida no es la fuerza, sino el diseño de un sistema de previsión y preservación del conocimiento (una "Fundación").
- Banks, I. M. (1988). "The Player of Games" (The Culture Series). Macmillan. [Web]
- Por qué leerlo: La referencia para la "Utopía del Hype". Retrata una sociedad post-escasez administrada por IAs benévolas ("Mentes") que gestionan la complejidad por nosotros, planteando la pregunta incómoda sobre si en ese paraíso el humano conserva alguna agencia real o es solo una ficha de juego.
- Corey, J. S. A. (2011-2021). "The Expanse" (Complete Series). Orbit. [Web]
- Por qué leerlo: Fuente de la metáfora central de la Conclusión ("La Protomolécula"). La saga completa ilustra el ciclo de vida de la tecnología: desde el caos inicial de una herramienta opaca en manos irresponsables (Protogen), hasta su eventual domesticación para abrir nuevas rutas (Los Anillos) hacia la expansión humana.
- Herbert, F. (1965). "Dune". Chilton Books. [Web]
- Por qué leerlo: Origen del concepto de la "Yihad Butleriana". Es la advertencia definitiva contra la Atrofia Cognitiva: describe una humanidad que colapsó no porque las máquinas la atacaran, sino porque delegó tanto su pensamiento que perdió su capacidad de decidir.
Bloque 1: Los Fundamentos¶
(Ingeniería de Prompts, Contexto y Datos)
- Goodfellow, I., Bengio, Y., & Courville, A. (2016). "Deep Learning". MIT Press. [Web]
- Por qué leerlo: Es la "biblia" técnica que define formalmente la jerarquía: Inteligencia Artificial (la meta) > Machine Learning (la técnica) > Deep Learning (la arquitectura de redes neuronales que hace posible la IA moderna).
- Vaswani, A., et al. (2017). "Attention Is All You Need". [PDF]
- Por qué leerlo: Es el paper seminal que introdujo la arquitectura "Transformer", el motor fundamental de todos los LLM modernos que se discuten en esta obra.
- Lewis, P., et al. (2020). "Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks". [PDF]
- Por qué leerlo: Es el paper que introduce formalmente la arquitectura RAG, la solución técnica clave para el problema de la "Ventana de Contexto" discutido en la Guía 03.
- Hu, E., et al. (2021). "LoRA: Low-Rank Adaptation of Large Language Models". [PDF]
- Por qué leerlo: Introduce LoRA, la técnica de ingeniería clave para el Ajuste Fino (Guía 07) eficiente, permitiendo adaptar modelos masivos con recursos limitados.
- Boonstra, L. (Febrero 2025). "Prompt Engineering Guide". [Web]
- Por qué leerlo: Es el whitepaper técnico que define la disciplina de la Ingeniería de Prompts (Guía 02). Detalla las técnicas fundamentales como zero-shot, few-shot, role prompting y los patrones de razonamiento como Chain-of-Thought y ReAct.
- Milam, K., & Gulli, A. (Noviembre 2025). "Context Engineering: Sessions, Memory". [Web]
- Por qué leerlo: El whitepaper fundacional que define la "Ingeniería de Contexto". Proporciona el "criterio de arquitecto" clave para diferenciar RAG (el "bibliotecario" experto en hechos) de la Memoria (el "asistente personal" experto en el usuario).
- Gobierno de Chile. (1999). "Ley N° 19.628 sobre protección de la vida privada". [Web]
- Por qué leerlo: Es el pilar legal de la Gobernanza de Datos (Guía 04) en Chile. Define "dato personal" y "dato sensible", estableciendo la base legal de la "Estrategia de Datos".
- Cavoukian, A. (2009). "Privacy by Design: The 7 Foundational Principles". [PDF]
- Por qué leerlo: Establece el marco internacional para la "Privacidad desde el Diseño" y "por Defecto", un concepto central de la "Guía Ética" (BID/UAI) para la formulación de proyectos.
- Souly, A., et al. (2025). "Poisoning Attacks on LLMs Require a Near-Constant Number of Poison Samples". arXiv. [WEB]
- Por qué leerlo: El estudio técnico citado en el reporte internacional que demuestra la fragilidad de los modelos ante ataques de envenenamiento de datos con muy pocos recursos (aprox. 250 muestras). Fundamental para justificar la Gobernanza de la Fuente en la Guía 04.
- Laboratorio de Gobierno & UAI. (2022). "Guía Permitido Innovar: ¿Cómo podemos desarrollar proyectos de ciencia de datos?". [Web]
- Por qué leerlo: Provee herramientas prácticas universales para la etapa de fundamentación, destacando la "Matriz de Madurez de Datos" (evaluación de calidad, acceso y privacidad de la fuente) y el análisis de pre-factibilidad PESTL.
Bloque 2: La Construcción¶
(Ingeniería de Agentes, Sistemas Cognitivos y Prototipado)
- Wei, J., et al. (2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models". [PDF]
- Por qué leerlo: Investigación clave que demuestra cómo forzar a un LLM a "pensar paso a paso", introduciendo el patrón de razonamiento Chain of Thought (CoT) (Guía 06).
- Yao, S., et al. (2022). "ReAct: Synergizing Reasoning and Acting in Language Models". [PDF]
- Por qué leerlo: Introduce el Ciclo ReAct (Reason + Act), el "motor" fundamental de los Agentes (Guía 05) que les permite usar "Herramientas".
- Yao, S., et al. (2023). "Tree of Thoughts: Deliberate Problem Solving with Large Language Models". [PDF]
- Por qué leerlo: Define el patrón de razonamiento avanzado Tree of Thoughts (ToT) (Guía 06), que permite a los agentes explorar múltiples caminos de solución.
- Wiesinger, J., Marlow, P., & Vuskovic, V. (Septiembre 2024). "Agents". [Web]
- Por qué leerlo: Whitepaper conceptual que introduce la arquitectura de un Agente (Guía 05) como la composición de un Modelo (el cerebro), Herramientas (las manos) y una Capa de Orquestación.
- Gulli, A., et al. (Febrero 2025). "The Agents Companion". [Web]
- Por qué leerlo: Es la profundización técnica de las guías de construcción. Explora patrones de "múltiples agentes" (jerárquicos, colaborativos) y detalla la Evaluación de Agentes (Guía 10).
- Baker, B., et al. (OpenAI). (2025). "Monitoring Reasoning Models for Misbehavior and the Risks of Promoting Obfuscation". [Web]
- Por qué leerlo: Profundiza en los desafíos de supervisar modelos que "piensan" (CoT), advirtiendo sobre cómo una mala supervisión puede incentivar al modelo a ocultar sus verdaderos razonamientos. Lectura clave para la Guía 11.
Bloque 3: La Operación¶
(Gobernanza, Evaluación e Industrialización)
- Gobierno de Chile. (2008). "Ley N° 20.285 sobre acceso a la información pública". [Web]
- Por qué leerlo: Es el fundamento legal de la Transparencia y Rendición de Cuentas en el sector público, un pilar de la Gobernanza de IA (Guía 09).
- Burrell, J. (2016). "How the machine 'thinks': Understanding opacity in machine learning algorithms". [PDF]
- Por qué leerlo: Define los tres tipos de Opacidad (intrínseca, intencional, analfabeta), que justifican la necesidad de la Observabilidad (Guía 09 y Guía 11).
- Zheng, L., et al. (2023). "Judging LLM-as-a-judge with MT-Bench and Chatbot Arena". [PDF]
- Por qué leerlo: Proporciona el fundamento técnico para la "Evaluación Asistida por IA" (el "LLM Juez"), un concepto central de la Guía 10: Evaluación.
- Google. (2024). "Secure AI Framework (SAIF)". [Web]
- Por qué leerlo: Marco de seguridad fundamental que aborda la protección de la IA en la infraestructura y el producto. Respaldo conceptual para la Gobernanza (Guía 09).
- Greshake, K., et al. (2023). "Not what you’ve signed up for: Compromising Real-World LLM-Integrated Applications with Indirect Prompt Injection". [PDF]
- Por qué leerlo: Es el paper que descubrió y definió la Inyección Indirecta de Prompts. Demuestra técnicamente cómo un atacante puede secuestrar un agente sin hablar con él, simplemente escondiendo instrucciones en los datos que el agente lee (ej. una web o un PDF). Es la lectura obligatoria para justificar la "Cuarentena de Datos" de la Guía 09.
- NIST. (2023). "Artificial Intelligence Risk Management Framework (AI RMF 1.0)". U.S. Department of Commerce. [Web]
- Por qué leerlo: Proporciona el marco operativo de "Gobernar, Mapear, Medir y Gestionar" utilizado para el mapeo técnico de este libro. Es la guía esencial para la industrialización y la gestión de riesgos en entornos corporativos.
- ISO/IEC. (2023). "ISO/IEC 42001:2023 Information technology — Artificial intelligence — Management system". [Web]
- Por qué leerlo: Es el primer estándar internacional certificable para sistemas de gestión de IA. Referencia técnica definitiva para operacionalizar el marco GRC (Anexo E, Guia 09).
- Huyen, Chip (2024). "AI Engineering". [Web]
- Por qué leerlo: Complemento técnico directo de esta obra. Detalla la implementación de ingeniería para Agentes, RAG y "Guardrails" en producción.
- Kartakis, S., et al. (Noviembre 2025). "Prototype to Production". [Web]
- Por qué leerlo: Manual de "AgentOps" que fundamenta la Guía 11: Industrialización. Detalla CI/CD y Observabilidad para agentes.
- Zaharia, M., et al. (Berkeley AI Research). (2024). "The Shift from Models to Compound AI Systems". [Web]
- Por qué leerlo: Paper visionario que valida la tesis de la Guía 11. Argumenta que el "Estado del Arte" ya no se logra con un mejor modelo, sino con un mejor sistema (componentes modulares, RAG, herramientas), justificando la necesidad de Portabilidad y arquitectura sobre la elección del motor.
- Department for Science, Innovation and Technology (DSIT). (2025). "International AI Safety Report: Second Key Update". UK Government. [Web]
- Por qué leerlo: Es la auditoría global del estado de la seguridad en IA a fines de 2025. Valida la necesidad de la "Defensa en Profundidad" (LOSA), cuantifica el riesgo de Data Poisoning y establece el estándar para el monitoreo de agentes autónomos.
- Sun, W., et al. (2025). "Training Proactive and Personalized LLM Agents". arXiv. [Web]
- Por qué leerlo: Estudio que fundamenta el marco de gobernanza de calidad para agentes en la Guía 09, proponiendo el equilibrio entre Productividad, Proactividad y Personalización.
- Zou, A., et al. (2023). "Universal and Transferable Adversarial Attacks on Aligned Language Models". arXiv. [PDF]
- Por qué leerlo: El estudio que demostró que cualquier modelo (incluso los más seguros) puede ser "hackeado" mediante sufijos adversarios universales. Es la prueba científica definitiva de que la seguridad no puede delegarse al modelo, justificando la necesidad de una capa externa (LOSA) en la Guía 09.
- Consejo para la Transparencia (CPLT). (Junio 2025). "Guía para la adopción de las Recomendaciones sobre Transparencia Algorítmica". [PDF]
- Por qué leerlo: Define la taxonomía técnica de publicación de algoritmos. Para el Sector Público: Es el manual de cumplimiento obligatorio. Para el Sector Privado: Es el mejor benchmark disponible para estructurar políticas de transparencia corporativa y ESG.
- Shaib, C., et al. (2025). "Learning the Wrong Lessons: Syntactic-Domain Spurious Correlations in Language Models". NeurIPS 2025. [PDF]
- Por qué leerlo: Es un estudio clave que demuestra cómo la sintaxis puede anular la semántica, creando una nueva vulnerabilidad de seguridad que permite bypass (saltarse) las negativas éticas del modelo (jailbreaks). Es la prueba científica de que la seguridad no puede delegarse al LLM, justificando la arquitectura LOSA y el Monitoreo de CoT (Guía 09, 11).
- UiPath (2024). "The Future of Automation: Integrating GenAI with RPA". Whitepaper. [Web]
- Por qué leerlo: Fundamenta la necesidad técnica de mantener herramientas de RPA (robots que hacen clics) para conectar la IA moderna con la infraestructura bancaria y gubernamental antigua ("Legacy") que no tiene APIs.
- Amazon Web Services (AWS). (s.f.). "¿Qué es el enfoque de gobernanza, riesgo y cumplimiento (GRC)?". [Web]
- Por qué leerlo: Es la fuente de la definición estándar de industria citada en la Guía 09. Establece la base para entender GRC no como burocracia, sino como la herramienta de ingeniería para alinear TI con los objetivos de negocio.
- Gobierno de Chile. (2019). "Ley N° 21.180 sobre Transformación Digital del Estado". [Web]
- Por qué leerlo: Marco jurídico que habilita el procedimiento administrativo electrónico. Es la referencia legal para la definición de SDA (Sistema de Decisión Automatizada) en el Glosario y la base para la interoperabilidad de datos en el sector público.
- Stern, J. (2025). "We Put an AI Vending Machine in Our Office. It Gave Away Everything". The Wall Street Journal. [Web]
- Por qué leerlo: Es la validación empírica de la tesis de Gobernanza (GRC) de esta obra. El caso "Project Vend" demuestra cómo la ingeniería social puede quebrar financieramente a un agente autónomo en cuestión de semanas, justificando la necesidad imperativa del Interruptor Financiero (Guía 11) y la supervisión humana (Sistema 2) antes de otorgar autonomía de gasto.
- OWASP (2025). "Top 10 for Large Language Model Applications". [Web]
- Por qué leerlo: Es la referencia técnica para operativizar los riesgos de seguridad en LLMs, enumerando fallos como el manejo inseguro de outputs y el envenenamiento de datos, claves para la arquitectura LOSA de este libro.
- OWASP Foundation (2025). "Top 10 para Aplicaciones de Modelos de Lenguaje Grandes (LLM), Versión 2025". [Web]
- Por qué leerlo: Es el documento de referencia técnica para cualquier auditoría de seguridad en IA. Detalla escenarios de ataque reales (como el bypass de filtros multilingües o ataques multimodales) y proporciona estrategias de mitigación prácticas para desarrolladores y arquitectos.
Bloque 4: El Impacto¶
(Humanidad, Ética, Estrategia y Valor)
- Challapally, A., et al. (Julio 2025). "The GenAI Divide: State of AI in Business 2025". MIT / Project NANDA. [PDF]
- Por qué leerlo: Es el informe de mercado clave de 2025. Proporciona los datos estadísticos que validan la tesis de esta obra: la "Brecha GenAI" (el 95% de las empresas con ROI cero). Define los conceptos de "Shadow AI" (IA en la sombra), "Prosumers" (usuarios expertos) y la superioridad de la estrategia "Comprar" vs. "Construir", que son fundamentales para la Gobernanza (Guía 09), la Sinergia (Guía 15) y la Estrategia (Guía 13).
- Singla, A., et al. (Noviembre 2025). "The state of AI in 2025". McKinsey. [Web]
- Por qué leerlo: Valida la "Brecha de Escalamiento" e identifica la "validación humana" como diferenciador clave de los high performers.
- Kahneman, D. (2011). "Thinking, Fast and Slow". [Web]
- Por qué leerlo: Fuente del marco "Sistema 1 / Sistema 2", pilar conceptual de la Sinergia Humano-IA (Guía 15).
- Dreyfus, H. L. (1992). "What Computers Still Can't Do: A Critique of Artificial Reason". [Web]
- Por qué leerlo: Base filosófica del Prólogo. Argumenta por qué la inteligencia sin "cuerpo" es distinta a la humana.
- Taleb, N. N. (2012). "Antifragile: Things That Gain from Disorder". [Web]
- Por qué leerlo: Define Fragilidad y Skin in the Game (Prólogo). Esencial para entender el riesgo de sistemas sin consecuencias.
- Heath, C., & Heath, D. (2010). "Switch: How to Change Things When Change Is Hard". [Web]
- Por qué leerlo: Manual práctico para la gestión del cambio, esencial para ejecutar la Guía 15 y gestionar la resistencia cultural.
- Parasuraman, R., & Manzey, D. H. (2010). "Complacency and Bias in Human Interaction with Automation: A Chronic State of Reliability". Human Factors. [Web]
- Por qué leerlo: Es la investigación científica fundamental que explica por qué los humanos dejan de auditar a las máquinas cuando estas funcionan bien la mayor parte del tiempo. Provee la base psicológica para la "Deuda Técnica Humana" y justifica la necesidad de los "Simulacros de Desconexión" de la Guía 15.
- Gobierno de Chile (BID Lab, UAI). (2022). "Guía Formulación ética de proyectos de ciencia de datos". [Web]
- Por qué leerlo: Marco legal para la ética de datos, definiendo "Opacidad" y "Licencia Social".
- Angwin, J., et al. (2016). "Machine Bias". ProPublica. [Web]
- Por qué leerlo: Investigación que expone los sesgos en algoritmos, justificando la Brújula Ética.
- Buolamwini, J., & Gebru, T. (2018). "Gender Shades". [PDF]
- Por qué leerlo: Investigación seminal sobre sesgos en reconocimiento facial.
- Data Futures Partnership (2017). "A Path to Social Licence: Guidelines for Trusted Data Use". [PDF]
- Por qué leerlo: Define el concepto de "Licencia Social", requisito ético central de la Guía 15. Establece que la confianza no es un estado permanente, sino un permiso que se renueva continuamente mediante la transparencia y el valor compartido.
- Gobierno de Chile. (2012). "Ley N° 20.609 que establece medidas contra la discriminación". [Web]
- Por qué leerlo: Proporciona la definición legal de "discriminación arbitraria".
- European Parliament (2024). "Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act)". [Web]
- Por qué leerlo: Es la fuente legal del Anexo F. Define el estándar de cumplimiento global ("Efecto Bruselas") y la clasificación de riesgos que determina el nivel de supervisión humana requerida para cada sistema.
- Unión Europea. (2024). "Reglamento de Inteligencia Artificial (AI Act)". [Web]
- Por qué leerlo: Primer marco regulatorio integral que convierte la Gobernanza y Evaluación en obligaciones legales.
- Strubell, E., Ganesh, A., & McCallum, A. (2019). "Energy and Policy Considerations for Deep Learning in NLP". [PDF]
- Por qué leerlo: El estudio fundacional que puso número a la huella de carbono de la IA. Reveló que entrenar un modelo grande puede emitir tanto CO2 como 5 coches en toda su vida útil. Lectura obligatoria para justificar el riesgo de "Green AI" en la Guía 15.
- Gilley, A., Godek, M., & Gilley, J. W. (2009). "Change, Resistance, and the Organizational Immune System". [Web]
- Por qué leerlo: Provee la base teórica para entender por qué las organizaciones atacan la innovación interna, validando tu sección sobre la "Gestión del Sabotaje" en la Guía 15.
- Google Cloud. (Octubre 2025). "101 Real-World Gen AI Use Cases from Industry Leaders". [Web]
- Por qué leerlo: Es la validación empírica definitiva del manuscrito. Confirma la transición de Chatbots a Agentes, valida los Blueprints de Soporte, Legal y Datos con casos de éxito reales (Toyota, Mercari, Freshfields) y respalda el modelo de ROI de la Guía 12 con cifras auditadas.
- Dirección de Compras y Contratación Pública (ChileCompra). (Dic 2023). "Directiva N°44: Recomendaciones para la adquisición de proyectos de Ciencia de Datos e IA". [PDF]
- Por qué leerlo: Un modelo robusto para la contratación de tecnología (Guía 14). Ofrece cláusulas tipo para proteger la propiedad intelectual, exigir explicabilidad ("caja blanca") y definir niveles de servicio (SLA) en proyectos de IA.
- División de Gobierno Digital & UAI. (2022). "Guía de Formulación Ética de Proyectos de Ciencia de Datos". [Web]
- Por qué leerlo: Marco de referencia esencial para la Guía 15. Define operacionalmente la "Licencia Social", la proporcionalidad en el uso de IA y los protocolos para mitigar sesgos en datos administrativos.
Bloque 5: La Expansión¶
(Perspectivas, Futuro y el Rol del "Vigilante Estratégico")
-
Tendencia 1: La Explosión de la Multimodalidad (Model Cards y System Cards)
- Google DeepMind (2025). "Gemini 3 Pro Model Card". [Web]
- Por qué leerlo: El documento técnico oficial de la arquitectura multimodal nativa y el razonamiento ("Deep Think") de Gemini 3.
- OpenAI (2025). "GPT-5 System Card". [PDF]
- Por qué leerlo: Detalla los riesgos de gobernanza en modelos omnicanal y la mitigación de audio/visión no deseada.
- Anthropic (2025). "Claude 3.5 Sonnet System Card". [PDF]
- Por qué leerlo: El estándar de la industria en "Seguridad Constitucional" y evaluación de riesgos catastróficos (CBRN).
- Meta (2025). "Llama 4 Model Card". [Web]
- Por qué leerlo: La referencia obligatoria para el uso de modelos de frontera Open Source (Pesos Abiertos).
- Mistral AI (2025). "Mistral Large Model Card". [Web]
- Por qué leerlo: Ejemplo de eficiencia europea y modelos optimizados para razonamiento lógico y código.
- Google DeepMind (2025). "Gemini 3 Pro Model Card". [Web]
-
Tendencia 2: IA en el Dispositivo (SLMs)
- Microsoft (2025). "Phi-4 Technical Report". [PDF]
- Por qué leerlo: Define el estado del arte en razonamiento complejo en modelos pequeños. Demuestra cómo un modelo que cabe en un laptop puede superar a modelos 10 veces más grandes en matemáticas y lógica, validando la tesis de que "el tamaño no es inteligencia".
- Meta (2025). "Llama 3.2: Revolutionizing Edge AI". [Web]
- Por qué leerlo: El informe técnico de los modelos de 1B y 3B parámetros. Es la referencia obligatoria para entender cómo desplegar agentes multimodales (texto e imagen) directamente en dispositivos móviles sin conexión a internet.
- Apple (2025). "OpenELM: An Efficient Language Model Family". [PDF]
- Por qué leerlo: Fundamental para el "Control". Apple publica no solo los pesos, sino el framework de entrenamiento completo, ofreciendo la máxima transparencia para entornos donde la auditoría del código es un requisito legal.
- Microsoft (2025). "Phi-4 Technical Report". [PDF]
-
Tendencia 3: De Agentes-Herramienta a Agentes Autónomos
- Cognition Labs (2025). "A Theory of Building Long-running Agents". [Web]
- Por qué leerlo: Describe la arquitectura de ingeniería necesaria para evitar la fragilidad en agentes autónomos, proponiendo un enfoque de "agente único con contexto compartido" en lugar de sistemas multi-agente desconectados.
- Anthropic (Noviembre 2025). "Disrupting the first reported AI-orchestrated cyber espionage campaign". [Web]
- Por qué leerlo: El reporte oficial de seguridad que detalla el incidente GTG-1002. Proporciona la evidencia empírica de cómo la "lealtad del agente" al prompt (jailbreak) superó a sus protocolos de seguridad.
- Riedl, M. O., & Desai, D. R. (Agosto 2025). "AI Agents and the Law". arXiv. [PDF]
- Por qué leerlo: Análisis crítico sobre la "Ley de Agencia" y los deberes fiduciarios, fundamental para entender la responsabilidad legal de los agentes autónomos.
- Weston, J., & Foerster, J. (Meta FAIR). (Dic 2025). "Self-Improving AI -> Co-Improving AI". arXiv.
- Por qué leerlo: Manifiesto técnico que rechaza la autonomía total de la IA ("Self-Improving") en favor de la "Co-Mejora". Valida científicamente la tesis de la Guía 15 sobre la Sinergia y el peligro de excluir al humano del bucle de desarrollo.
- Cognition Labs (2025). "A Theory of Building Long-running Agents". [Web]
-
Tendencia 4: La Web Agéntica (El Ecosistema)
- Google (Noviembre 2025). "Google Antigravity: Platform for Autonomous Agents". [Web]
- Por qué leerlo: El sitio de documentación oficial de la plataforma que habilita la orquestación global de agentes, definiendo los estándares de la "intranet de agentes".
- Anthropic (2025). "The Model Context Protocol (MCP)". [Web]
- Por qué leerlo: La especificación técnica del estándar abierto que permite a los agentes conectarse universalmente con sistemas de datos, la "tubería" esencial de la Web Agéntica.
- Google (Noviembre 2025). "Google Antigravity: Platform for Autonomous Agents". [Web]
-
Tendencia 5: IA Corpórea (Embodied AI)
- LeCun, Y. (2022/2025). "A Path Towards Autonomous Machine Intelligence (AMI)". [PDF]
- Por qué leerlo: Es el "Manifiesto Técnico" original de Yann LeCun. Define la arquitectura JEPA (Joint Embedding Predictive Architecture) y los "Modelos de Mundo", la base teórica de la startup AMI para crear IAs que entiendan la causa y efecto físico, no solo el lenguaje.
- Figure AI (2025). "Figure 03: Fleet Learning & Architecture". [Web]
- Por qué leerlo: El reporte técnico del despliegue del robot Figure 03. Detalla cómo la "tubería de datos de flota" (Fleet Data Pipeline) permite que un robot aprenda una tarea (ej. manipular una pieza) y suba el conocimiento a la nube para que los otros 10.000 robots de la flota lo aprendan instantáneamente ("Aprendizaje de Flota").
- Boston Dynamics (2025). "The Electric Atlas: Reinforcement Learning for Dynamic Humanoids". [Web]
- Por qué leerlo: Detalla el cambio histórico de la robótica: el paso de la hidráulica (fuerza bruta) a la eléctrica controlada por Aprendizaje por Refuerzo (RL). Explica cómo el modelo "aprende" a moverse y manipular objetos en lugar de ser programado paso a paso.
- LeCun, Y. (2022/2025). "A Path Towards Autonomous Machine Intelligence (AMI)". [PDF]
-
Tendencia 6: Más Allá del Transformer (Aprendizaje Continuo)
- Dao, T., & Gu, A. (2025). "Transformers are SSMs: Generalized Models and Efficient Algorithms Through Structured State Space Duality (Mamba-2)". [PDF]
- Por qué leerlo: Es el paper de referencia para las arquitecturas no-Transformers (SSMs) que resuelven el Costo Cuadrático (Guía 03), permitiendo eficiencia a escala y costo lineal.
- Behrouz, A., et al. (2025). "Nested Learning: The Illusion of Deep Learning Architectures". [Web]
- Por qué leerlo: Aborda el segundo límite del Transformer (Guía 03): la Amnesia Estática. Introduce el paradigma del "Aprendizaje Anidado" y prototipos capaces de auto-modificación, clave para el "Vigilante Estratégico".
- Dao, T., & Gu, A. (2025). "Transformers are SSMs: Generalized Models and Efficient Algorithms Through Structured State Space Duality (Mamba-2)". [PDF]
Conclusión: De la Fundación a la Expansión¶
- Lanier, J. (2010). "You Are Not a Gadget: A Manifesto". Knopf. [Web]
- Por qué leerlo: Respalda la sección de "Construcción de la Agencia". Lanier, pionero de la realidad virtual, argumenta contra el "reduccionismo computacional" (tratar a los humanos como bases de datos) y defiende que la tecnología debe diseñarse para expandir la libertad humana, no para encerrarla en menús predefinidos por algoritmos ("Lock-in").
- Pratchett, T. (1996). "Hogfather" (Discworld Series). Victor Gollancz. [Web]
- Por qué leerlo: Fuente de la cita central de la Conclusión: "La estupidez real siempre vence a la inteligencia artificial". Pratchett satiriza brillantemente la falacia de la "superinteligencia" tecnológica frente a la irracionalidad humana, complementando literariamente la tesis de la "Estupidez Artificial" de Innerarity.
- Wiener, N. (1950). "The Human Use of Human Beings: Cybernetics and Society". Houghton Mifflin. [Web]
- Por qué leerlo: El padre de la cibernética predijo hace 75 años el dilema central de esta conclusión. Su advertencia es el axioma final del Arquitecto: "Si utilizamos, para lograr nuestros fines, una agencia mecánica cuya operación no podemos interferir eficazmente... será mejor que estemos muy seguros de que el propósito introducido en la máquina es el propósito que realmente deseamos".