Anexo B: Política Institucional de Uso Responsable de Inteligencia Artificial

Plantilla Marco para Organizaciones Públicas y Privadas


Introducción: De la Guía a la Política

Esta plantilla marco establece los principios y obligaciones para el uso responsable de Inteligencia Artificial (IA) en organizaciones públicas y privadas. Su propósito es servir como la base de Gobernanza, Riesgo y Cumplimiento (GRC), integrando conceptos de gobernanza, ética y seguridad derivados de la obra Arquitectura de Inteligencia Artificial, especialmente de las Guías 09 (Gobernanza), 10 (Evaluación Calidad) y 15 (Ética), junto con los marcos legales y de transparencia aplicables.


1. Propósito

Esta política establece los principios, criterios y responsabilidades que regulan el uso seguro, responsable y ético de la IA en la organización.

Su objetivo es garantizar que la IA:


2. Alcance

Esta política aplica a:


Definición de “Sistema de IA”

Para efectos de esta política, un Sistema de IA es:

“Cualquier tecnología que usa datos para hacer inferencias y generar resultados, como predicciones, recomendaciones, clasificaciones o contenidos, con un grado de autonomía.”

Incluye: modelos de machine learning, IA generativa, sistemas predictivos, agentes autónomos, modelos embebidos, herramientas RAG.

Excluye: fórmulas de hojas de cálculo, automatizaciones basadas en reglas fijas, dashboards de BI sin inferencia.


Supervisión Humana Significativa

Es la intervención responsable de una persona con competencia y autoridad suficiente para revisar, validar, corregir o detener el resultado de un sistema de IA antes de que genere un impacto material.

La responsabilidad final es siempre humana.


3. Principios Rectores

Todo uso de IA se regirá por los siguientes principios:


4. Directriz Central: IA Generativa y Agentes Autónomos

Finalidad Permitida

La IA se utiliza principalmente para tareas operativas, repetitivas o de bajo juicio, permitiendo que el personal se concentre en tareas de criterio, análisis, diseño, supervisión y juicio ético.

Principios Específicos


5. Gobernanza, Roles y Responsabilidades

Para asegurar la gobernanza efectiva y la implementación de esta política, se establecen los siguientes roles y responsabilidades clave:


6. Cumplimiento y Sanciones

El incumplimiento de esta política constituye una falta al deber profesional o a la probidad (según corresponda al tipo de organización).

Constituye negligencia profesional o falta grave:

La responsabilidad por decisiones asistidas con IA recae siempre en la persona que las adopta.


7. Revisión y Vigencia

Esta política será revisada una vez al año y, de manera extraordinaria, ante incidentes relevantes, cambios regulatorios o tecnologías emergentes que modifiquen el riesgo institucional.

Su vigencia comienza desde la fecha de aprobación formal.


Guía de Adaptación: Contexto Internacional y Sector Privado

Nota para el Arquitecto Global: Esta política utiliza como benchmark (punto de referencia) el estándar del Consejo para la Transparencia (CPLT) de Chile, reconocido por su rigor en transparencia algorítmica. Si opera en otra jurisdicción (Latam, España, Global), utilice estos principios como referencia de “Estado del Arte”, reemplazando las citas legales por sus equivalentes locales (ej. GDPR en Europa, LGPD en Brasil, Ley 1581 en Colombia).

Adaptación de Conceptos: Si esta política se implementa en una empresa privada o en una jurisdicción distinta, reemplace los conceptos de la siguiente manera para mantener el espíritu del estándar sin la rigidez administrativa local:

Nota Final: Aunque normas específicas como la Ley 20.285 (Chile) son locales, la tendencia regulatoria hacia la Protección de Datos y la Explicabilidad de la IA es universal. Adoptar este estándar hoy adelanta el cumplimiento regulatorio de mañana en cualquier mercado.


« Anexo A
Volver al Índice
Anexo C »