Plantilla Marco para Organizaciones Públicas y Privadas
Esta plantilla marco establece los principios y obligaciones para el uso responsable de Inteligencia Artificial (IA) en organizaciones públicas y privadas. Su propósito es servir como la base de Gobernanza, Riesgo y Cumplimiento (GRC), integrando conceptos de gobernanza, ética y seguridad derivados de la obra Arquitectura de Inteligencia Artificial, especialmente de las Guías 09 (Gobernanza), 10 (Evaluación Calidad) y 15 (Ética), junto con los marcos legales y de transparencia aplicables.
Esta política establece los principios, criterios y responsabilidades que regulan el uso seguro, responsable y ético de la IA en la organización.
Su objetivo es garantizar que la IA:
Esta política aplica a:
Para efectos de esta política, un Sistema de IA es:
“Cualquier tecnología que usa datos para hacer inferencias y generar resultados, como predicciones, recomendaciones, clasificaciones o contenidos, con un grado de autonomía.”
Incluye: modelos de machine learning, IA generativa, sistemas predictivos, agentes autónomos, modelos embebidos, herramientas RAG.
Excluye: fórmulas de hojas de cálculo, automatizaciones basadas en reglas fijas, dashboards de BI sin inferencia.
Es la intervención responsable de una persona con competencia y autoridad suficiente para revisar, validar, corregir o detener el resultado de un sistema de IA antes de que genere un impacto material.
La responsabilidad final es siempre humana.
Todo uso de IA se regirá por los siguientes principios:
Legalidad y Proporcionalidad: Cumplimiento normativo y uso proporcional a la necesidad. La IA no es siempre la opción adecuada.
Criterio Humano (Delegar, No Abdicar): La IA automatiza tareas tácticas y repetitivas; la organización gobierna desde el juicio crítico y estratégico. Toda decisión de impacto requiere supervisión humana significativa. La responsabilidad recae siempre en personas.
Gobernanza de la Fuente (Combustible Limpio): Un sistema de IA depende de la calidad, integridad y actualización de sus datos. La organización se compromete a mantener estándares de gobernanza de datos robustos.
Transparencia y Licencia Social: La ciudadanía, clientes o usuarios deben saber cuándo se usa IA, con qué finalidad y bajo qué controles.
Equidad y No Discriminación: Los sistemas deben minimizar sesgos y evitar decisiones discriminatorias.
Privacidad desde el Diseño: Principios de minimización, proporcionalidad y resguardo de datos personales.
Seguridad y Resiliencia: Los sistemas deben ser robustos frente a errores, fallas técnicas o ataques.
Antifragilidad y Gestión del Riesgo: La IA no debe introducir fragilidad sistémica. Se evaluarán riesgos de errores catastróficos, acumulativos o de difícil detección.
Trazabilidad y Auditabilidad: Todos los procesos que incluyan IA deben permitir reconstruir decisiones, verificar fuentes y auditar resultados. Sin trazabilidad, no hay responsabilidad.
La IA se utiliza principalmente para tareas operativas, repetitivas o de bajo juicio, permitiendo que el personal se concentre en tareas de criterio, análisis, diseño, supervisión y juicio ético.
Validación obligatoria: Ningún contenido de IA se utiliza sin verificación humana en decisiones de impacto.
Basura Elocuente: Se asume que la IA generativa puede producir resultados persuasivos pero incorrectos; se verifica todo.
Prohibición de datos sensibles: No se permite ingresar datos personales sensibles o confidenciales en herramientas no aprobadas.
Transparencia obligatoria: Todo chatbot o asistente debe identificarse como IA.
Agentes Autónomos: Solo pueden operar con límites claros, registro de actividades y supervisión activa.
Para asegurar la gobernanza efectiva y la implementación de esta política, se establecen los siguientes roles y responsabilidades clave:
Dueño de la Política: Máxima autoridad responsable de la vigencia, actualización y patrocinio institucional de esta política.
Comité de Gobernanza de IA: Supervisa proyectos de alto impacto, gestiona riesgos y aprueba excepciones justificadas.
Dueño del Sistema de IA: Responsable del ciclo de vida del sistema de IA, documentación, trazabilidad y cumplimiento de esta política.
Monitor de Cumplimiento: Audita el cumplimiento de la política, verifica que los sistemas estén registrados y que existan evidencias de supervisión.
Usuarios Finales: Actúan como validadores y responsables de revisar, corregir y reportar resultados generados por IA. Deben reportar incidentes y cumplir esta política.
El incumplimiento de esta política constituye una falta al deber profesional o a la probidad (según corresponda al tipo de organización).
Constituye negligencia profesional o falta grave:
La responsabilidad por decisiones asistidas con IA recae siempre en la persona que las adopta.
Esta política será revisada una vez al año y, de manera extraordinaria, ante incidentes relevantes, cambios regulatorios o tecnologías emergentes que modifiquen el riesgo institucional.
Su vigencia comienza desde la fecha de aprobación formal.
Nota para el Arquitecto Global: Esta política utiliza como benchmark (punto de referencia) el estándar del Consejo para la Transparencia (CPLT) de Chile, reconocido por su rigor en transparencia algorítmica. Si opera en otra jurisdicción (Latam, España, Global), utilice estos principios como referencia de “Estado del Arte”, reemplazando las citas legales por sus equivalentes locales (ej. GDPR en Europa, LGPD en Brasil, Ley 1581 en Colombia).
Adaptación de Conceptos: Si esta política se implementa en una empresa privada o en una jurisdicción distinta, reemplace los conceptos de la siguiente manera para mantener el espíritu del estándar sin la rigidez administrativa local:
Nota Final: Aunque normas específicas como la Ley 20.285 (Chile) son locales, la tendencia regulatoria hacia la Protección de Datos y la Explicabilidad de la IA es universal. Adoptar este estándar hoy adelanta el cumplimiento regulatorio de mañana en cualquier mercado.