B - Política
Anexo B: Política Institucional de Uso Responsable de Inteligencia Artificial¶
Plantilla Marco para Organizaciones Públicas y Privadas
Introducción: De la Guía a la Política¶
Esta plantilla marco establece los principios y obligaciones para el uso responsable de Inteligencia Artificial (IA) en organizaciones públicas y privadas. Su propósito es servir como la base de Gobernanza, Riesgo y Cumplimiento (GRC), integrando conceptos de gobernanza, ética y seguridad derivados de la obra Arquitectura de Inteligencia Artificial, especialmente de las Guías 09 (Gobernanza), 10 (Evaluación Calidad) y 15 (Ética), junto con los marcos legales y de transparencia aplicables.
1. Propósito¶
Esta política establece los principios, criterios y responsabilidades que regulan el uso seguro, responsable y ético de la IA en la organización.
Su objetivo es garantizar que la IA:
- sirva al interés público o valor organizacional,
- aumente la eficiencia institucional,
- proteja derechos y seguridad,
- mantenga la confianza ciudadana o del cliente,
- y complemente, sin reemplazar, el criterio, el juicio y la responsabilidad exclusivamente humanos.
2. Alcance¶
Esta política aplica a:
- todas las unidades de la organización,
- todos los funcionarios, colaboradores y contratistas,
- y todos los terceros que diseñen, operen o utilicen herramientas de IA para fines institucionales.
Definición de “Sistema de IA”¶
Para efectos de esta política, se adopta la siguiente definición operativa:
Definición: Sistema de IA
“Cualquier tecnología que usa datos para hacer inferencias y generar resultados, como predicciones, recomendaciones, clasificaciones o contenidos, con un grado de autonomía.”
- Incluye: Modelos de machine learning, IA generativa, sistemas predictivos, agentes autónomos, modelos embebidos, herramientas RAG.
- Excluye: Fórmulas de hojas de cálculo, automatizaciones basadas en reglas fijas, dashboards de BI sin inferencia.
Supervisión Humana Significativa¶
Es la intervención responsable de una persona con competencia y autoridad suficiente para revisar, validar, corregir o detener el resultado de un sistema de IA antes de que genere un impacto material.
La responsabilidad final es siempre humana.
3. Principios Rectores¶
Todo uso de IA se regirá por los siguientes principios:
-
Legalidad y Proporcionalidad: Cumplimiento normativo y uso proporcional a la necesidad. La IA no es siempre la opción adecuada.
-
Criterio Humano (Delegar, No Abdicar): La IA automatiza tareas tácticas y repetitivas; la organización gobierna desde el juicio crítico y estratégico. Toda decisión de impacto requiere supervisión humana significativa. La responsabilidad recae siempre en personas.
-
Gobernanza de la Fuente (Combustible Limpio): Un sistema de IA depende de la calidad, integridad y actualización de sus datos. La organización se compromete a mantener estándares de gobernanza de datos robustos.
-
Transparencia y Licencia Social: La ciudadanía, clientes o usuarios deben saber cuándo se usa IA, con qué finalidad y bajo qué controles.
-
Equidad y No Discriminación: Los sistemas deben minimizar sesgos y evitar decisiones discriminatorias.
-
Privacidad desde el Diseño: Principios de minimización, proporcionalidad y resguardo de datos personales.
-
Seguridad y Resiliencia: Los sistemas deben ser robustos frente a errores, fallas técnicas o ataques.
-
Antifragilidad y Gestión del Riesgo: La IA no debe introducir fragilidad sistémica. Se evaluarán riesgos de errores catastróficos, acumulativos o de difícil detección. Esto incluye mecanismos de detección temprana de fallas, retroalimentación y revisión periódica de impactos.
-
Trazabilidad y Auditabilidad: Todos los procesos que incluyan IA deben permitir reconstruir decisiones, verificar fuentes y auditar resultados. Sin trazabilidad, no hay responsabilidad.
4. Directriz Central: IA Generativa y Agentes Autónomos¶
Finalidad Permitida¶
La IA se utiliza principalmente para tareas operativas, repetitivas o de bajo juicio, permitiendo que el personal se concentre en tareas de criterio, análisis, diseño, supervisión y juicio ético.
Principios Específicos¶
-
Validación obligatoria: Ningún contenido de IA se utiliza sin verificación humana en decisiones de impacto.
-
Basura Elocuente: Se asume que la IA generativa puede producir resultados persuasivos pero incorrectos; se verifica todo.
-
Prohibición de datos sensibles: No se permite ingresar datos personales sensibles o confidenciales en herramientas no aprobadas.
-
Transparencia obligatoria: Todo chatbot o asistente debe identificarse como IA.
-
Agentes Autónomos: Solo pueden operar con límites claros, registro de actividades y supervisión activa.
5. Gobernanza, Roles y Responsabilidades¶
Para asegurar la gobernanza efectiva y la implementación de esta política, se establecen los siguientes roles y responsabilidades clave:
-
Dueño de la Política: Máxima autoridad responsable de la vigencia, actualización y patrocinio institucional de esta política.
-
Comité de Gobernanza de IA: Supervisa proyectos de alto impacto, gestiona riesgos y aprueba excepciones justificadas.
-
Dueño del Sistema de IA: Responsable del ciclo de vida del sistema de IA, documentación, trazabilidad y cumplimiento de esta política.
-
Monitor de Cumplimiento: Audita el cumplimiento de la política, verifica que los sistemas estén registrados y que existan evidencias de supervisión. Este rol puede recaer en la función de auditoría interna, compliance o riesgo, según la estructura organizacional.
-
Usuarios Finales: Actúan como validadores y responsables de revisar, corregir y reportar resultados generados por IA. Deben reportar incidentes y cumplir esta política.
6. Cumplimiento y Sanciones¶
El incumplimiento de esta política constituye una falta al deber profesional o a la probidad (según corresponda al tipo de organización).
Constituye negligencia profesional o falta grave:
- usar resultados de IA sin validación humana significativa,
- automatizar decisiones críticas sin controles,
- utilizar herramientas de IA no aprobadas,
- ingresar datos sensibles o confidenciales en plataformas no autorizadas,
- evadir supervisión o trazabilidad requerida.
La responsabilidad por decisiones asistidas con IA recae siempre en la persona que las adopta.
7. Revisión y Vigencia¶
Esta política será revisada una vez al año y, de manera extraordinaria, ante incidentes relevantes, cambios regulatorios o tecnologías emergentes que modifiquen el riesgo institucional.
Su vigencia comienza desde la fecha de aprobación formal.
Guía de Adaptación: Contexto Internacional y Sector Privado
Nota para el Arquitecto Global: Esta política utiliza como benchmark el estándar del Consejo para la Transparencia (CPLT) de Chile. Si opera en otra jurisdicción (Latam, España, Global), utilice estos principios como referencia de "Estado del Arte", reemplazando las citas legales por sus equivalentes locales (ej. GDPR en Europa, LGPD en Brasil, Ley 1581 en Colombia).
Diccionario de Adaptación (Privado / Público): Si implementa esto en una empresa privada, reemplace los conceptos así:
- "Interés Público" léase "Confianza del Cliente y Reputación de Marca".
- "Probidad Administrativa" léase "Ética Corporativa y Cumplimiento ESG".
- "Transparencia Activa" léase "Divulgación Responsable (Responsible Disclosure)".
- "Sujeto Obligado" léase "Responsable del Tratamiento de Datos".
El objetivo es mantener el rigor del estándar público, pero con el lenguaje del negocio.
Nota Final: Aunque normas específicas como la Ley 20.285 (Chile) son locales, la tendencia regulatoria hacia la Protección de Datos y la Explicabilidad de la IA es universal. Adoptar este estándar hoy adelanta el cumplimiento regulatorio de mañana en cualquier mercado.