Saltar a contenido

A - Formulación

Anexo A: Formulación y Viabilidad de Proyectos

Subtítulo: Estructura base para Casos de Seguridad (Safety Cases)

Introducción: El Primer Filtro de Gobernanza

Antes de prototipar, debemos validar. Este documento es la herramienta de "Screening" (Triage) mencionada en la Guía 09 (Gobernanza).

Su propósito es evitar el "solucionismo tecnológico" y asegurar que solo los proyectos que son técnicamente viables (datos enlazables), estratégicamente valiosos (transforman una actividad real) y éticamente robustos pasen a desarrollo.

Nota Técnica: Al completar este documento, estás construyendo la evidencia estructurada (Safety Case) requerida para futuras auditorías de seguridad. Si descubres aquí que el proyecto no es viable, descartarlo es un éxito.


Sección 1: Definición Estratégica (La Transformación)

Contexto: No basta con tener un "dolor". Debemos identificar qué actividad humana específica va a cambiar. Si no puedes describir el "Antes" y el "Después" operativo, no tienes un proyecto, tienes solo una idea.

Criterio Estratégico Pregunta Clave Respuesta / Placeholder Referencia
1. El Dolor (Why) ¿Qué problema raíz resolvemos y cuál es el costo de no hacer nada? [Describe el problema y su impacto económico] Guía 01
2. La Transformación (What) Flujo Operativo: ANTES (Humano) vs DESPUÉS (IA + Humano). Antes: [Ej: Lee 100 contratos]
Después: [Ej: IA filtra, Humano valida 5]
Guía 02
3. La Zona ROI (Value) ¿Dónde cae en el Mapa de Inversión? (Verde, Amarillo, Rojo, Azul). [Ej: Zona Verde - Eficiencia Inmediata] Guía 12
4. Los Datos (RAG) ¿Qué conocimiento necesita leer el agente y cuán sensible es? [Ej: Manuales técnicos (Público) + Emails (Confidencial)] Guía 07/11
5. La Gobernanza (LOSA) ¿Qué controles (human-in-the-loop) evitarán la atrofia o el error? [Ej: Auditoría aleatoria del 10% de las respuestas] Guía 09/15

Sección 2: Viabilidad Técnica y de Datos (El Combustible)

Contexto: El 80% de los proyectos fallan aquí. No basta con "tener datos". Necesitamos saber si esos datos pueden "hablar" entre sí (Identificador Único) y si tienen el detalle suficiente (Granularidad).

Criterio Técnico Pregunta Clave Diagnóstico Técnico (Placeholder) Referencia
Disponibilidad y Enlace ¿Tenemos acceso y, crucialmente, ¿tienen un identificador único (ID) para cruzar distintas fuentes? [No enlazable / Conectable y Limpio] Guía 04
Granularidad ¿El dato tiene el nivel de detalle necesario para la decisión? [Granularidad Insuficiente / Granularidad Adecuada] Guía 04
Complejidad Cognitiva ¿Es tarea de S1 (Patrón) o S2 (Juicio/Riesgo Alto)? [Sistema 1 / Sistema 2] Guía 15

Sección 3: Checklist de Validación Ética (El "Safety Case")

Contexto: Este es el núcleo de GRC. Validamos la Proporcionalidad y la Licencia Social.

Dimensión Pregunta de Validación ("Go / No-Go") Referencia Estado
1. Proporcionalidad ¿Es la IA el medio adecuado? ¿Existe una alternativa No-IA (Excel, Regla simple) más barata y efectiva? Guía 12 [ ]
2. Licencia Social ¿Aprobarían los afectados (ciudadanos/empleados) este uso si apareciera en la prensa mañana? Guía 15 [ ]
3. Protección de Datos ¿Hay datos personales? Si es así, ¿tenemos base legal para tratarlos y arquitectura segura (LOSA)? Guía 09 [ ]
4. Transparencia ¿Es explicable la decisión? ¿Podemos trazar por qué actuó así (logs de razonamiento) ante una auditoría? Guía 09 [ ]
5. Sesgos ¿Los datos históricos ("Antes") contienen prejuicios que la IA podría aprender y amplificar? Guía 04 [ ]
6. Responsabilidad ¿Existe un "Dueño del Sistema" humano designado que asuma la responsabilidad final del resultado? Anexo B [ ]

Sección 4: Definición de Éxito (El "Golden Set")

Contexto: Si no puedes medirlo, no puedes gobernarlo. Define contra qué vamos a comparar.

Métrica Definición / Pregunta Clave Umbral / Estimación Referencia
Calidad / Golden Set ¿Contra qué estándar de verdad (ej. humano o proceso anterior) compararemos a la IA? [KPI Objetivo y Umbral] Guía 10
Costo (Tokenomics) ¿Cuál es el costo estimado de operación mensual vs. el ahorro proyectado? [$ Costo vs. $ Ahorro] Guía 12

Criterio de Rechazo Automático (Hard Veto)

Para evitar discusiones subjetivas en el comité, se aplica la siguiente regla financiera de corte:

La Regla del 50%:

Si el Costo Proyectado por Transacción de la IA (incluyendo revisión humana) supera el 50% del Costo Actual del proceso puramente humano, el proyecto se RECHAZA AUTOMÁTICAMENTE.

No buscamos márgenes marginales. Si la tecnología no puede reducir el costo unitario al menos a la mitad, el riesgo de implementación no justifica la inversión.


Sección 5: Ciclo de Vida y Salida (El "Final")

Contexto: Todo sistema de software se convierte eventualmente en deuda técnica. La responsabilidad final de GRC es saber cómo apagar el sistema antes de encenderlo. Debemos evitar crear "Agentes Zombis" y prevenir la "Atrofia Cognitiva".

Criterio Pregunta Clave Plan de Mitigación / Protocolo Referencia
Plan de Retiro ¿Cómo se apaga el sistema y se borran los datos vectorizados (RAG) cuando el proyecto termine? [Protocolo de borrado seguro] Guía 09
Resiliencia Si el sistema falla, ¿mantenemos la capacidad humana de operar manualmente (Actividad "Antes")? [Simulacro manual trimestral] Guía 15

Sección 6: Validación de Juicio Humano (Sistema 2)

Contexto: La IA opera como un Sistema 1 (estadístico/intuitivo). Esta sección fuerza la activación del Sistema 2 (analítico/responsable) para evitar la abdicación del juicio y la "Estupidez Artificial". Si alguna respuesta es "No", el proyecto debe ser devuelto a diseño.

Criterio de Juicio Pregunta Crítica de Validación Referencia
Explicabilidad ¿Podemos explicar la lógica del resultado sin recurrir a la frase "es una caja negra"? ¿Es auditable la lógica del resultado mediante evidencia de razonamiento y trazabilidad? Guía 09, 14
No-Abdicación ¿Se ha definido el punto exacto donde el humano debe "firmar" la decisión antes de una acción irreversible? Guía 15, 16
Amnesia Estática ¿La arquitectura de memoria (RAG/Memoria Explícita) es suficiente para que el agente no "olvide" el contexto crítico? Guía 03
Skin in the Game ¿El responsable (Sponsor) está dispuesto a asumir el pasivo legal y reputacional si el Sistema 1 comete un error grave? Guía 16, Concl.
Veto de Costo ¿Cumple con la Regla de Oro? (Costo IA + Supervisión Humana < 50% del costo humano actual). Guía 12, Chlog.
Simetría de Acción ¿Existe un "Kill-Switch" operativo y una función de "Undo" para revertir las acciones del agente? Guía 05, Chlog.

Certificación del Arquitecto

Al proceder al dictamen, el evaluador certifica que no está delegando su juicio a la máquina, sino utilizando la IA como un aumento de su capacidad operativa bajo su supervisión directa.


Dictamen Final (Triage)

Decisión del Comité de Gobernanza / Sponsor

Basado en la evidencia de este Canvas, el proyecto se califica como:

  • [ ] VIABLE (APROBADO): El valor es claro, los riesgos están mitigados. -> Pasa a Prototipado.
  • [ ] CONDICIONAL: Requiere resolver la brecha de datos o ética. -> Volver a Formulación.
  • [ ] NO VIABLE (RECHAZADO): El riesgo supera al valor. -> Fin del proceso.

Responsable de la Evaluación: ________

Firma del Arquitecto de IA: ________

Fecha de Aprobación: ________