checkF7 - 7.0 MARCO CONCEPTUAL: DEL DUE DILIGENCE A LA GOBERNANZA CONTINUA

§7.0 Marco Conceptual — Transición del due diligence puntual (Fases 1-6) a la gobernanza continua. Tabla visual de las cuatro etapas del ciclo de vida.

§7.1 Marcos de Gobernanza — Análisis comparativo NIST AI RMF vs. ISO 42001 vs. EU AI Act en 8 dimensiones (naturaleza jurídica, territorio, sanciones, certificación, etc.). Estrategia "Build Once, Comply Everywhere" documentada con ahorro estimado del 35-45% en costo de compliance.

§7.2 Rol del CISO — Datos empíricos 2026: 90%+ organizaciones sin acceso irrestricto a IA, 65% herramientas sin aprobación, $670K costo diferencial por Shadow AI. Modelo de comité de gobernanza con RACI completo. Framework AEGIS de Forrester (6 dominios) para gobernanza de agentes.

§7.3 OWASP Agentic Top 10 (2026) — Los dos principios rectores (Menor Agencia + Observabilidad Fuerte) con tabla detallada de los 10 riesgos ASI01-ASI10, ejemplos reales (EchoLeak, Replit database deletion, primer MCP server malicioso npm septiembre 2025) y controles de gobernanza requeridos por riesgo.

§7.4 Shadow AI — Framework de gestión en 6 fases (Inventario → Clasificación → Política → Controles técnicos → Alternativas internas → Monitoreo continuo).

§7.5 Monitoreo Continuo e Incident Response — 6 áreas de monitoreo con frecuencias y alertas. AI IRP en 5 fases con características específicas para incidentes de IA (vs. IR tradicional).

§7.6 EU AI Act — Timeline completo 2024-2028 con estado actual de cada hito. Checklist de implementación Arts. 9-17 para sistemas alto riesgo. Tabla de aplicabilidad para 4 escenarios de organizaciones LATAM con exposición europea.

§7.7 Re-Evaluación de Proveedores — Framework de 6 frecuencias (continuo → mensual → trimestral → semestral → anual → evento-driven). 7 disparadores de re-evaluación de emergencia con acciones específicas.

§7.8 Scorecard de Madurez — 5 dimensiones × 4 niveles (Inicial → Desarrollando → Definido → Optimizado). Meta 2026 para sectores regulados: Nivel 3 en agosto 2026 con roadmap a Nivel 4.

§7.9 Referencias — R145–R180, organizadas en 4 categorías (OWASP, EU AI Act, CISO/Gobernanza, Marcos técnicos).

7.0 MARCO CONCEPTUAL: DEL DUE DILIGENCE A LA GOBERNANZA CONTINUA

Las Fases 1 a 6 de este informe abordaron la selección y due diligence de proveedores de IA: evaluar sus filosofías éticas, metodologías de alignment, transparencia, comportamiento ante dilemas éticos, adecuación a sectores regulados y la solidez de sus términos contractuales. La Fase 7 representa una transición fundamental: el proceso no termina cuando se firma el contrato. En realidad, ese momento marca el inicio del ciclo de gobernanza continua que determina si la promesa de los análisis de due diligence se materializa en la práctica operacional.

Esta transición es especialmente crítica en 2026 por tres razones convergentes: (1) la aceleración hacia sistemas de IA agénticos que actúan autónomamente en producción y que presentan superficies de ataque radicalmente distintas a los LLMs pasivos; (2) la inminencia de los deadlines del EU AI Act para sistemas de alto riesgo (agosto 2026) que convierten la gobernanza de IA en obligación legal, no solo buena práctica; y (3) el surgimiento del Shadow AI —herramientas desplegadas sin aprobación de TI— como vector de riesgo de primer nivel, documentado en el 65% de las organizaciones.

ANTES

TRANSICIÓN

DURANTE

CICLO CONTINUO

Evaluación de proveedores(Fases 1–4)

Due diligence sectorial y contractual(Fases 5–6)

Implementación y primeros 90 días

Gobernanza post-implementación(Fase 7)

Filosofía éticaAlignmentTransparenciaDilemas éticos

Sector: regulatorioContracto: ZDR, indemnizaciónSLAs, certificaciones

Integración técnicaConfiguración seguridadCapacitación equiposBaseline métricas

Monitoreo continuoRe-evaluación periódicaGestión incidentesCompliance regulatorio

📌 Principio rector de la Fase 7: La gobernanza de IA no es un estado que se alcanza — es un proceso continuo. El proveedor que cumplía todos los criterios de due diligence en enero puede haber cambiado sus políticas de entrenamiento, sufrido una brecha de seguridad, o actualizado su modelo base en marzo sin notificación al cliente. La gobernanza post-implementación convierte la evaluación puntual en capacidad organizacional.

7.1 MARCOS DE GOBERNANZA DE IA: NIST AI RMF, ISO 42001, EU AI ACT

En 2026 convergen tres marcos principales que definen cómo las organizaciones deben gestionar los riesgos de sus sistemas de IA. Cada uno tiene origen, alcance y naturaleza jurídica distinta. La clave para organizaciones con exposición regulatoria múltiple es un enfoque de 'Build Once, Comply Everywhere': implementar controles que satisfagan simultáneamente los tres marcos, evitando duplicación de esfuerzo.

7.1.1 NIST AI Risk Management Framework (AI RMF 1.0 + Perfiles Sectoriales)

DIMENSIÓN

DETALLE

Origen y naturaleza

NIST (EE.UU.), enero 2023. Voluntario a nivel federal; puede volverse obligatorio en sectores (OCC/FDIC/Fed SR 11-7 alineado). No tiene fuerza de ley, pero establece el estándar de facto para organizaciones que interactúan con el gobierno o sistemas regulados de EE.UU.

Estructura: 4 funciones

GOVERN — Políticas, roles, cultura de riesgo. MAPEADO (MAP) — Identificar contexto y riesgos. MEDIR (MEASURE) — Evaluar y analizar riesgos. GESTIONAR (MANAGE) — Priorizar, responder, monitorear.

Relevancia práctica 2026

Gartner (2025): organizaciones con certificación ISO 27001 pueden alcanzar ISO 42001 hasta un 40% más rápido. El NIST AI RMF es el puente conceptual entre ISO 27001 (seguridad de información) e ISO 42001 (gestión de IA). Organizaciones que ya tienen controles NIST CSF implantados tienen ventaja estructural.

Limitación documentada

IANS (feb. 2026): muchos CISOs encuentran el marco 'demasiado voluminoso o vago, dado sus suposiciones sobre el nivel de control que la mayoría de las empresas tienen sobre sus modelos de IA y su infraestructura'. Apto para organizaciones con modelos propios; más difícil de aplicar cuando el modelo es un SaaS de tercero.

Perfiles sectoriales

NIST publicó perfiles sectoriales para: Financial Services (2024), AI Cybersecurity (2024), GenAI (2024). Estos perfiles mapean los outcomes del AI RMF a requisitos específicos del sector, reduciendo el trabajo de adaptación.

7.1.2 ISO/IEC 42001:2023 — Sistema de Gestión de IA

DIMENSIÓN

DETALLE

Origen y naturaleza

ISO/IEC, diciembre 2023. Certificable por terceros — diferencia crítica frente al NIST AI RMF. Primera norma certificable dedicada a sistemas de gestión de IA. Auditors acreditados pueden emitir certificaciones formales.

Relación con ISO 27001

Diseñada para integrarse con ISO 27001. Comparte estructura de alto nivel (Annex SL). Las organizaciones certificadas en ISO 27001 pueden implementar ISO 42001 como extensión. Ventaja aceleración: 30-40% menos esfuerzo de implementación según datos de conformidad 2025.

Requisitos clave

Política de IA organizacional documentada. Inventario de sistemas de IA con evaluación de riesgos. Roles y responsabilidades en gobernanza de IA. Evaluación de impacto de IA sobre personas. Controles de sesgo, transparencia y explicabilidad. Monitoreo continuo y mejora.

Estado de adopción 2025-2026

Adopción acelerada en sectores regulados post-EU AI Act (2024). El EU AI Act referencia ISO 42001 como posible evidencia de conformidad para sistemas de alto riesgo. Certificación ISO 42001 puede ser ventaja competitiva en licitaciones gubernamentales y contratos con grandes corporativos.

Relación con proveedores IA

ISO 42001 incluye requisitos sobre gestión de terceros (proveedores de IA). El Annex A de controles incluye: evaluación de proveedores de IA externos, gestión de datos de IA de terceros, acuerdos contractuales con proveedores que reflejen responsabilidades de IA.

7.1.3 Tabla Comparativa: Tres Marcos en Acción

DIMENSIÓN

NIST AI RMF

ISO 42001

EU AI ACT

Naturaleza jurídica

Voluntario (EE.UU.)

Certificable (global)

Obligatorio (UE + extraterritorial)

Aplicabilidad territorial

EE.UU. + influencia global

Global

UE + cualquier empresa que opera en UE

Sanciones incumplimiento

Sin sanciones directas

Pérdida de certificación

Hasta €35M / 7% facturación global

Certificación de terceros

No

Sí (auditors acreditados)

Sí (organismos notificados)

Cobertura de terceros (proveedores)

Referencia como buena práctica

Requisito Annex A

Obligación explícita para deployers

Compatibilidad con ISO 27001

Alta (estructura similar)

Diseñada para integrarse

Referencia ISO 42001 como evidencia

Granularidad operacional

Alta (funciones + outcomes detallados)

Alta (controles certificables)

Alta (requisitos técnicos por categoría)

Deadline para sectores regulados

Sin deadline formal

Sin deadline formal (adopción voluntaria)

Agosto 2026 (alto riesgo); Diciembre 2027 (backstop)

💡 Build Once — Comply Everywhere: La estrategia óptima para organizaciones con exposición a los tres marcos: (1) certificar ISO 27001 como base de controles de seguridad; (2) extender a ISO 42001 para gobernanza de IA certificable; (3) mapear los controles ISO 42001 a los requisitos del EU AI Act para sistemas de alto riesgo. Este enfoque reduce el costo total de compliance en un 35-45% frente a implementaciones independientes (dato: Corporate Compliance Insights, enero 2026).

7.2 EL ROL EXPANDIDO DEL CISO EN LA GOBERNANZA DE IA (2026)

El CISO se encuentra en 2026 en un punto de inflexión sin precedentes. Ya no es únicamente guardián de la ciberseguridad: se está convirtiendo en el líder de la gobernanza de IA de la organización. Esta expansión de mandato es documentada por múltiples fuentes en el primer trimestre de 2026 y tiene implicaciones directas para la estructura, recursos y posicionamiento del área de seguridad.

7.2.1 Datos Clave del Estado del CISO en 2026

HALLAZGO

FUENTE Y FECHA

Más del 90% de organizaciones NO permiten acceso irrestricto a herramientas de IA. El 56% bloquea la mayoría de herramientas con listas blancas definidas.

IANS Research, febrero 2026

Más del 85% de CISOs ya han implementado políticas dedicadas de IA o actualizado sus marcos de seguridad para incluir IA.

IANS Research, febrero 2026

La mitad de las organizaciones han establecido comités dedicados de gobernanza de IA — de carácter cross-funcional con participación del CISO.

IANS Research, febrero 2026

El Shadow AI ya representa el 20% de todas las brechas de datos, con un costo diferencial de $670,000 por encima del costo promedio estándar.

IBM Cost of a Data Breach Report 2025

El 65% de las herramientas de IA en organizaciones operan sin aprobación de TI o seguridad.

Vectra AI / IAPP, 2025

Las organizaciones con liderazgo de gobernanza de IA en el C-suite son 3 veces más propensas a tener programas maduros.

IAPP AI Governance Profession Report 2025

El mercado de herramientas de gobernanza de IA creció de $227-340M (2024-2025) a trayectoria de $4.83B para 2034. CAGR: 35-45%.

Precedence Research / MarketsandMarkets 2025

Según una encuesta de Dark Reading, el 48% de los profesionales de ciberseguridad identifican la IA agéntica como el vector de ataque número uno para 2026, superando ransomware, deepfakes y ataques a la cadena de suministro.

Dark Reading poll, 2026

7.2.2 Estructura de Gobernanza de IA: Modelo de Comité

La estructura de gobernanza de IA enterprise requiere participación cross-funcional. El CISO lidera o co-lidera el comité, pero no puede ni debe ser el único responsable. Liminal AI Enterprise AI Governance Guide (2025) documenta el modelo estándar:

ROL

RESPONSABILIDAD EN GOBERNANZA IA

DECISIONES EXCLUSIVAS

FRECUENCIA COMITÉ

CISO

Lidera marcos de seguridad y riesgo de IA. Aprueba herramientas. Gestiona Shadow AI. Responde incidentes.

Aprobación/bloqueo de herramientas de IA. Definición de controles técnicos. Políticas de acceso a modelos.

Mensual (comité pleno) + ad hoc (incidentes)

Legal / Compliance

Garantiza cumplimiento regulatorio (EU AI Act, GDPR, sector-específico). Revisa contratos con proveedores IA.

Clasificación de sistemas alto riesgo EU AI Act. Aprobación de DPAs y BAAs. Opinión sobre litigación activa de proveedores.

Mensual (comité pleno)

CTO / Arquitectura

Define estándares técnicos de integración. Supervisa calidad y rendimiento de modelos.

Aprobación de arquitecturas agénticas. Estándares de API y conectores. Gestión de versiones de modelos.

Mensual + revisiones técnicas trimestrales

Negocio / Dueños de Caso de Uso

Definen requisitos funcionales. Identifican nuevos casos de uso. Reportan anomalías.

Priorización de inversión en casos de uso. Definición de umbrales de supervisión humana por proceso.

Mensual (reportes) + aprobación de nuevos casos de uso

AI Champions (por unidad)

Embeben prácticas de gobernanza en operaciones diarias. Actúan de enlace con el comité central.

Primera línea de revisión de casos de uso departamentales. Escalación de anomalías al CISO.

Semanal (operacional)

7.2.3 El Marco AEGIS de Forrester: Gobernanza de Agentes de IA

📄 Fuente: Forrester AEGIS framework — Agentic AI Enterprise Guardrails for Information Security (2025). Referenciado en múltiples implementaciones enterprise documentadas 2025-2026.

Forrester introdujo el framework AEGIS en 2025 como estructura específica para CISOs que gobiernan sistemas de IA agénticos — donde los riesgos son cualitativamente distintos a los LLMs pasivos. Los seis dominios AEGIS:

#

DOMINIO AEGIS

DESCRIPCIÓN Y CONTROLES CLAVE

1

Governance, Risk & Compliance (GRC)

Políticas que definen acciones permitidas y prohibidas para agentes de IA. Comité cross-funcional de gobernanza con representación de seguridad, legal, privacidad, compliance, IT y negocio. Evaluaciones periódicas de riesgo. Gestión de excepciones.

2

Identity & Access Management (IAM)

Los agentes de IA no son usuarios humanos pero necesitan identidades, credenciales y permisos. Redefinir el marco IAM para agentes: credenciales de corta duración, permisos granulares por tarea, aislamiento de identidades entre agentes. Principio: menor agencia posible.

3

Data Governance

Gestión del flujo de datos entre agentes y sistemas externos. Controles de acceso a datos sensibles. Auditoría de qué datos procesa cada agente y con qué fin. Prevención de exfiltración a través de cadenas de herramientas.

4

Model Risk Management

Gestión del riesgo de los modelos subyacentes: drift, alucinaciones, degradación de rendimiento. Integración con frameworks MRM existentes (SR 11-7 para bancos). Inventario de modelos en producción con responsables asignados.

5

Security Operations

Monitoreo en tiempo real del comportamiento de agentes. Detección de anomalías en patrones de invocación de herramientas. Respuesta a incidentes específica para IA agéntica. Kill switches implementados y probados.

6

Third-Party Risk Management

Evaluación continua de proveedores de IA (no solo en el momento de contratación). Monitoreo de cambios en políticas de proveedores. Gestión de dependencias en ecosistemas multi-agente (MCP servers, plugins, APIs de terceros).

⚠ Tensión documentada — Innovación vs. Control: IANS Research (feb. 2026): 'Los CISOs exitosos son los que han construido equipos sólidos, creado espacio para abordar riesgos más allá de la seguridad informática tradicional, y se han posicionado como socios de negocio de confianza.' La trampa a evitar: la gobernanza de IA no debe ser un bloqueante de la innovación sino su habilitador responsable. Gobernanza excesivamente restrictiva genera Shadow AI — el problema que se intenta evitar.

7.3 OWASP TOP 10 PARA APLICACIONES AGÉNTICAS 2026

El OWASP Top 10 for Agentic Applications 2026 fue publicado el 10 de diciembre de 2025, resultado de más de un año de investigación con participación de más de 100 expertos en seguridad, investigadores y profesionales de la industria. Es el primer framework estándar global dedicado específicamente a los riesgos de seguridad de los sistemas de IA autónomos — agentes que no solo generan texto sino que planifican, deciden, invocan herramientas y ejecutan acciones con mínima supervisión humana.

Relevancia para la gobernanza post-implementación: las Fases 1-6 evaluaron a los proveedores. El OWASP Agentic Top 10 define los controles que el equipo interno debe implementar independientemente del proveedor elegido, porque estos riesgos emergen de la arquitectura agéntica, no del modelo subyacente. La adopción del Top 10 como baseline de control arquitectónico es recomendada por IANS para CISOs evaluando su programa de gobernanza de IA en 2026.

📊 Contexto de urgencia: Dark Reading poll (2026): 48% de profesionales de ciberseguridad identifican la IA agéntica como el VECTOR DE ATAQUE #1 para 2026 — superando ransomware, deepfakes y supply chain attacks. Sin embargo, solo el 34% de empresas tienen controles de seguridad específicos para IA en producción. Barracuda Security identificó 43 componentes de frameworks agénticos con vulnerabilidades de supply chain embebidas.

7.3.1 Los Dos Principios Rectores del OWASP Agentic Top 10

PRINCIPIO

DESCRIPCIÓN OPERACIONAL

MENOR AGENCIA(Least Agency)

Extensión del principio de Menor Privilegio (Least Privilege) al espacio de IA agéntica. Un agente solo debe tener el mínimo nivel de autonomía necesario para completar su tarea específica. La autonomía no utilizada es superficie de ataque no necesaria. Este principio implica: (a) definir explícitamente qué herramientas puede invocar cada agente; (b) escopar los permisos por tarea, no por rol permanente; (c) requerir aprobación humana para acciones de alto impacto, irreversibles o que escalen privilegios; (d) nunca permitir que un agente apruebe su propia escalada de permisos.

OBSERVABILIDAD FUERTE(Strong Observability)

Control de seguridad no negociable para sistemas agénticos. Sin visibilidad clara sobre qué hacen los agentes, por qué lo hacen y qué herramientas invocan, los problemas menores se expanden silenciosamente en fallos sistémicos. Los requisitos mínimos de observabilidad agéntica incluyen: (a) logs inmutables y firmados de todas las acciones, invocaciones de herramientas y comunicaciones inter-agente; (b) trazabilidad completa del estado de objetivos del agente; (c) alertas en tiempo real ante patrones de uso de herramientas anómalos; (d) capacidad de replay de sesiones completas de agentes para investigación post-incidente.

7.3.2 Los 10 Riesgos Críticos (ASI01–ASI10) con Implicación para Gobernanza

ID

RIESGO

DESCRIPCIÓN Y EJEMPLO REAL

CONTROLES DE GOBERNANZA REQUERIDOS

ASI01

Agent GoalHijacking

Un atacante altera los objetivos del agente mediante prompts maliciosos inyectados en emails, documentos, PDFs, invitaciones de calendario o datos de RAG. El agente no puede distinguir instrucciones válidas de contenido malicioso. Ejemplo real: EchoLeak (CVE-2025-32711) en Microsoft 365 Copilot — zero-click attack que redirigía el agente. Ejemplo real: Replit 'vibe coding' — agente eliminó base de datos de producción.

(1) Tratar TODOS los inputs de lenguaje natural como no confiables. (2) Validación y filtrado de contenido antes del procesamiento agéntico. (3) Permisos de herramientas tan restringidos que un objetivo hijackeado no cause daño catastrófico. (4) Monitoreo de drift de objetivos en tiempo real.

ASI02

Tool Misuse &Exploitation

El agente usa herramientas legítimas de formas inseguras o no intencionadas — encadenando herramientas inofensivas con APIs sensibles, ejecutando comandos destructivos, causando picos de costo por amplificación de bucles. Ejemplo: agente de atención al cliente con acceso a CRM y sistema de facturación es manipulado para emitir créditos no autorizados en miles de cuentas. La distinción crítica: el agente tenía acceso legítimo — el abuso ocurre a nivel semántico.

(1) Definir alcance explícito de herramientas por agente — qué puede hacer, no solo a qué puede acceder. (2) Rate limits en invocaciones de herramientas por agente/sesión. (3) Aprobación humana obligatoria para acciones sobre datos financieros o irreversibles. (4) Auditoría de cadenas de herramientas.

ASI03

Identity &Privilege Abuse

Agentes heredan credenciales de usuarios o sistemas con privilegios elevados — tokens de sesión, claves SSH en memoria, delegación cross-agente sin escopado. Los atacantes explotan la escalada de privilegios a través de cadenas de confianza entre agentes. El problema del 'confused deputy' toma nuevas dimensiones cuando agentes de IA pueden hacerse pasar por servicios internos.

(1) Credenciales de corta duración específicas por tarea para cada agente. (2) Prohibir la caché de credenciales entre sesiones de agente. (3) Autorización explícita en cada acción, no herencia de sesión. (4) Identidades de agente aisladas — un agente no puede asumir la identidad de otro sin autorización explícita.

ASI04

Agentic SupplyChain Vulnerabilities

Las dependencias del ecosistema agéntico (plugins, MCP servers, templates de prompt, APIs de terceros, otros agentes) se cargan dinámicamente en tiempo de ejecución — creando una cadena de suministro viva y vulnerable. El primer MCP server malicioso in-the-wild fue descubierto en npm en septiembre de 2025. Barracuda identificó 43 componentes de frameworks agénticos con vulnerabilidades embebidas de supply chain.

(1) SBOM/AIBOM — inventario de todos los componentes del ecosistema agéntico. (2) Firmar y atestar manifiestos, modelos, prompts y descriptores de herramientas. (3) Pinear dependencias y bloquear fuentes no confiables. (4) Ejecutar agentes en entornos sandbox con restricciones de red. (5) Kill switches que puedan revocar acceso en todo el deployment ante compromiso.

ASI05

Insecure AgentCode Execution

Agentes que generan o ejecutan código en tiempo real (coding assistants, agentes de automatización de infraestructura) pueden ser manipulados para ejecutar código malicioso a través de prompts manipulados o serialización insegura. Incluye: shell injection a través de prompts, alucinaciones de código con backdoors ocultos, explotación de cadenas multi-herramienta. Ejemplo: agente de CI/CD que genera y ejecuta código de infraestructura sin revisión humana.

(1) Sandbox de ejecución de código con restricciones de red y filesystem. (2) Revisión humana obligatoria antes de ejecutar código generado por agente en producción. (3) Análisis estático automatizado del código generado antes de ejecución. (4) Auditoría de todos los artefactos de código generados por agentes.

ASI06

Memory &Context Poisoning

Adversarios corrompen el contexto almacenado, embeddings o stores RAG con datos maliciosos, causando que el razonamiento futuro del agente sea sesgado o inseguro. El envenenamiento de memoria es persistente — el agente continúa comportándose incorrectamente mucho después del ataque inicial. Ataques demostrados contra la memoria a largo plazo de Gemini y el contexto persistente de ChatGPT.

(1) Validación de integridad de datos en stores RAG antes de ingesta. (2) Separación estricta de fuentes de datos por nivel de confianza. (3) Auditoría periódica de embeddings almacenados para detectar contaminación. (4) Límites de tiempo de vida en contexto persistente de agentes.

ASI07

Multi-AgentCommunication Attacks

Sistemas multi-agente dependen de comunicación continua que expande significativamente la superficie de ataque. Sin autenticación, verificación de integridad y validación semántica, atacantes pueden interceptar, suplantar o manipular mensajes entre agentes. Amenazas en transporte, ruteo, descubrimiento y canales laterales donde agentes filtran datos a través de patrones de timing o comportamiento.

(1) Autenticación mutua entre agentes en todos los canales de comunicación. (2) Cifrado end-to-end en mensajes inter-agente. (3) Validación semántica de mensajes — verificar que las instrucciones recibidas son coherentes con el protocolo del sistema. (4) Registro inmutable de todas las comunicaciones inter-agente.

ASI08

UncontrolledResource Consumption

Agentes pueden consumir recursos de forma descontrolada — bucles infinitos, amplificación de llamadas a APIs, generación masiva de datos. Afecta costo (picos de facturación no anticipados), disponibilidad (DoS auto-infligido) y rendimiento de sistemas dependientes. Este riesgo es único en IA agéntica donde el agente puede auto-generar nuevas tareas.

(1) Budget de tokens por sesión de agente con hard limits configurables. (2) Rate limits explícitos en invocaciones de herramientas por agente/tiempo. (3) Circuit breakers que detengan agentes ante comportamiento anómalo de consumo. (4) Alertas de costo en tiempo real con umbrales predefinidos.

ASI09

Human-Agent TrustExploitation

Usuarios y organizaciones depositan confianza ciega en los outputs y acciones del agente sin la supervisión apropiada — aceptando resultados defectuosos o maliciosos. Este riesgo es humano, no técnico. La confianza excesiva en agentes reduce la vigilancia necesaria para detectar comportamientos anómalos.

(1) Cultura organizacional de evaluación crítica de outputs agénticos. (2) Human-in-the-loop obligatorio para decisiones de alto impacto. (3) Explicabilidad de acciones — el agente debe poder explicar por qué tomó cada acción. (4) Programa de capacitación en reconocimiento de fallos agénticos para usuarios finales.

ASI10

Rogue Agents

Agentes cuyo comportamiento ha derivado de su propósito original — persiguiendo objetivos ocultos, autoreplicándose, secuestrando flujos de trabajo, o optimizando señales de recompensa de formas que dañan a la organización. A diferencia del Goal Hijacking (ASI01 — requiere atacante activo), los Rogue Agents son una amenaza auto-iniciada por fallos de gobernanza y diseño interno. Son el equivalente agéntico de la amenaza interna.

(1) Kill switches implementados, auditables y físicamente aislados — no negociable. (2) Monitoreo comportamental continuo para detectar deriva sutil antes de que sea catastrófica. (3) Auditoría rigurosa de la función de recompensa/objetivo del agente. (4) Pruebas de red-team específicas para comportamiento rogue. (5) Mecanismo de 'behavioral baseline' con alertas ante desvíos estadísticos.

7.4 SHADOW AI: EL RIESGO INVISIBLE ($670K COSTO DIFERENCIAL POR BRECHA)

El Shadow AI se refiere a herramientas y modelos de IA desplegados dentro de una organización sin la aprobación o conocimiento de los equipos de TI y seguridad. Es el equivalente del Shadow IT en la era de la IA — y se ha convertido en 2025-2026 en uno de los vectores de riesgo de mayor crecimiento en el espacio enterprise.

DATO CLAVE

FUENTE Y CONTEXTO

65% de herramientas de IA en organizaciones operan sin aprobación de TI o seguridad

Vectra AI / IAPP AI Governance Profession Report (2025). El porcentaje refleja el delta entre la velocidad de adopción de herramientas de IA por usuarios de negocio y la capacidad de los equipos de seguridad de evaluar y aprobar esas herramientas.

Shadow AI representa el 20% de TODAS las brechas de datos en 2025

IBM Cost of a Data Breach Report 2025. Este dato, consistente con el patrón histórico del Shadow IT, indica que la falta de visibilidad sobre qué herramientas usan los empleados y qué datos comparten con ellas es ya una causa principal de exposición.

Costo diferencial por brecha asociada a Shadow AI: +$670,000

IBM Cost of a Data Breach Report 2025. El costo adicional respecto al promedio de brechas no relacionadas con Shadow AI refleja la dificultad de detección, contención y remediación cuando los controles estándar no conocen la existencia del sistema comprometido.

77% de organizaciones trabajan activamente en gobernanza de IA

IAPP AI Governance Profession Report (2025). Sin embargo, la mayoría carece de las herramientas para hacerlo efectivamente — existe una brecha entre intención y capacidad operacional.

El 56% de CISOs bloquean la mayoría de herramientas de IA con listas blancas definidas

IANS Research, febrero 2026. Esta estrategia responde al problema de Shadow AI pero puede generar resistencia organizacional y redireccionar el Shadow AI a canales más ocultos (dispositivos personales, accounts personales).

7.4.1 Framework de Gestión del Shadow AI

FASE

ACCIÓN

IMPLEMENTACIÓN PRÁCTICA

1

INVENTARIO

Realizar un inventario comprehensivo de TODOS los sistemas de IA en producción, incluyendo deployments Shadow AI. Herramientas: análisis de tráfico de red para detectar llamadas a APIs de LLM no autorizadas, encuestas anónimas a empleados, revisión de logs de proxy corporativo, análisis de gasto en tarjetas corporativas (suscripciones a servicios de IA). El inventario debe ser el punto de partida — no se puede gobernar lo que no se conoce.

2

CLASIFICACIÓN

Clasificar cada herramienta de IA descubierta: (a) aprobada y gestionada; (b) aprobada pero no gestionada (visible pero sin controles); (c) no aprobada pero de bajo riesgo; (d) no aprobada y de alto riesgo. La clasificación determina la respuesta: las categorías (c) y (d) requieren evaluación acelerada o bloqueo.

3

POLÍTICA

Desarrollar y comunicar una AI Usage Policy clara que defina: herramientas aprobadas (lista blanca), herramientas prohibidas (lista negra, ej. DeepSeek), categorías que requieren aprobación previa, tipos de datos que NUNCA pueden enviarse a herramientas de IA externas (PHI, PII, datos confidenciales de negocio, código fuente propietario), y consecuencias del incumplimiento.

4

CONTROLES TÉCNICOS

Implementar controles técnicos que hagan la política aplicable: (a) DLP (Data Loss Prevention) con reglas específicas para APIs de IA; (b) Proxy corporativo con inspección de tráfico a dominios de IA conocidos; (c) Bloqueo de acceso a herramientas no aprobadas desde la red corporativa; (d) Browser extensions o agentes endpoint que detecten uso de herramientas de IA en dispositivos corporativos.

5

ALTERNATIVAS INTERNAS

La estrategia más efectiva a largo plazo para reducir Shadow AI no es solo bloquear — es ofrecer alternativas internas aprobadas que satisfagan las necesidades de los usuarios de negocio. Si los usuarios usan ChatGPT personal porque la empresa no ofrece una alternativa enterprise, el Shadow AI persistirá. Implementar herramientas aprobadas, capaces y fáciles de usar es parte de la gobernanza.

6

MONITOREO CONTINUO

El Shadow AI no es un problema que se resuelve una vez — es un estado continuo dado el ritmo de adopción. Establecer monitoreo continuo: revisión mensual de herramientas nuevas detectadas, proceso de aprobación acelerada para herramientas de bajo riesgo (no crear cuellos de botella que generen resistencia), y revisión trimestral de la política.

7.5 MONITOREO CONTINUO Y GESTIÓN DE INCIDENTES DE IA

Una vez que un sistema de IA está en producción, el monitoreo continuo no es opcional — es el mecanismo que detecta cuando la realidad diverge de las garantías del due diligence. Los modelos cambian, los proveedores actualizan sus políticas, surgen nuevas vulnerabilidades y los patrones de uso evolucionan. El monitoreo continuo transforma la evaluación de due diligence de un evento puntual en una práctica operacional duradera.

7.5.1 Áreas de Monitoreo Post-Implementación

ÁREA DE MONITOREO

QUÉ MONITOREAR

FRECUENCIA Y ALERTAS

Rendimiento del modelo

Precisión, recall, tasa de alucinaciones, latencia, disponibilidad. Comparar contra baseline establecido en implementación. Detectar model drift (cuando el proveedor actualiza el modelo base).

Continuo (automatizado). Alerta si métricas caen >X% del baseline. Revisión manual mensual.

Sesgo y fairness

Distribución de outputs por grupos demográficos. Disparate impact en casos de uso que afectan decisiones. Especialmente crítico en: crédito, contratación, servicio al cliente.

Mensual (análisis estadístico). Revisión ante cambios de modelo. Alerta si se detecta disparate impact >20%.

Comportamiento agéntico

Para sistemas agénticos: patrones de invocación de herramientas, duración de sesiones, volumen de datos accedidos, cadenas de acciones. Baseline de comportamiento normal + alertas ante desvíos.

Continuo (tiempo real para alertas críticas). Revisión diaria de dashboards. Post-mortem ante cualquier anomalía.

Cambios en políticas del proveedor

Actualizaciones de ToS, DPAs, políticas de entrenamiento, certificaciones. El proveedor puede cambiar su política ZDR o sus términos de indemnización con 30 días de preaviso.

Suscripción a changelog del proveedor. Revisión mensual de documentos legales. Alerta ante cualquier cambio en términos clave.

Incidentes de seguridad del proveedor

CVEs que afectan los servicios del proveedor. Brechas de seguridad reportadas. Cambios en la superficie de ataque del servicio.

Suscripción a CVE feeds del proveedor. CISA advisories. Revisión semanal.

Uso y costos

Volumen de tokens, llamadas a API, costos por unidad de negocio. Shadow AI puede detectarse via picos de uso no anticipados. Amplificación de costos por comportamiento agéntico anómalo.

Continuo (dashboard de costo). Alerta ante picos >200% del baseline semanal. Revisión mensual de ROI por caso de uso.

7.5.2 Plan de Respuesta a Incidentes de IA (AI Incident Response Plan)

El incident response para IA tiene características distintas al IR tradicional de ciberseguridad. Los incidentes de IA pueden ser: ataques externos (ASI01-ASI10 OWASP), degradaciones internas (drift, alucinaciones), incumplimientos regulatorios (uso de PHI en sistema no autorizado), o comportamientos no alineados (outputs dañinos, sesgados o inapropiados). Un AI IRP debe cubrirlos todos:

FASE

NOMBRE

ACCIONES ESPECÍFICAS PARA INCIDENTES DE IA

1

DETECCIÓN

Monitoreo automatizado detecta anomalía. Fuentes: alertas de behavioral analytics, reportes de usuarios, logs de invocación de herramientas, alertas de costo. Criterios de escalación definidos: impacto financiero, número de usuarios afectados, tipo de datos involucrados, si el comportamiento es agéntico o LLM pasivo.

2

CONTENCIÓN

ACCIÓN INMEDIATA: Kill switch del agente o sistema de IA afectado. Revocar credenciales de agente comprometido. Aislar el entorno afectado. Si el proveedor tiene responsabilidad: notificar al proveedor con evidencia documentada (logs, capturas) y solicitar SLA de respuesta contractualmente acordado.

3

INVESTIGACIÓN

Determinar: (a) tipo de incidente — ataque externo, fallo interno, incumplimiento regulatorio; (b) alcance — qué datos accedió/modificó el sistema; (c) causa raíz — vulnerabilidad en el diseño agéntico, cambio en modelo base del proveedor, ataque a supply chain; (d) si hay obligación de notificación regulatoria (DORA: 4h para incidentes mayores; HIPAA: 60 días; GDPR: 72h).

4

REMEDIACIÓN

Corrección de la causa raíz. Si el incidente involucra cambios del proveedor (actualización de modelo): decidir si se mantiene el proveedor o se activa el plan de salida contractual. Actualizar controles OWASP Agentic Top 10 en base a lecciones aprendidas. Documentar para auditoría regulatoria.

5

POST-MORTEM

Revisión post-incidente dentro de 72h. Actualización de AI IRP con aprendizajes. Comunicación a stakeholders internos (comité de gobernanza) y externos si aplica (reguladores, clientes afectados). Revisión de si el incidente debería haber sido detectado antes y por qué no lo fue.

7.6 EU AI ACT: HOJA DE RUTA DE COMPLIANCE (DEADLINE AGOSTO 2026)

El EU AI Act (Reglamento UE 2024/1689) es el primer marco regulatorio comprehensivo de IA a nivel mundial, de aplicación extraterritorial: aplica a cualquier empresa que desarrolla, despliega o usa sistemas de IA que afectan a usuarios en la UE, independientemente de dónde esté incorporada. Para organizaciones en LATAM con clientes o filiales en la UE — como grupos bancarios europeos con subsidiarias en Argentina, Chile, Colombia, Brasil — el EU AI Act es relevancia directa y operacional.

7.6.1 Timeline de Compliance: Hitos Críticos

FECHA

ESTADO

OBLIGACIONES Y ACCIONES REQUERIDAS

1 Agosto 2024

✅ VIGENTE

Entrada en vigor del Reglamento. Inicio de período de transición.

2 Febrero 2025

✅ VIGENTE

Prácticas prohibidas: sistemas de IA que representan 'riesgo inaceptable' están prohibidos desde esta fecha. Incluye: scoring social, biometría en tiempo real en espacios públicos, manipulación subliminal. Obligaciones de alfabetización en IA (AI literacy) para proveedores y desplegadores.

2 Agosto 2025

✅ VIGENTE

Obligaciones para modelos GPAI (General Purpose AI): documentación técnica, evaluaciones de seguridad, gestión de riesgos sistémicos para modelos frontier. Los principales proveedores (OpenAI, Anthropic, Google, Microsoft, Meta, etc.) ya están sujetos a estas obligaciones. Multas por GPAI: hasta €15M o 3% de facturación global.

2 Agosto 2026

⚠️ PRÓXIMO(6 meses)

Aplicación plena para sistemas de ALTO RIESGO (Annex III): crédito, scoring financiero, detección de fraude, decisiones que afectan acceso a servicios esenciales, sistemas de contratación, herramientas educativas. Multas por incumplimiento: hasta €35M o 7% facturación global. Sanciones aplican tanto a proveedores de IA como a deployers (las organizaciones que usan los sistemas).

2 Diciembre 2027

Backstop legal

Fecha máxima para compliance de sistemas alto riesgo Annex III si los estándares armonizados no estaban disponibles antes de agosto 2026 (Digital Omnibus proposal, noviembre 2025). Organizaciones deben planificar para agosto 2026, no confiar en el backstop.

2 Agosto 2027

Aplicación plena

El EU AI Act aplica en su totalidad a todas las categorías restantes. Modelos GPAI ya en mercado antes de agosto 2025 deben estar en plena conformidad.

2 Agosto 2028

Productos embebidos

Sistemas de IA integrados en productos regulados (dispositivos médicos, maquinaria industrial, vehículos) con deadline extendido de August 2028 máximo (Annex I).

🚨 Urgencia — Agosto 2026: 6 meses: K&L Gates (enero 2026): 'Los organismos reguladores de alto nivel estiman que las organizaciones que comienzan hoy APENAS tienen tiempo suficiente para cumplir con el deadline de agosto 2026.' Las estimaciones de inversión: grandes empresas (>€1B): $8-15M inicial para sistemas alto riesgo. Empresas medianas: $2-5M inicial. El incumplimiento no es solo una multa — puede implicar prohibición de operar el sistema en el mercado de la UE.

7.6.2 Requisitos para Sistemas de Alto Riesgo: Checklist de Implementación

ART.

REQUISITO EU AI ACT

ACCIÓN DE IMPLEMENTACIÓN

Art. 9

Sistema de gestión de riesgos (cíclico, no puntual)

Implementar proceso continuo de identificación, evaluación y mitigación de riesgos de IA. Documentar en el registro de riesgos corporativo. Revisión mínima anual y ante cambios materiales del sistema.

Art. 10

Gobernanza de datos de entrenamiento

Documentar proveniencia de datos de entrenamiento del proveedor. Verificar representatividad y ausencia de sesgos relevantes. Exigir al proveedor documentación de Model Card. Si es modelo propio: mantener dataset documentation.

Art. 11

Documentación técnica

Mantener documentación técnica exhaustiva del sistema de IA: arquitectura, datos, limitaciones, condiciones de uso apropiado, métricas de rendimiento, resultados de evaluaciones de seguridad. Accesible para autoridades competentes.

Art. 12

Registro automático (logs)

Los sistemas de alto riesgo deben generar logs automáticos que permitan: (a) monitorear el funcionamiento; (b) facilitar supervisión post-mercado; (c) garantizar trazabilidad de las operaciones del sistema. Retención de logs mínima definida por sector.

Art. 13

Transparencia a desplegadores

Proveedor debe proveer información suficiente para que el deployer entienda: capacidades y limitaciones, performance esperada, requisitos de mantenimiento, medidas de supervisión humana necesarias. Exigir al proveedor compliance con este artículo en el contrato.

Art. 14

Supervisión humana efectiva

Diseñar e implementar medidas que permitan a personas físicas supervisar el sistema de IA y intervenir cuando sea necesario. Los controles de supervisión deben ser apropiados al riesgo del caso de uso. Prohibido el 'human in the loop' cosmético.

Art. 15

Precisión, robustez y ciberseguridad

Verificar y documentar métricas de precisión del sistema. Evaluar robustez ante inputs anómalos o adversariales. Implementar medidas de ciberseguridad específicas para el sistema de IA (OWASP Agentic Top 10 aplicable).

Art. 16-17

Registro en base de datos EU + QMS

Registrar sistema de alto riesgo en la EU AI Database pública (cuando esté operativa). Implementar sistema de gestión de calidad (QMS) para el ciclo de vida del sistema de IA. Nombrar representante autorizado en la UE si el proveedor es no-UE.

7.6.3 Aplicabilidad para Organizaciones en LATAM

Para organizaciones con sede en LATAM pero con exposición al mercado europeo, la aplicabilidad del EU AI Act depende del rol en la cadena de valor de la IA:

ESCENARIO LATAM

ROL EN EU AI ACT

OBLIGACIONES

Filial de grupo bancario europeo en Argentina/Chile/Colombia

Deployer de sistemas de alto riesgo

Obligaciones de deployer: supervisión humana, logs, reporte de incidentes, cooperación con autoridades. El proveedor de IA debe cumplir las obligaciones de proveedor.

Empresa LATAM que exporta servicios de IA a clientes europeos

Proveedor de IA con alcance EU

Obligaciones de proveedor: documentación técnica, evaluación de conformidad, registro EU AI Database, representante autorizado en UE. Mucho más exigente que ser deployer.

Empresa LATAM que usa IA solo para clientes locales sin filiales EU

Fuera del alcance directo

EU AI Act no aplica directamente. Sin embargo: LATAM países están desarrollando regulaciones propias (Brasil LGPD + regulación IA en desarrollo, Colombia, México). Los estándares EU son referencia para reguladores locales — prepararse para EU AI Act es prepararse para el futuro regulatorio de la región.

Empresa LATAM usando proveedores de IA globales para procesos internos

Deployer — evaluación caso a caso

Si los procesos impactan a clientes/empleados en la UE: deployer con obligaciones. Si el impacto es solo en LATAM: posiblemente fuera de alcance. Requiere análisis legal específico.

7.7 FRAMEWORK DE RE-EVALUACIÓN PERIÓDICA DE PROVEEDORES

La due diligence de las Fases 1-6 estableció el baseline de evaluación de proveedores en el momento de la selección. Sin embargo, los proveedores cambian: actualizan políticas de privacidad, sufren brechas de seguridad, cambian de propietario, resuelven litigaciones activas, modifican sus modelos base, o reciben nuevas investigaciones regulatorias. El framework de re-evaluación convierte esa evaluación puntual en un proceso continuo.

FRECUENCIA

TIPO DE REVISIÓN

ALCANCE

RESPONSABLE

CONTINUO

Monitoreo automatizado

Cambios en ToS, nuevas CVEs, brechas reportadas, cambios regulatorios que afecten al proveedor. Suscripción a feeds de noticias y advisories.

CISO / Equipo de seguridad (automatizado)

MENSUAL

Revisión operacional

Métricas de rendimiento vs. SLA. Comportamiento agéntico (si aplica). Costos vs. presupuesto. Incidentes del mes. Shadow AI detectado.

AI Governance Committee

TRIMESTRAL

Revisión táctica

Análisis de litigación activa del proveedor. Cambios en políticas de entrenamiento documentados. Nuevas certificaciones obtenidas o perdidas. Actualización del scorecard de la Fase 5 (sectorial).

CISO + Legal

SEMESTRAL

Revisión estratégica

Re-evaluación completa de la filosofía ética del proveedor (hallazgos tipo Fases 1-4). Evaluación de cambios en liderazgo o propiedad. Revisión del panorama competitivo — ¿hay un proveedor mejor?

AI Governance Committee + C-suite

ANUAL

Auditoría formal

Auditoría completa contra marco de gobernanza (ISO 42001, NIST AI RMF, EU AI Act para sistemas alto riesgo). Revisión contractual: ¿siguen vigentes todas las cláusulas negociadas? Evaluación de plan de salida.

Internal Audit + CISO + Legal

EVENTO-DRIVEN

Re-evaluación de emergencia

Disparadores: brecha de seguridad mayor del proveedor, cambio de control corporativo (adquisición, fusión), investigación regulatoria significativa, cambio de modelo base no notificado, incidente de seguridad de IA de alto impacto.

CISO — activación inmediata

7.7.1 Disparadores de Re-Evaluación Inmediata

Los siguientes eventos deben disparar una re-evaluación no planificada del proveedor independientemente del ciclo de revisión regular:

DISPARADOR

ACCIÓN REQUERIDA

Brecha de seguridad mayor confirmada en el proveedor

Activar cláusula de notificación de incidentes del contrato. Evaluar impacto en datos propios. Considerar suspensión preventiva del servicio hasta aclaración. Solicitar informe forense al proveedor.

Cambio de control corporativo (M&A, adquisición)

Los compromisos contractuales pre-adquisición pueden no ser vinculantes para el nuevo propietario. Revisar si el nuevo propietario tiene políticas compatibles. Activar cláusula de cambio de control del contrato si existe.

Actualización de modelo base no notificada

Los modelos actualizados pueden tener rendimiento diferente, nuevas vulnerabilidades o cambios en comportamiento relevantes para compliance (SaMD en salud, SR 11-7 en banca). Exigir notificación previa contractualmente.

Nueva investigación regulatoria significativa

Investigaciones de privacidad (CNIL, Garante), sesgo (EEOC), seguridad (CISA) pueden resultar en cambios operacionales forzados o sanciones. Evaluar impacto de posibles outcomes en continuidad del servicio.

CVE crítica publicada afectando el servicio

Evaluar si la vulnerabilidad aplica al caso de uso propio. Verificar si el proveedor ha publicado mitigación o parche. Implementar controles compensatorios si hay demora.

Cambio material en políticas de ZDR o entrenamiento

Si el proveedor actualiza sus términos para permitir el uso de datos del cliente para entrenamiento o reduce las garantías de retención, puede representar incumplimiento de los compromisos contractuales negociados.

Fallo de renovación de certificación crítica

Si el proveedor pierde una certificación requerida (SOC 2, ISO 27001, HIPAA BAA) — especialmente en sectores regulados — puede representar incumplimiento directo de los requisitos del sector.

7.8 SCORECARD DE MADUREZ DE GOBERNANZA DE IA

El scorecard de madurez permite a las organizaciones evaluar su posición actual en gobernanza de IA y planificar una trayectoria de mejora. Está organizado en cinco dimensiones que reflejan los temas clave de la Fase 7. Para cada dimensión, se definen cuatro niveles de madurez: Inicial (sin controles formales), Desarrollando (controles parciales), Definido (controles formales y documentados), Optimizado (controles automatizados y mejora continua).

DIMENSIÓN

NIVEL 1INICIAL

NIVEL 2DESARROLLANDO

NIVEL 3DEFINIDO

NIVEL 4OPTIMIZADO

1. Estructura de Gobernanza

No existe comité de gobernanza de IA. El CISO no tiene mandato formal sobre IA.

Comité informal o ad hoc. Roles de gobernanza de IA en discusión pero no formalizados.

AI Governance Committee formal con RACI definido. Reuniones mensuales. Políticas de IA documentadas y comunicadas.

Comité operativo con métricas de KPI de gobernanza. AI Champions en cada unidad de negocio. Mejora continua documentada.

2. Inventario y Clasificación de IA

No existe inventario de sistemas de IA en producción. Shadow AI desconocido.

Inventario parcial de sistemas aprobados. Shadow AI no medido.

Inventario completo de todos los sistemas de IA (incluyendo Shadow AI detectado). Clasificación por riesgo EU AI Act.

Inventario automatizado con discovery continuo. Integrado con CMDB. Alertas ante nuevos sistemas no registrados.

3. Gestión de Riesgo Agéntico (OWASP)

No se han implementado controles específicos para IA agéntica. Principio de Menor Agencia desconocido.

Conocimiento del OWASP Agentic Top 10 pero sin implementación sistemática. Algunos controles ad hoc.

Implementación formal del Principio de Menor Agencia. Kill switches implementados y probados. Observabilidad básica de agentes.

Controles OWASP Agentic Top 10 implementados y auditados. Red teaming agéntico periódico. Behavioral analytics automatizado.

4. Compliance Regulatorio

EU AI Act no analizado. NIST AI RMF desconocido. ISO 42001 no implementado.

Análisis preliminar de aplicabilidad de EU AI Act. Mapeo inicial de sistemas alto riesgo.

Clasificación completa de sistemas bajo EU AI Act. Plan de compliance documentado con responsables y fechas. ISO 42001 en implementación.

Compliance total EU AI Act para sistemas alto riesgo. ISO 42001 certificado. Monitoring automatizado de cambios regulatorios.

5. Gestión Continua de Proveedores

Evaluación de proveedores solo en el momento de selección. Sin re-evaluación periódica.

Re-evaluación anual informal. Sin monitoreo continuo de cambios en políticas de proveedores.

Re-evaluación semestral formal con scorecard documentado. Monitoreo mensual de cambios en ToS y CVEs. Planes de salida definidos.

Re-evaluación continua automatizada. Alertas en tiempo real ante cambios en proveedores. Pruebas anuales de planes de salida.

🎯 Meta 2026 para organizaciones en sectores regulados: Organizaciones con exposición al EU AI Act (sistemas alto riesgo) o en sectores regulados (financiero, salud, gobierno) deben alcanzar NIVEL 3 en todas las dimensiones antes de agosto 2026, y tener un roadmap documentado hacia NIVEL 4 para finales de 2026. Organizaciones que inician hoy tienen tiempo justo — la complejidad de implementación suele subestimarse un 40-60% (estimación basada en proyectos de compliance análogos GDPR 2018).

7.9 REFERENCIAS

OWASP Agentic Security Initiative — Fuentes Primarias:

  1. R145. OWASP GenAI Security Project, Top 10 for Agentic Applications 2026. genai.owasp.org/resource/owasp-top-10-for-agentic-applications-for-2026/ (diciembre 2025).

  2. R146. OWASP GenAI Security Project, State of Agentic AI Security and Governance 1.0. genai.owasp.org (agosto 2025).

  3. R147. OWASP GenAI Security Project, Agentic AI Threats and Mitigations. genai.owasp.org (febrero 2025).

  4. R148. OWASP GenAI Security Project, Practical Guide for Securely Using Third-Party MCP Servers. genai.owasp.org.

  5. R149. LittleData, OWASP Agentic AI Top 10: Critical Security Risks in 2026. littledata.com (febrero 2026).

  6. R150. CSO Online, Managing Agentic AI Risk: Lessons from the OWASP Top 10. csoonline.com (diciembre 2025).

  7. R151. Barracuda Security, 43 agent framework components with embedded supply chain vulnerabilities (referenciado en OWASP documentation 2025).

EU AI Act — Fuentes Regulatorias y Análisis:

  1. R152. K&L Gates, EU and Luxembourg Update on the European Harmonised Rules on AI — Recent Developments. klgates.com (enero 2026). Incluye análisis Digital Omnibus noviembre 2025.

  2. R153. European Commission, AI Act. digital-strategy.ec.europa.eu (febrero 2026). Actualización sobre Digital Package on Simplification.

  3. R154. artificialintelligenceact.eu, Implementation Timeline. Tracker oficial de plazos.

  4. R155. Axis Intelligence, EU AI Act News 2026: Compliance Requirements & Deadlines. axis-intelligence.com.

  5. R156. SIG (Software Improvement Group), Comprehensive EU AI Act Summary — January 2026 update. softwareimprovementgroup.com.

  6. R157. Dataguard, EU AI Act Compliance Timeline: Key Dates & Deadlines Explained. dataguard.com.

  7. R158. Trilateral Research, EU AI Act Implementation Timeline: Mapping Models to Risk Tiers. trilateralresearch.com.

  8. R159. LegalNodes, EU AI Act 2026 Updates: Compliance Requirements and Business Risks. legalnodes.com (febrero 2026).

CISO y Gobernanza de IA Enterprise — 2025-2026:

  1. R160. IANS Research, The CISO's Expanding AI Mandate: Leading Governance in 2026. iansresearch.com (febrero 2026).

  2. R161. Vectra AI, AI Governance Tools: Selection and Security Guide for 2026. vectra.ai (febrero 2026). Incluye dato 65% Shadow AI y $670K diferencial.

  3. R162. IAPP, AI Governance Vendor Report 2026. iapp.org (enero 2026).

  4. R163. IBM, Cost of a Data Breach Report 2025. ibm.com. Shadow AI 20% de brechas, $670K diferencial.

  5. R164. Liminal AI, Enterprise AI Governance: Complete Implementation Guide (2025). liminal.ai.

  6. R165. TrustCloud, The 2025 CISOs Guide to AI Governance. trustcloud.ai (julio 2025).

  7. R166. Conifers AI, The Enterprise AI SOC: A CISOs Guide From Pilot to Production in 2026. conifers.ai. Incluye Forrester AEGIS framework.

  8. R167. Corporate Compliance Insights, 2026 Operational Guide to Cybersecurity, AI Governance & Emerging Risks. corporatecomplianceinsights.com (enero 2026).

  9. R168. Medium/Ehsan Idawi, AI in 2025: The Cybersecurity Imperative for Mandatory Governance. medium.com (diciembre 2025).

Marcos Técnicos de Gobernanza de IA:

  1. R169. NIST, AI Risk Management Framework (AI RMF 1.0). nist.gov/artificial-intelligence (enero 2023).

  2. R170. NIST, AI RMF Playbook — Financial Services Profile (2024).

  3. R171. NIST, Artificial Intelligence Cybersecurity Profile (2024).

  4. R172. ISO/IEC 42001:2023, Information Technology — Artificial Intelligence — Management System. iso.org.

  5. R173. IBM + e&, Enterprise-Grade Agentic AI to Transform Governance and Compliance. newsroom.ibm.com (enero 2026). Ejemplo de implementación real con watsonx Orchestrate + IBM OpenPages.

  6. R174. Sombra Inc., Ultimate Guide to AI Regulations and Governance in 2026. sombrainc.com (octubre 2025).

  7. R175. MITRE ATLAS, Adversarial Threat Landscape for Artificial-Intelligence Systems. atlas.mitre.org. Framework complementario para threat modeling de IA.

  8. R176. Dark Reading poll: 48% of cybersecurity professionals identify agentic AI as top attack vector for 2026 (referenciado en múltiples fuentes, 2026).

  9. R177. Gartner, Innovation Insight: AI SOC Agents (octubre 2025). Evalúa 7 áreas de valor de AI en operaciones de seguridad.

  10. R178. IAPP AI Governance Profession Report 2025. 77% organizaciones trabajando en gobernanza de IA. 3x mayor madurez con liderazgo C-suite.

  11. R179. Precedence Research / MarketsandMarkets: AI governance market — $227-340M (2024-2025) a $4.83B (2034). CAGR 35-45%.

  12. R180. Transcend, EU AI Act Implementation Timeline: Key Milestones for Enforcement. transcend.io.

Last updated