checkF18 - 18.0 INTRODUCCIÓN: DE LA ÉTICA DECLARATIVA A LA GOBERNANZA CERTIFICABLE

§18.0 Introducción — La transición de ética declarativa a gobernanza certificable: tres razones convergentes que la hacen inevitable en 2026 (reguladores, stakeholders internos, frameworks maduros disponibles). Tabla comparativa de 6 dimensiones: política vs. sistema, accountability difusa vs. roles documentados, risk register genérico vs. AI-specific, evidencia declarativa vs. trazable.

§18.1 ISO/IEC 42001:2023 — Las 10 cláusulas detalladas con relevancia específica para el CISO: desde Scope (qué significa ser AI deployer vs. AI provider) hasta la Cláusula 10 (PDCA que diferencia el AIMS de una implementación puntual). Selección de los 9 controles del Annex A más relevantes para el ecosistema M365/Copilot, con descripción, implementación concreta y nivel de madurez requerido. La certificación ISO 42001 de Microsoft para M365 Copilot: qué cubre y qué no cubre.

§18.2 NIST AI RMF 1.0 — Las 4 funciones GOVERN/MAP/MEASURE/MANAGE con implementación específica en contexto M365/Copilot/Azure AI Foundry. Las 7 características de IA trustworthy como arquitectura del programa de gobernanza, mapeadas a las fases del proyecto que las trabajan. El AI RMF como lenguaje común para comunicar el estado de gobernanza al Board.

§18.3 NIST AI 600-1 (Perfil GenAI) — Los 11 riesgos únicos o exacerbados por la IA generativa según el perfil publicado en julio 2024: confabulation, data privacy, data provenance, harmful bias, human-AI configuration, IP, prompt injection, CBRN, obscene content, information integrity, value chain. Para cada riesgo: descripción y acciones concretas en contexto M365.

§18.4 Mapping Cruzado — Tabla de 10 dominios de gobernanza mapeando simultáneamente ISO 42001 cláusula/control, NIST AI RMF función, EU AI Act artículo, y GDPR/Ley 25.326 artículo. La regla de oro: implementar un control una sola vez pero documentarlo como evidencia de múltiples frameworks.

§18.5 Certificación Microsoft — Análisis comparativo preciso: 6 cosas que cubre la certificación ISO 42001 de Microsoft para Copilot (sistema de gestión del proveedor), vs. 6 cosas que no cubre y son obligaciones del deployer (AIMS de la organización, risk assessments de casos de uso propios, DPIAs, IR plan interno). La analogía del datacenter ISO 27001.

§18.6 AI Governance Committee — Composición de 8 roles con función, aporte específico y frecuencia de participación, incluyendo el nuevo rol de AI Risk Manager. Agenda tipo de reunión mensual de 80 minutos estructurada en 7 slots: apertura, Risk Scorecard de IA, evaluación de nuevos sistemas, alertas regulatorias, estado de red teaming, incidentes del período, y próximos pasos.

§18.7 Gap Analysis y Hoja de Ruta — Tabla de 10 requerimientos ISO 42001 comparando qué tiene una organización con ISO 27001 + GDPR, cuál es el gap específico de IA, y qué acción cierra ese gap. Hoja de ruta en 3 horizontes: H1 (0-90 días: fundaciones — AI Policy, AGC, inventario), H2 (90 días-12 meses: controles operacionales — risk register, red teaming, DPIAs, Purview), H3 (12-24 meses: madurez y certificación — PDCA documentado, internal audit, SoA, certificación opcional).

Estado del proyecto: Fases 1-18 · 450 referencias · 16 proveedores.

18.0 INTRODUCCIÓN: DE LA ÉTICA DECLARATIVA A LA GOBERNANZA CERTIFICABLE

Durante décadas, la respuesta corporativa a los riesgos éticos de la tecnología fue declarativa: publicar una política de uso aceptable, incluir cláusulas en contratos de proveedores, y mencionar 'valores' en el informe anual. La IA generativa ha vuelto esa aproximación insostenible por tres razones convergentes.

Primera razón: los reguladores dejaron de aceptar declaraciones. El EU AI Act impone fines de hasta EUR 35 millones o el 7% del revenue global por sistemas de IA prohibidos, y fines de EUR 15 millones o el 3% para sistemas de alto riesgo incumplidos. La SEC en Estados Unidos exige divulgación de riesgos materiales de IA. Los reguladores argentinos están adaptando la Ley 25.326. Una declaración de principios no constituye evidencia de control.

Segunda razón: los stakeholders internos exigen accountability técnico. El Board pregunta: '¿cómo sé que nuestros 20,000 usuarios de Copilot no están filtrando datos confidenciales?' El departamento legal pregunta: '¿podemos demostrar que seguimos GDPR Art. 25 en nuestros sistemas de IA?' El auditor interno pregunta: '¿hay controles sobre quién aprueba el deployment de agentes de IA?' Estas preguntas requieren sistemas de gestión, no declaraciones.

Tercera razón: los frameworks de gobernanza de IA maduros ya existen. ISO/IEC 42001:2023 — el primer estándar internacional de sistemas de gestión de IA — provee un framework auditable, certificable, y compatible con ISO 27001. NIST AI RMF 1.0 provee el lenguaje común para gestión de riesgos de IA adoptado por reguladores, auditores y la industria. Microsoft ya tiene certificación ISO 42001 para M365 Copilot. El CISO puede y debe utilizarlos.

DIMENSIÓN

ÉTICA DECLARATIVA (estado anterior)

GOBERNANZA CERTIFICABLE (estado objetivo)

Base

Principios publicados en website, código de ética corporativo, cláusulas en contratos.

Sistema de gestión auditable: políticas operativas, controles técnicos, evidencias documentadas, ciclo PDCA de mejora continua.

Accountability

'El equipo de IA es responsable de usar la IA éticamente.'

Roles documentados: AI Governance Committee, AI Risk Owner por sistema, DPO, CISO con funciones específicas. Escalación definida.

Gestión de riesgos

Risk register genérico de TI que puede o no mencionar 'riesgos de IA'.

AI-specific risk register (NIST AI RMF MAP), con categorías: riesgos de sesgo, memorización, exfiltración, excessive agency, misinformation. Probabilidad e impacto por sistema.

Evidencia para auditoría

'Contamos con una política de IA responsable aprobada por el Board en 2024.'

Evidencia trazable: test results de red teaming (F13), DPIA completados (F15), sensitivity label coverage %, DLP policy effectiveness, incident log de IA, conformity assessment report.

Cumplimiento regulatorio

'Cumplimos con GDPR y las regulaciones aplicables.'

Compliance Manager con templates EU AI Act, GDPR, ISO 42001. Mapping regulación → control → evidencia. Assessment score por framework. Gap plan con fechas y responsables.

Mejora continua

'Revisamos nuestras políticas anualmente.'

PDCA estructurado: Plan (risk assessment, objectives), Do (implementar controles), Check (internal audit, management review), Act (corrective actions, update policies). Ciclo semestral para sistemas de alto riesgo.

18.1 ISO/IEC 42001:2023 — EL SISTEMA DE GESTIÓN DE IA

ISO/IEC 42001:2023, publicado en diciembre de 2023, es el primer estándar internacional para Sistemas de Gestión de Inteligencia Artificial (AIMS por sus siglas en inglés: AI Management System). El estándar sigue la estructura de alto nivel (HLS) compartida con ISO 27001, ISO 9001, ISO 14001 e ISO 27701, lo que significa que las organizaciones ya certificadas en ISO 27001 tienen una ventaja estructural significativa: el 60-70% de los procesos de gestión son análogos.

18.1.1 Estructura del Estándar: 10 Cláusulas y 38 Controles

#

CLÁUSULA

CONTENIDO Y RELEVANCIA PARA EL CISO

1

Scope (Alcance)

Define que el estándar aplica a organizaciones que desarrollan, proveen o usan sistemas de IA. Para el CISO con M365 E5: el scope mínimo es 'uso de sistemas de IA' — todos los usuarios de Copilot están en scope. Si la organización desarrolla agentes en Copilot Studio o apps en Azure AI Foundry, el scope amplía a 'desarrollo'.

2

Normative References

Referencias normativas: ISO/IEC 22989:2022 (terminología de IA) y ISO/IEC 23894:2023 (gestión de riesgos de IA). El CISO debe conocer la terminología estándar para comunicar con auditores externos.

3

Terms & Definitions

Glosario de 30+ términos. Definiciones clave para el CISO: AI system (incluye Copilot y sus agentes), AI provider (Microsoft), AI deployer (la organización), AI system impact assessment (similar al DPIA de IA de la F15).

4

Context of the Organization

La organización debe entender: factores externos e internos que afectan su AIMS, stakeholders (empleados, clientes, reguladores, el proveedor de IA), scope del AIMS, el contexto de los sistemas de IA (qué pueden hacer, qué riesgos presentan). Output clave: inventario de sistemas de IA con su contexto.

5

Leadership

La alta dirección debe: demostrar compromiso con el AIMS, establecer la AI Policy (el documento de gobernanza de IA de la organización), asignar roles y responsabilidades. Para el CISO: ISO 42001 requiere explícitamente el respaldo del CEO/Board — no puede ser un programa solo de TI. El AI Governance Committee (ver §18.6) es la materialización de este cláusula.

6

Planning

Obligatorio: (1) AI risk assessment — identificar riesgos y oportunidades de los sistemas de IA en scope, (2) AI system impact assessment — evaluar el impacto de cada sistema en stakeholders, (3) objectives and plans — establecer objetivos medibles del AIMS y planes para alcanzarlos. NIST AI RMF MAP function es el complemento técnico de este cláusula.

7

Support

Recursos, competencias, awareness, comunicación, documentación. Para el CISO: plan de capacitación en AI governance para el AI Governance Committee, programa de awareness para todos los usuarios de Copilot, documentación controlada del AIMS (policies, procedures, records).

8

Operation

La cláusula más extensa. Requiere: (1) AI operational planning, (2) AI risk treatment — implementar controles del Annex A, (3) AI system impact assessment — evaluar cada sistema antes de deployment, (4) gestión de proveedores de IA (Microsoft como proveedor primario), (5) data management para sistemas de IA. Los 38 controles del Annex A son la guía operacional.

9

Performance Evaluation

Monitoreo y medición del AIMS: KPIs del programa, internal audit del AIMS, management review. Para el CISO: el Risk Scorecard de IA (ver F13 y F15) es el instrumento principal de medición. Management review semestral con el AI Governance Committee.

10

Improvement

PDCA completo: cuando el AIMS no funciona (hallazgos de auditoría, incidentes, desviaciones de objetivos), se requiere: análisis de causa raíz, corrective action, verificación de efectividad. El ciclo continuo diferencia el AIMS de una implementación puntual.

18.1.2 Los 38 Controles del Annex A — Selección de los más relevantes

El Annex A de ISO 42001 contiene 38 controles organizados en 9 dominios — el equivalente del Annex A de ISO 27001 pero específico para IA. A diferencia de ISO 27001, el Annex A de ISO 42001 no es formalmente obligatorio: la organización selecciona los controles aplicables en la Statement of Applicability (SoA) según el scope y riesgos identificados. A continuación los controles de mayor relevancia para el CISO con ecosistema Microsoft:

CONTROL

DESCRIPCIÓN

IMPLEMENTACIÓN EN M365/COPILOT

MADUREZ REQUERIDA

A.5.2 — AI Policy

Política de IA que establece los objetivos, alcance y compromisos de la organización con el uso responsable de IA.

Documento aprobado por el Board que define: cuáles sistemas de IA están autorizados, criterios de aprobación, responsabilidades del AI Governance Committee, compromisos de transparencia y privacidad.

Básica — implementable en 60-90 días.

A.5.4 — AI Roles

Definición clara de roles: AI provider, AI deployer, AI user, y sus responsabilidades específicas en cada sistema.

Para Copilot: Microsoft = AI provider, la organización = AI deployer, los 20K empleados = AI users. Para agentes Copilot Studio: la organización es simultáneamente AI provider y deployer.

Básica — complementa gobernanza existente.

A.6.1 — AI Risk Assessment

Proceso documentado de evaluación de riesgos de los sistemas de IA: probabilidad, impacto, riesgo inherente, controles, riesgo residual.

El AI-specific risk register que complementa el risk register de TI. Usar las 10 categorías OWASP LLM Top 10 (F13) como taxonomía de riesgos técnicos. Incluir riesgos de sesgo, privacidad, y misinformation.

Media — requiere 3-6 meses para sistematizar.

A.6.2 — AI System Impact Assessment

Evaluación del impacto de cada sistema de IA en los stakeholders antes del deployment y periódicamente.

El DPIA de IA documentado en F15 es la implementación de este control para sistemas que procesan datos personales. Para sistemas sin datos personales: evaluación de impacto en empleados, clientes, y decisiones.

Media — integrar con proceso DPIA existente.

A.8.3 — Data for AI

Controles sobre la calidad, integridad, y adecuación de los datos usados para entrenar, validar, y operar sistemas de IA.

Para RAG de Copilot: auditoría de calidad del corpus SharePoint, exclusión de datos desactualizados, control de acceso al vector database. Para fine-tuning propio: AIBOM (AI Bill of Materials).

Media-Alta — requiere gobernanza de datos.

A.8.4 — AI System Lifecycle

Controles sobre el ciclo de vida completo del sistema de IA: diseño, entrenamiento, testing, deployment, operación, retiro.

El AI deployment gate documentado en F7 (Post-Implementation Governance) y F13 (Red Teaming) es la implementación de este control. El pipeline SDLC IA de F13 con sus gates de aprobación.

Alta — requiere madurez de procesos DevOps/AI.

A.9.3 — AI Incident Management

Proceso para detectar, reportar, investigar, y remediar incidentes relacionados con sistemas de IA.

El AI Incident Response Plan de la F7. Integración con Microsoft Sentinel y Defender XDR para detección técnica de incidentes de IA. Proceso de notificación regulatoria cuando aplica EU AI Act.

Alta — requiere madurez de SOC para IA.

A.9.7 — Transparency of AI

Comunicación transparente a los usuarios sobre el uso de IA en los sistemas que los afectan.

Notificación a empleados del uso de Copilot y qué datos procesa. Para chatbots externos: disclosure de que el usuario interactúa con IA. Modelo Card para sistemas de IA propios desplegados internamente.

Media — política y comunicación organizacional.

A.10.3 — Human Oversight

Mecanismos para que los seres humanos puedan supervisar, revisar, y si es necesario anular las decisiones o acciones de los sistemas de IA.

Human-in-the-loop para acciones de alto impacto en agentes Copilot Studio (documentado en F13). Kill switch para agentes. Procesos de revisión humana de outputs de IA que afectan decisiones sobre personas.

Alta — crítico para sistemas de alto riesgo.

A.10.5 — AI System Accuracy

Evaluación de la precisión, exactitud, y confiabilidad del sistema de IA a lo largo del tiempo.

Para sistemas propietarios: métricas de performance en producción (accuracy, drift detection). Para Copilot: evaluación de misinformation risk (OWASP LLM09, F13). Monitoreo de behavioral drift post-update.

Alta — requiere MLOps maduro para sistemas propios.

🏆 Microsoft ISO 42001 para M365 Copilot: Microsoft obtuvo certificación ISO/IEC 42001 para Microsoft 365 Copilot y Microsoft 365 Copilot Chat — auditada por un tercero independiente. La certificación confirma que Microsoft aplicó el framework necesario para gestionar riesgos y oportunidades asociados al desarrollo, deployment y operación de M365 Copilot. El CISO puede usar esta certificación en su propio compliance assessment. El certificado y audit report están disponibles en el Microsoft Service Trust Portal. Importante: la certificación de Microsoft cubre al proveedor — la organización como deployer tiene sus propias obligaciones bajo ISO 42001 que requieren implementación interna independiente.

18.2 NIST AI RMF 1.0 — GOVERN, MAP, MEASURE, MANAGE

El NIST AI Risk Management Framework (AI RMF 1.0), publicado en enero de 2023, es el framework voluntario de gestión de riesgos de IA del Instituto Nacional de Estándares y Tecnología de Estados Unidos. Aunque voluntario, es el lenguaje común de facto para AI governance en el contexto norteamericano y es adoptado por reguladores, auditores, y la industria globalmente como benchmark de 'IA responsable'. En 2025-2026, el AI RMF ha evolucionado de guía voluntaria a benchmark de compliance esperado para Fortune 500 y organizaciones con operaciones en EE.UU.

El AI RMF se organiza en cuatro funciones — GOVERN, MAP, MEASURE, MANAGE — con la misma lógica que el NIST Cybersecurity Framework (CSF) que el CISO ya conoce. La analogía es útil: así como el CSF gestiona riesgos de ciberseguridad, el AI RMF gestiona los riesgos específicos de los sistemas de IA.

18.2.1 Las 4 Funciones del NIST AI RMF

FN

FUNCIÓN

QUÉ ESTABLECE

IMPLEMENTACIÓN EN CONTEXTO M365/COPILOT/AZURE AI

G

GOVERN

La función transversal: establece las estructuras, procesos, y cultura organizacional para gestionar riesgos de IA. Aplica a todas las etapas del ciclo de vida y a todos los sistemas. Si GOVERN es débil, MAP/MEASURE/MANAGE son ineficaces. Requiere: AI Policy, roles documentados (AI Governance Committee), integración con enterprise risk management, gestión de terceros (proveedores de IA como Microsoft/OpenAI), entrenamiento y awareness.

AI Governance Committee activo con representación CISO, DPO, Legal, Negocio (ver §18.6). AI Policy aprobada por Board. Inventario de todos los sistemas de IA en la organización con sus responsables. Contratos con Microsoft revisados contra checklist F6 (enterprise contracts). Programa de capacitación en AI risk para el equipo de gobierno. GOVERN es la base que habilita las otras 3 funciones.

M₁

MAP

Contextualizar el riesgo de cada sistema de IA específico: quién lo usa, qué hace, quién puede ser afectado, qué puede salir mal. MAP es la fase de descubrimiento y clasificación. Sin MAP, los controles son genéricos e inefectivos. Incluye: categorización del sistema de IA, identificación de stakeholders y posibles impactos negativos, documentación de capacidades y limitaciones, identificación de riesgos por categoría. El AI Inventory es el output central de MAP.

Para cada sistema en scope (Copilot, agentes Copilot Studio, apps Azure AI Foundry): completar ficha técnica con: propósito y casos de uso, datos a los que tiene acceso, herramientas disponibles (para agentes), usuarios y sus características, impactos positivos y riesgos negativos por categoría (OWASP LLM Top 10, sesgo, misinformation, privacidad). MAP 5.1: documentar likelihood y magnitude de impactos negativos. Threat model de F13 es la implementación técnica de MAP.

M₂

MEASURE

Cuantificar y analizar los riesgos identificados en MAP: evaluaciones técnicas, testing, benchmarking, métricas de trustworthiness. MEASURE responde: ¿cuán grande es realmente este riesgo? ¿están funcionando los controles? MEASURE 2.11 requiere explícitamente evaluación de fairness y bias. El AI RMF llama a esta actividad TEVV: Testing, Evaluation, Verification, and Validation.

Red Teaming de F13 (PyRIT, métricas ASR por categoría OWASP): la implementación técnica de MEASURE. Evaluación de sesgo con Azure Responsible AI Dashboard y Fairlearn antes del deployment de modelos propios. Privacy risk measurement con Purview DSPM for AI (F15). MEASURE 4.1: métricas de performance en producción — accuracy, drift detection, behavioral monitoring. El Risk Scorecard de IA (F13 §13.7) es el output central de MEASURE.

M₃

MANAGE

Actuar sobre los riesgos identificados y medidos: implementar controles, planes de respuesta a incidentes, comunicación a stakeholders, y mejora continua. MANAGE 4.1 requiere: post-deployment monitoring, mecanismos de appeal y override, decommissioning, y change management. MANAGE incluye la gestión de incidentes de IA y la comunicación de riesgos residuales a los stakeholders.

Controles técnicos de F13 (guardrails, least privilege, human-in-the-loop) y F15 (DLP, sensitivity labels, DPIA) son la implementación de MANAGE. AI Incident Response Plan de F7. Proceso de comunicación de riesgos residuales al AI Governance Committee (Risk Scorecard mensual). Decommissioning checklist: cómo retirar un sistema de IA (eliminación del corpus RAG, archivado de logs, notificación a usuarios).

18.2.2 Las 7 Características de IA Trustworthy según NIST AI RMF

El AI RMF 1.0 define que un sistema de IA trustworthy debe poseer 7 características. Estas características son la arquitectura del programa de AI governance — cada control implementado sirve una o más de estas características. Para el CISO, son el vocabulario para comunicar el estado de gobernanza de IA al Board.

#

CARACTERÍSTICA

CÓMO SE MIDE / CONTROLA

FASE DEL PROYECTO QUE LO TRABAJA

1

Valid & Reliable

El sistema hace lo que se declara que hace, de forma consistente, en el rango de condiciones esperadas. Para LLMs: evaluación de accuracy en tareas declaradas, testing de edge cases, benchmarking periódico.

F13 (Red Teaming — MEASURE), F16 (Explainability)

2

Safe

El sistema no genera outputs que causan daño físico, psicológico, o financiero a los usuarios o terceros. Para Copilot: guardrails de contenido de Azure AI Content Safety, DLP policies de Purview.

F7 (Post-Implementation Governance), F13 (Red Teaming)

3

Secure & Resilient

El sistema es resistente a ataques adversariales y mantiene su función bajo condiciones adversas. Para LLMs: resistencia a prompt injection, jailbreaking, y ataques de exfiltración.

F10 (CISO AI Defense), F13 (Red Teaming — todos los tipos de ataque)

4

Accountable & Transparent

Existe accountability clara sobre quién es responsable del sistema y sus outputs. Los usuarios y afectados tienen información sobre el funcionamiento del sistema.

F3 (Transparency), F7 (Governance), F15 (DPIA, Audit Log Purview), F18 (AI Governance Committee)

5

Explainable & Interpretable

Los outputs del sistema pueden ser explicados en términos comprensibles para los usuarios y auditores. Para decisiones que afectan personas: se puede dar razón de por qué el sistema dio ese output.

F16 (Explainability — LIME, SHAP, Azure RAI Dashboard)

6

Privacy-Enhanced

El sistema protege la privacidad de los individuos cuyos datos procesa, consistente con regulaciones aplicables y las expectativas de los usuarios.

F15 (Privacy Engineering), GDPR Art. 25 implementado

7

Fair with Harmful Bias Managed

El sistema no genera outputs que discriminan grupos protegidos. Los sesgos en los datos de entrenamiento o en el diseño son identificados, evaluados, y mitigados.

F16 (Bias Evaluation — Fairlearn, Azure RAI Dashboard), F4 (Ethical Dilemmas)

18.3 NIST AI 600-1 — EL PERFIL PARA IA GENERATIVA

NIST AI 600-1, publicado en julio de 2024, es el perfil del AI RMF específicamente diseñado para IA Generativa — el más relevante para el CISO que gestiona M365 Copilot, agentes, y aplicaciones LLM. El documento fue desarrollado en respuesta al Executive Order 14110 del presidente Biden sobre IA segura y confiable, y representa la extensión del AI RMF al contexto específico de los LLMs, sistemas RAG, y agentes autónomos.

RIESGO ÚNICO O EXACERBADO POR GAI

DESCRIPCIÓN SEGÚN AI 600-1

ACCIONES SUGERIDAS EN CONTEXTO M365

CBRN Information

GAI puede generar información detallada sobre armas químicas, biológicas, radiológicas, nucleares que facilitaría daños catastróficos.

Guardrails de Azure AI Content Safety para categorías CBRN. Política de uso aceptable explícita. Monitoreo de prompts que buscan información de este tipo.

Confabulation (Hallucination)

GAI genera información plausible pero factualmente incorrecta presentada con alto grado de confianza. Especialmente peligroso en contextos legales, médicos, financieros.

Human-in-the-loop para outputs de alto impacto. Citación de fuentes verificables cuando el sistema RAG las tiene disponibles. Entrenamiento de usuarios sobre limitaciones. MEASURE: evaluación periódica de tasa de hallucination.

Data Privacy

GAI puede exponer datos personales de individuos presentes en los datos de entrenamiento, o inferir información privada de las interacciones del usuario.

Implementación completa de F15 (Privacy Engineering): DP en training, DLP en Copilot, DPIA para sistemas de alto riesgo, Data Minimization en RAG.

Data Provenance

La dificultad para trazar el origen y confiabilidad de los datos que entrenaron el modelo o que el RAG usa como contexto.

AIBOM (AI Bill of Materials) para modelos propios. Para el corpus RAG: metadatos de fuente y fecha de cada documento. Purview Information Protection para labels de clasificación de datos fuente.

Harmful Bias & Homogenization

GAI amplifica sesgos en los datos de entrenamiento. La homogenización de perspectivas cuando muchos usuarios usan el mismo modelo reduce la diversidad de pensamiento.

Azure Responsible AI Dashboard: evaluación de fairness por grupos demográficos para modelos propios. Para Copilot: awareness de que el modelo tiene perspectivas inherentes y puede reflejar sesgos.

Human-AI Configuration

Excesiva confianza de los usuarios en los outputs de GAI ('automation bias'). Insuficiente entrenamiento sobre cuándo y cómo aplicar juicio humano.

Programa de capacitación (F18 §18.6): educar a los 20K usuarios en qué verificar manualmente, en qué contextos no delegar a Copilot. KPI: reducción de incidentes de misinformation reportados.

Information Integrity

GAI puede ser usado para generar y diseminar desinformación a escala (deepfakes, fake news, synthetic content).

Política de uso aceptable que prohíbe el uso de Copilot para generar contenido que pueda inducir a error. C2PA (Content Authenticity Initiative) para contenido generado con IA cuando se publica externamente.

Intellectual Property

GAI puede reproducir material con copyright de los datos de entrenamiento, exponiendo a la organización a reclamos de IP.

Microsoft Copilot Copyright Commitment (ver F6 análisis de contratos): Microsoft indemniza a clientes enterprise por reclamos de copyright derivados de Copilot cuando se siguen las guías de uso. Política interna: no solicitar a Copilot reproducir obras específicas.

Prompt Injection

Ataques que manipulan los inputs del GAI para modificar su comportamiento, filtrar información, o ejecutar acciones no autorizadas.

Implementación completa de F13: controles de prompt injection, red teaming periódico, monitoring de intentos de ataque en producción (Microsoft Defender for Cloud).

Obscene, Degrading & Harmful Content

GAI puede generar contenido sexualmente explícito, violento, o dañino, especialmente cuando los guardrails son eludidos.

Azure AI Content Safety: filtros de contenido configurados. Red teaming periódico para verificar que los filtros no son bypasseados (FuzzyAI, PyRIT).

Value Chain & Component Integration

Los sistemas GAI se construyen sobre componentes de terceros: modelos base, plugins, APIs. Cada componente agrega riesgos al sistema final.

Supply chain security para IA: due diligence de proveedores (F5, F6), AIBOM, auditoría de plugins de Copilot Studio antes de deployment, verificación de integridad de modelos.

18.4 MAPPING CRUZADO: ISO 42001 × NIST AI RMF × EU AI ACT × GDPR

El CISO que gestiona un ecosistema de IA enterprise opera bajo múltiples marcos de referencia simultáneamente: ISO 42001 para el sistema de gestión, NIST AI RMF para el lenguaje de riesgo, EU AI Act para las obligaciones legales (si opera con ciudadanos de la UE), y GDPR para los datos personales. El reto es evitar la duplicación: el mismo control puede satisfacer requerimientos de múltiples frameworks. Esta sección mapea los dominios clave para maximizar la eficiencia del programa.

DOMINIO DE GOBERNANZA

ISO 42001 CLÁUSULA / CONTROL

NIST AI RMF FUNCIÓN

EU AI ACT ARTÍCULO

GDPR / LEY 25.326 ARTÍCULO

AI Policy y Gobernanza

Cláusula 5 (Leadership), Cláusula 6 (Planning), A.5.2 AI Policy

GOVERN 1.1-1.4, GOVERN 2.1-2.2

Art. 17 (Governance Quality Management — alto riesgo), Art. 9 (Risk Management System)

No directo (complementario a GDPR Art. 24 — Responsabilidad del Responsable)

Inventario y Clasificación de Sistemas de IA

Cláusula 4.1 (Context), A.5.4 AI Roles

MAP 1.1-1.6 (AI System Categorization)

Art. 6 (Clasificación riesgo), Art. 51 (Base de datos EU de IA alto riesgo)

No directo

Gestión de Riesgos de IA

Cláusula 6.1-6.2, A.6.1 AI Risk Assessment

MAP 5.1-5.2, MEASURE 2.1-2.6

Art. 9 (Risk Management System — alto riesgo), Art. 14 (Human Oversight)

Art. 25 GDPR (PbD), Art. 35 (DPIA — si datos personales)

Testing, Evaluación y Validación

Cláusula 8.1-8.4, A.8.4 AI System Lifecycle

MEASURE 2.5-2.9 (TEVV)

Art. 9(6) (Testing relevante y representativo), Art. 15 (Logging — alto riesgo)

No directo (complementario Art. 25 GDPR)

Privacidad y Datos Personales

Cláusula 8.3 A.8.3 (Data for AI)

GOVERN 4.1, MEASURE 2.3 (Data Quality)

Art. 10 (Data Governance — alto riesgo)

GDPR Art. 5 (principios), Art. 25 (PbD), Art. 35 (DPIA), Art. 17 (olvido) / Ley 25.326 Art. 4, 16, 43

Transparencia y Explicabilidad

A.9.7 Transparency, A.10.5 AI Accuracy

MEASURE 2.10-2.11, GOVERN 5.1-5.2

Art. 13 (Transparency), Art. 50 (Obligaciones de transparencia GenAI)

GDPR Art. 13-14 (info al interesado), Art. 22 (decisiones automatizadas)

Supervisión Humana

A.10.3 Human Oversight

MANAGE 4.1 (Appeal/Override)

Art. 14 (Human Oversight — alto riesgo)

GDPR Art. 22 (derecho a no ser sujeto de decisión automática exclusiva)

Incidentes de IA

A.9.3 AI Incident Management

MANAGE 2.1-2.4 (Incident Response)

Art. 73 (Notificación incidentes graves — sistemas de alto riesgo)

GDPR Art. 33-34 (notificación de brechas de datos personales)

Gestión de Proveedores de IA

Cláusula 8.6 (AI Providers/Deployers)

GOVERN 6.1-6.2 (Third-party Oversight)

Art. 25-27 (Obligaciones del proveedor vs. deployer)

GDPR Art. 28 (contratos con encargados de tratamiento)

Mejora Continua

Cláusula 10 (Improvement), PDCA completo

GOVERN 1.4 (Continuous Improvement)

Art. 9 (Continuous monitoring — alto riesgo)

No directo (principio general GDPR)

💡 La regla de oro del mapping cruzado: Implementar un control una sola vez pero documentarlo como evidencia de múltiples frameworks. Ejemplo: el DPIA de IA (F15) satisface simultáneamente ISO 42001 A.6.2 (AI System Impact Assessment), NIST AI RMF MAP 5.1 (Impact Documentation), EU AI Act Art. 9 (Risk Management), y GDPR Art. 35 (DPIA). El AI Governance Committee al aprobarlo está dando evidencia para todos los frameworks. Un programa de gobernanza bien diseñado no duplica esfuerzo — aplica eficiencia cruzada en todos los controles.

18.5 ISO 42001 Y M365 COPILOT: LA CERTIFICACIÓN DE MICROSOFT

Microsoft obtuvo certificación ISO/IEC 42001 para Microsoft 365 Copilot y Microsoft 365 Copilot Chat — validada por un auditor independiente. Esta es una de las certificaciones de IA más significativas del mercado y tiene implicaciones directas para el CISO que despliega Copilot a 20,000+ usuarios. Comprender qué cubre y qué no cubre la certificación de Microsoft es esencial para calibrar correctamente el programa propio de gobernanza.

QUÉ CUBRE LA CERTIFICACIÓN ISO 42001 DE MICROSOFT

QUÉ NO CUBRE (OBLIGACIONES DEL DEPLOYER)

La aplicación del AI Management System de Microsoft para el desarrollo, deployment y operación de M365 Copilot, incluyendo el Responsible AI Standard de Microsoft.

El AI Management System de la organización como deployer: políticas internas, roles del AI Governance Committee, AI risk register propio.

Los procesos de Microsoft para evaluación de riesgos de Copilot, testing adversarial, evaluación de bias, y mejora continua del sistema a nivel del proveedor.

Las evaluaciones de riesgo específicas de los casos de uso de la organización: cómo la organización usa Copilot, qué datos expone, qué agentes construye sobre la plataforma.

Los controles técnicos de Microsoft: guardrails de contenido, Zero Data Retention, separación de datos por tenant, audit logging.

La configuración correcta de esos controles por la organización: sensitiviy labels configurados, DLP policies activas, corpus RAG auditado, permisos de SharePoint correctos.

La transparencia de Microsoft sobre las capacidades y limitaciones de Copilot: model cards, responsible AI impact assessments publicados.

Los DPIAs específicos de la organización para los casos de uso de Copilot que involucran datos personales de empleados/clientes.

El sistema de gestión de Microsoft para incidentes relacionados con M365 Copilot y la notificación a clientes según los contratos.

El AI Incident Response Plan interno de la organización: cómo responde cuando un empleado usa Copilot de forma que genera un incidente de privacidad o seguridad.

La gestión de la supply chain de IA de Microsoft: qué modelos base usa, cómo valida los componentes, qué proveedores participan en M365 Copilot.

La auditoría y aprobación de los plugins y conectores de terceros que la organización habilita en Copilot Studio para sus agentes.

La conclusión práctica: la certificación ISO 42001 de Microsoft es una ventaja significativa para el programa de gobernanza del CISO — reduce el esfuerzo de due diligence sobre el proveedor (Fase 5 del proyecto) y provee evidencia para los auditores. Pero no sustituye el AIMS de la organización deployer. Es equivalente a que el datacenter de Microsoft tenga ISO 27001: protege la capa del proveedor, pero la organización debe igualmente implementar sus propios controles sobre lo que hace con esa plataforma.

18.6 AI GOVERNANCE COMMITTEE: ESTRUCTURA, ROLES Y OPERACIÓN

El AI Governance Committee (AGC) es el órgano de gobernanza central del AIMS. ISO 42001 Cláusula 5 requiere que la alta dirección demuestre liderazgo en el AIMS; el AI Governance Committee es la estructura organizacional que materializa ese requerimiento. Para el CISO, el AGC es el foro donde convergen los riesgos técnicos de IA con las decisiones de negocio y las obligaciones legales — el nexo entre el Red Teaming de F13, los DPIAs de F15, y la estrategia de IA del negocio.

18.6.1 Composición del AI Governance Committee

ROL

FUNCIÓN EN EL AGC

APORTE ESPECÍFICO

FRECUENCIA DE PARTICIPACIÓN

CEO / C-Level Sponsor

Patrocinador ejecutivo del AIMS. Aprueba la AI Policy y los objetivos del AIMS. Representación del Board.

Seniority que asegura que el programa tiene recursos y que las decisiones de riesgo residual son tomadas al nivel correcto.

Reunión de aprobación de AI Policy. Revisión anual del estado del programa (Management Review ISO 42001).

CISO

Co-chair del AGC. Responsable de la integración del AIMS con el programa de seguridad. Gestión de riesgos técnicos de IA.

Resultados de red teaming, security posture de sistemas de IA, incidents de seguridad relacionados con IA, integration con Defender XDR y Sentinel.

Reunión mensual del AGC. Emergency meetings en incidentes de alto impacto.

DPO (Data Protection Officer)

Responsable de los aspectos de privacidad del AIMS. Review de DPIAs. Liaison con autoridades supervisoras.

Status de DPIAs, brechas de compliance GDPR/Ley 25.326, consultas regulatorias, derechos del interesado pendientes sobre datos en sistemas de IA.

Reunión mensual. Review de DPIAs ad hoc.

CTO / Head of Architecture

Perspectiva técnica: arquitectura de los sistemas de IA, evaluación de nuevos modelos y herramientas, viabilidad de controles técnicos.

Roadmap tecnológico de IA, evaluación de viabilidad de controles propuestos, technical debt de gobernanza, alignment con Azure AI Foundry roadmap.

Reunión mensual. Gate reviews de nuevos deployments.

Legal / Compliance

Análisis regulatorio: EU AI Act, GDPR, Ley 25.326, sector-específicos. Revisión de contratos con proveedores de IA.

Alertas regulatorias, review de contratos IA (F6), posición legal ante incidentes, compliance mapping regulación → control.

Reunión mensual. Ad hoc para cambios regulatorios significativos.

Negocio / Unidades de Valor

Representación de las unidades que usan o construyen sistemas de IA. Contexto de casos de uso, impacto de controles sobre la productividad.

Use cases nuevos que requieren evaluación de riesgo (MAP), feedback sobre efectividad de controles desde perspectiva usuario, business risk prioritization.

Reunión mensual o bimensual según carga de trabajo del AGC.

RRHH

Impacto de sistemas de IA en empleados: Copilot análisis de rendimiento, automatización de procesos HR, implicaciones laborales.

Evaluación de impacto en empleados (A.6.2 ISO 42001), comunicación a empleados sobre uso de IA, política de uso aceptable desde perspectiva laboral.

Trimestral o cuando hay cambios que afectan a los empleados.

AI Risk Manager (nuevo rol 2025)

Rol operacional dedicado: coordina el AIMS en el día a día, mantiene el inventario de sistemas de IA, gestiona el risk register de IA, prepara reportes para el AGC.

Operación diaria del AIMS: mantener AI inventory, coordinar red teamings, hacer seguimiento de remediation plans, preparar Risk Scorecard mensual para el AGC.

Full-time dedicado. Reporta directamente al CISO.

18.6.2 Agenda Tipo del AGC Mensual

SLOT

AGENDA ITEM

CONTENIDO

RESPONSABLE

5 min

Apertura y aprobación de agenda

Aprobación del acta anterior. Ajustes a la agenda si hay urgencias.

AGC Chair (CISO)

15 min

Risk Scorecard de IA del mes

Dashboard: ASR por sistema (F13 métricas), estado de DPIAs (F15), coverage de Sensitivity Labels, incidentes de IA reportados, status de remediation items previos.

AI Risk Manager

20 min

Evaluación de nuevos sistemas o cambios significativos

Para cada nuevo agente de Copilot Studio, app Azure AI Foundry, o cambio mayor en sistemas existentes: presentación de AI System Assessment (scope, datos, herramientas, riesgos identificados, controles propuestos). Decisión: aprobar para piloto / aprobar con condiciones / rechazar.

AI Risk Manager + CTO

15 min

Alertas regulatorias y de compliance

Novedades del EU AI Act, GDPR, Ley 25.326, nuevas guías de autoridades supervisoras. Impacto en el programa. Acciones requeridas.

Legal / Compliance

10 min

Estado de Red Teaming y controles de seguridad

Resultados de ejercicios de red teaming completados o planificados. Nuevos vectores de ataque publicados en MITRE ATLAS u OWASP. Estado de remediaciones pendientes.

CISO

10 min

Incidentes de IA del período

Review de incidentes relacionados con sistemas de IA: prompts con PII detectados por DLP, intentos de jailbreaking, misinformation reportada por usuarios, otros. Post-mortems y lecciones aprendidas.

CISO + DPO

5 min

AOB (Any Other Business) y próximos pasos

Items adicionales. Asignación de action items con responsables y fechas. Confirmación de próxima reunión.

AGC Chair

18.7 AIMS EN LA PRÁCTICA: GAP ANALYSIS Y HOJA DE RUTA PARA EL CISO (2026-2027)

La implementación de un AIMS bajo ISO 42001 y NIST AI RMF no comienza desde cero — el CISO con un programa de seguridad maduro (ISO 27001, GDPR compliance, SOC) ya tiene el 50-60% de la infraestructura de gestión que el AIMS requiere. El gap analysis identifica específicamente qué falta para los requerimientos específicos de IA.

18.7.1 Gap Analysis Rápido: Estado de Madurez AIMS vs. ISO 42001

REQUERIMIENTO ISO 42001

QUÉ TIENE UNA ORG CON ISO 27001 + GDPR

GAP ESPECÍFICO DE IA

ACCIÓN PARA CERRAR EL GAP

AI Policy (A.5.2)

Política de Information Security (ISMS), Política de Privacidad.

No hay una AI Policy específica que defina gobernanza de sistemas de IA.

Redactar AI Policy: scope (sistemas de IA autorizados), principios, roles del AGC, criterios de aprobación de nuevos sistemas. Aprobación por Board.

AI Roles (A.5.4)

RACI de seguridad, roles de DPO, roles de IT.

No hay roles específicos para AI provider/deployer/user. No hay AI Risk Manager.

Definir roles ISO 42001: la organización como AI deployer, Microsoft como AI provider, roles internos del AGC. Crear rol AI Risk Manager si el volumen lo justifica.

AI Risk Assessment (A.6.1)

Risk register de TI genérico con categorías de riesgo convencionales.

El risk register no incluye categorías específicas de IA: memorización, prompt injection, excessive agency, misinformation, sesgo.

Extender el risk register con categorías AI: usar OWASP LLM Top 10 y NIST AI 600-1 como taxonomía. Completar para cada sistema en scope.

AI System Impact Assessment (A.6.2)

DPIA para sistemas que procesan datos personales.

El DPIA cubre privacidad pero no todos los impactos de IA: impacto en empleados, riesgo de misinformation, riesgo de sesgo que afecta grupos.

Ampliar el scope del DPIA o crear un AI System Impact Assessment paralelo que cubra impactos no-privacidad: employees impact, fairness, misinformation risk.

AI Inventory (MAP NIST)

IT Asset Inventory con todos los sistemas de TI.

El AI inventory requiere campos específicos: modelo base, capacidades, herramientas de agente, corpus de datos, last red team date.

Crear AI inventory específico como extensión del IT asset inventory. Completarlo con los campos AI-específicos. Mantenimiento: el AI Risk Manager actualiza con cada nuevo deployment.

Data for AI (A.8.3)

Data governance program, clasificación de datos.

La gobernanza de datos no cubre específicamente el corpus RAG, embeddings, datos de fine-tuning.

Extender el programa de gobernanza de datos para cubrir: corpus RAG (qué entra, qué se excluye, política de retención), fine-tuning datasets (AIBOM), vector database access control.

TEVV - Testing (MEASURE NIST)

Vulnerability assessment, penetration testing para sistemas convencionales.

No hay red teaming específico para IA. El pen testing convencional no cubre prompt injection, jailbreaking, o ataques RAG.

Implementar F13 (Red Teaming de IA): PyRIT, proceso de 6 fases, plan trimestral de testing. Integrar resultados como evidencia de MEASURE en el AIMS.

AI Incident Management (A.9.3)

IR plan genérico de TI.

El IR plan no incluye categorías específicas de incidentes de IA: prompt injection exitosa, exfiltración vía LLM, misinformation crítica, sesgo reportado.

Ampliar el AI Incident Response Plan de F7 para incluir categorías AI-específicas. Integrar alertas de Microsoft Defender for Cloud AI detection. Definir threshold de notificación regulatoria para incidentes de IA.

Human Oversight (A.10.3)

No hay equivalente directo en ISO 27001.

Sistemas de IA no tienen mecanismos formales de override humano. Agentes de Copilot Studio pueden ejecutar acciones sin aprobación humana.

Implementar human-in-the-loop para acciones de alto impacto (F13 §13.4). Kill switch documentado para todos los agentes. Policy: qué tipos de decisiones nunca pueden ser tomadas exclusivamente por un sistema de IA.

Mejora Continua - PDCA (Cláusula 10)

PDCA en el ISMS de ISO 27001.

No hay ciclo PDCA documentado específico para el AIMS de IA.

Establecer ciclo PDCA del AIMS: Plan (risk assessment semestral), Do (implementar controles del plan), Check (internal audit anual del AIMS, management review semestral en el AGC), Act (corrective actions, update de AI Policy).

18.7.2 Hoja de Ruta de Implementación del AIMS — 3 Horizontes

HORIZONTE

OBJETIVO Y HITOS PRINCIPALES

ACCIONES ESPECÍFICAS Y CRITERIOS DE ÉXITO

H1 — Fundaciones(0-90 días)

Establecer las bases del AIMS: AI Policy aprobada, AI Governance Committee constituido y operativo, AI Inventory completo, gap analysis documentado. Al final de H1 la organización tiene visibilidad y estructura — aún no tiene todos los controles.

Acción 1: Redactar AI Policy y obtener aprobación del Board. Acción 2: Constituir el AGC con los roles definidos en §18.6. Acción 3: Completar AI Inventory para todos los sistemas de IA en scope con campos: sistema, proveedor, modelo base, datos accesibles, herramientas de agente, propósito, usuarios, last risk assessment date. Acción 4: Ejecutar gap analysis ISO 42001 (tabla §18.7.1). Acción 5: Priorizar los 5 gaps más críticos. Criterio de éxito: AI Policy firmada, AGC activo (primera reunión celebrada), AI Inventory completo, Gap Analysis Report aprobado por el AGC.

H2 — Controles Operacionales(90 días - 12 meses)

Cerrar los gaps de mayor riesgo: AI risk register completo, TEVV/red teaming sistemático, DPIAs completados, human oversight mechanisms implementados. Al final de H2 la organización tiene el AIMS operacional para los sistemas de mayor riesgo.

Acción 1: Completar AI risk register con categorías OWASP LLM Top 10 para todos los sistemas del inventario. Acción 2: Ejecutar primer ciclo completo de red teaming (F13): baseline para M365 Copilot y agentes Copilot Studio. Acción 3: Completar DPIAs para todos los sistemas que procesan datos personales de alto riesgo. Acción 4: Implementar human-in-the-loop para agentes con write access. Acción 5: Configurar Purview DSPM for AI, DLP en Copilot, Sensitivity Labels >90% coverage. Acción 6: Establecer programa de capacitación para usuarios Copilot. Criterio de éxito: AI risk register activo, 2 ciclos de red teaming completados, DPIAs firmados por DPO, controles Purview operativos, >70% de usuarios Copilot capacitados.

H3 — Madurez y Certificación(12-24 meses)

Alcanzar la madurez del AIMS: ciclo PDCA completo documentado, internal audit del AIMS, management review semestral en el AGC. Evaluación de certificación ISO 42001 si los auditores de reguladores o clientes lo requieren. Al final de H3 el CISO puede demostrar gobernanza certificable de IA.

Acción 1: Completar primer internal audit del AIMS — evaluación clause-by-clause de ISO 42001. Acción 2: Primer management review formal del AGC: estado del programa, risk scorecard anual, objetivos del año siguiente, corrective actions. Acción 3: Statement of Applicability (SoA) completado: para cada uno de los 38 controles del Annex A, declarar si aplica o no, justificación, y estado de implementación. Acción 4: Si se busca certificación: contratar conformity assessment body (CAB) acreditado para pre-assessment. Certificación formal si el mercado o los reguladores lo requieren. Criterio de éxito: AIMS documentado auditables, internal audit completado, SoA aprobado, management review documentado. Si certificación: audit report de tercero disponible en Service Trust Portal interno.

📊 El ROI de la certificación ISO 42001: En 2024, el número de organizaciones con certificación ISO aumentó un 20% globalmente vs. 2023. ISO 42001 en particular tiene tasa de adopción acelerada conforme el EU AI Act escala sus obligaciones. Para el CISO con operaciones en el mercado financiero o de servicios de Argentina y LATAM: la certificación ISO 42001 es una ventaja diferencial en licitaciones, RFPs, y auditorías de clientes enterprise. El retorno no es solo regulatorio — es competitivo. El costo estimado de implementación + certificación: 200-400 horas de personal interno + 30,000-60,000 USD honorarios de auditor externo. El ROI comparado con el costo de un incidente de gobernanza de IA mal manejado es sistemáticamente positivo.

18.8 REFERENCIAS (R421–R450)

ISO/IEC 42001 — Estándar y Documentación Oficial:

R421. ISO, 'ISO/IEC 42001:2023 — Artificial Intelligence Management Systems', diciembre 2023. Primer estándar internacional de sistemas de gestión de IA. Estructura HLS compatible con ISO 27001. 10 cláusulas, 38 controles en Annex A. Plan-Do-Check-Act. Publicado por ISO y la Comisión Electrotécnica Internacional. iso.org/standard/42001

R422. ISO, 'ISO/IEC 42005:2025 — AI Systems Impact Assessment', 2025. Companion standard de ISO 42001. Guía específica para AI System Impact Assessment (Control A.6.2). Complemento directo al DPIA de GDPR para impactos no-privacidad de sistemas de IA.

R423. ISO, 'ISO/IEC 23894:2023 — Artificial Intelligence — Guidance on Risk Management', 2023. Gestión de riesgos específicos de IA. Referencia normativa de ISO 42001 (Clause 2). Marco de riesgo IA compatible con ISO 31000.

R424. EY, 'ISO 42001: Paving the Way for Ethical AI', diciembre 2025. 38 controles del Annex A. Comparable a ISO 27001 en estructura. Requiere: AI risk assessment, impact evaluation, lifecycle management, 3rd-party supplier oversight. PDCA methodology.

R425. KPMG Switzerland, 'ISO/IEC 42001: A New Standard for AI Governance', agosto 2025. Beneficios: stakeholder trust, enhanced AI governance. 20% crecimiento en certificaciones ISO en 2024 vs. 2023. Certificación válida 3 años con auditorías anuales de vigilancia.

R426. Lasso Security, 'ISO/IEC 42001:2023 Features, Types & Best Practices', octubre 2025. Certificación full ISO 42001: CAB (Conformity Assessment Body) acreditado, audit de todas las cláusulas y anexos. Diferencia con SOC2, ISO 27001. Pre-certification assessment recomendado antes del audit formal.

R427. Prompt Security, 'Understanding the ISO/IEC 42001 for AI Management Systems', septiembre 2025. ISO 42001 facilita compliance EU AI Act. Vanta CISO prediction 2024: enterprises focalizarán AI governance en 2025. Aligns con ISO 27001, ISO 27701, NIST AI RMF.

R428. Mindgard, 'ISO/IEC 42001 Explained: AI Management System Standard Guide', octubre 2025. ISO 42001 primera norma auditable para AIMS. Cierra brecha entre políticas implícitas y sistema de gestión certificable. Discovered Azure AI Content Safety vulnerabilities (Feb 2024) como ejemplo del valor del standard.

R429. ISACA, 'ISO/IEC 42001 and EU AI Act: A Practical Pairing for AI Governance', diciembre 2025. EU AI Act = el reglamento; ISO 42001 = el sistema operativo que hace el compliance repetible y auditable. AI Act: GPAI obligations desde agosto 2025, enforcement agosto 2026. Fines: EUR 35M o 7% revenue. Traceability: 'Article 43 requirement → Test Y → Evidence Z'.

R430. RSI Security, 'AI Management System Implementation Guide — ISO 42001', noviembre 2025. Roadmap 6 fases. Gap analysis clause-by-clause vs. ISO 27001 existente. Statement of Applicability para los 38 controles. Integración: ISO 27001 + NIST AI RMF + GDPR reduce redundancias.

NIST AI RMF — Framework y Documentación Oficial:

R431. NIST, 'AI 100-1: Artificial Intelligence Risk Management Framework (AI RMF 1.0)', enero 2023. nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf. Cuatro funciones: GOVERN, MAP, MEASURE, MANAGE. Siete características de IA trustworthy. Reconoce AI como socio-técnico. Voluntario y sector-agnóstico. Appendices: AI actor tasks, AI risks vs. traditional software (data drift, emergent behavior, privacy amplification).

R432. NIST, 'AI 100-1 Playbook', actualización semi-anual. airc.nist.gov/airmf-resources/playbook. Suggested actions para cada subcategoría de las 4 funciones. Templates de implementation. Voluntary. Semi-annual updates based on community feedback.

R433. NIST, 'AI 600-1: Artificial Intelligence Risk Management Framework — Generative AI Profile', julio 2024. nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf. Perfil cross-sectoral del AI RMF específico para GAI. 11 riesgos únicos o exacerbados por GAI: confabulation, data privacy, data provenance, harmful bias, human-AI configuration, IP, prompt injection, CBRN information, obscene content, information integrity, value chain. Suggested actions para GOVERN/MAP/MEASURE/MANAGE por cada riesgo.

R434. AIGL Blog, 'NIST AI 100-1: Comprehensive Summary and Analysis', noviembre 2025. GOVERN 1.1 (legal requirements documented), MAP 5.1 (likelihood/magnitude of impacts), MEASURE 2.11 (fairness/bias evaluation), MANAGE 4.1 (post-deployment monitoring, appeal/override, decommissioning). Profiles: Current vs. Target para gap analysis. AI RMF natural benchmark para compliance regulatorio y auditorías externas.

R435. Elevate Consult, 'NIST AI Risk Management Framework: A Builder's Roadmap', diciembre 2025. MANAGE function: resource allocation based on GOVERN definitions. Response/recovery plans para incidentes de IA. AI Inventory con fields: model purpose, data sources, risk exposure, integration points, deployment environments, human-in-the-loop expectations. EU AI Act → perfil High-Risk del AI RMF.

R436. Nemko Digital, 'AI Risk Mitigation & NIST RMF Process: Understanding NIST 2025', 2025. Governance structure 2025: de AI ethics discussions informales a estructuras formales con executive sponsorship. AI lifecycle governance: concept, design, data acquisition, training, testing, deployment, monitoring, retirement. Profiles para benchmarking de madurez y conformity assessments de EU AI Act.

R437. RSI Security, 'Roadmap to Achieving NIST AI RMF', diciembre 2025. GOVERN function: documented roles, training & capability building. GOVERN 2.1 (roles communication), GOVERN 2.2 (AI risk training). Integration AI RMF con ISO 42001, SOC2 AI controls, EU AI Act, internal risk committees.

Microsoft ISO 42001 y Gobernanza de IA:

R438. Microsoft Learn, 'ISO/IEC 42001:2023 Artificial Intelligence Management System Standards', 2025. learn.microsoft.com/en-us/compliance/regulatory/offering-iso-42001. Microsoft certificado ISO 42001 para M365 Copilot y Copilot Chat. Tercero independiente validó el framework de gestión de riesgos. Disponible en Service Trust Portal. Organizaciones pueden usar la certificación de Microsoft en su propio compliance assessment, manteniendo sus propias obligaciones como deployers.

R439. Microsoft, 'Responsible AI Standard v2', junio 2022 (actualizado). El estándar interno de Microsoft que es auditado para ISO 42001. Seis principios: Fairness, Reliability & Safety, Privacy & Security, Inclusiveness, Transparency, Accountability. Proceso de review de impacto para nuevos sistemas de IA. Disponible públicamente en microsoft.com/responsible-ai.

R440. Microsoft Learn, 'Microsoft AI Principles and Approach', 2025. Commitment: responsible AI as core to Microsoft's AI strategy. Azure AI Content Safety, Azure Responsible AI Dashboard, Fairlearn, Presidio, PyRIT: el stack open-source de herramientas de IA responsable de Microsoft.

R441. Vanta, 'Jadee Hanson CISO Prediction 2025: AI Governance Focus', diciembre 2024. Predicción verificada en 2025: enterprises enfocaron fuertemente en AI governance con énfasis en ética y calidad de datos de entrenamiento. ISO 42001 como vehículo de certificación y diferenciación competitiva.

Gobernanza de IA — Frameworks Complementarios:

R442. OECD, 'OECD AI Principles', 2019 (actualizado 2024). Los 5 principios OECD: inclusive growth, human-centered values, transparency, robustness, accountability. Adoptados por 46 países incluyendo Argentina. Base de referencia del AI RMF de NIST (Appendix A). oecd.org/ai/principles.

R443. EU AI Office, 'General-Purpose AI Code of Practice — Draft 3', octubre 2025. GPAI provider obligations desde agosto 2025. Transparency (Art. 53): copyright and training data summaries. Systemic risk (Art. 55): reporting, cybersecurity. ISO 42001 como 'operating system' para demostrar conformity. Fines GPAI: EUR 15M o 3% global revenue.

R444. Elevateconsult, 'EU AI Code of Practice: 2025 Guide + ISO 42001 Map', noviembre 2025. Mapping EU AI Code of Practice → ISO 42001 clauses. Leadership & Policy: ISO clauses on Context, Leadership, Planning. Risk & Impact: risk registers + impact assessments + red team links. Lifecycle Controls: training → eval → deployment gates. Documentation & Evidence: policy set, model card, training data summary, evaluation reports.

R445. UNESCO, 'Recommendation on the Ethics of Artificial Intelligence', noviembre 2021. La recomendación global (193 estados miembros) sobre ética de IA. Principios: proportionality, safety, fairness, sustainability, privacy, multi-stakeholder governance, transparency, responsibility. Referencia para organizaciones con operaciones en múltiples jurisdicciones incluyendo Argentina.

R446. ISACA, 'AI Risk Framework and Governance Guide 2025'. Integración del AI governance con enterprise risk management (ERM). AI governance como extensión del GRC (Governance, Risk, Compliance) existente. ROI del AI governance: reducción de incidentes, menor costo de remediación, ventaja competitiva en licitaciones.

R447. Elevate Consult, 'ISO 42001 + NIST AI RMF Integration Guide', 2025. Mapping ISO 42001 × NIST AI RMF: complementariedad sin duplicación. ISO 42001 Cláusula 6 ↔ NIST AI RMF MAP function. ISO 42001 Cláusula 8 ↔ NIST MEASURE + MANAGE. ISO 42001 Cláusula 9-10 ↔ NIST GOVERN (continuous improvement).

R448. ISACA, 'AI Governance Committee Structure and Best Practices', 2025. Composición recomendada: CEO sponsor, CISO, DPO, CTO, Legal, Negocio, RRHH. Nuevo rol emergente: AI Risk Manager / Chief AI Officer. Frecuencia: mensual para comité operacional, semestral para management review ISO 42001.

R449. Gartner, 'AI Governance Survey 2025'. Solo 51% de organizaciones tiene un framework de gobernanza de datos establecido — prerequisito del AIMS. El 95% de líderes de seguridad reconoce que unificar data security, compliance y privacidad es prioridad y desafío. Vendor consolidation strategy en 75% de organizaciones.

R450. Argentina, 'Propuesta Marco Regulatorio Nacional de IA', 2025 (en consulta). Proceso de definición del marco regulatorio nacional de IA en Argentina. Influenciado por EU AI Act y OECD AI Principles. Implicaciones para organizaciones con 20K+ empleados en Argentina que usan sistemas de IA para procesos que afectan a los trabajadores.

Last updated