checkF6 - 6.0 METODOLOGÍA: SISTEMA DE NIVELES DE EVIDENCIA

§6.0 Metodología — Sistema de 4 niveles de evidencia con tabla visual codificada por color (verde=N1 fuente primaria, azul=N2 análisis independiente, amarillo=N3 inferencia, rojo=N4 sin info pública).

§6.1 Indemnización Copyright — Análisis profundo de 8 proveedores con texto exacto de los Service Terms donde aplica. Microsoft (sin cap, condición filtros documentada), OpenAI (texto exacto de indemnización de outputs para API y Enterprise), Google (cobertura training data también), AWS (solo Titan/CodeWhisperer — gap crítico para modelos terceros en Bedrock documentado), Anthropic (existencia confirmada por terms.law pero términos N4), IBM y Cohere.

§6.2 Zero Data Retention — Anthropic mejor documentado del mercado (N1 con declaración exacta). Microsoft near-zero. Google configurable (N2). OpenAI: no training + 30 días pero sin ZDR completo documentado. DeepSeek: BLOQUEANTE documentado con texto arXiv exacto.

§6.3 Certificaciones — OpenAI Trust Portal con período exacto (ene-jun 2025) y scope por producto. Anthropic con suite completa + NNSA classifiers. Tabla de Google/Azure/AWS como herederas de cloud general.

§6.4 SLAs — Hallazgo clave: solo Azure (99.9% N1) y AWS (99.9% N1) publican SLAs. OpenAI y Anthropic: N4. Tabla resumen de disponibilidad de SLAs por proveedor.

§6.5 Residencia/Soberanía — OpenAI líder (10 regiones N1), Google con EU Data Boundary diferenciador, Anthropic con residencia dependiente del path de deploy (N3), China bloqueante con evidencia N1 para DeepSeek.

§6.6 Tabla Maestra — 16 proveedores × 6 dimensiones con código de color por nivel de evidencia.

§6.7 Gaps Críticos — 6 gaps estructurales del mercado con proveedores afectados identificados.

§6.8 Referencias — R100–R130 organizadas por tipo (fuentes primarias, análisis independientes, marco regulatorio).

6.0 METODOLOGÍA: SISTEMA DE NIVELES DE EVIDENCIA

La naturaleza de los términos contractuales enterprise presenta un desafío metodológico único: los acuerdos más relevantes son confidenciales por definición. Esta fase adopta una restricción estricta: solo se documenta información verificable de forma independiente sin firmar un NDA. El resultado es un baseline de due diligence verificable, no un análisis de lo que cada proveedor podría ofrecer bajo negociación.

NIVEL

DENOMINACIÓN

DESCRIPCIÓN Y CRITERIO DE INCLUSIÓN

NIVEL 1

Fuente Primaria Oficial

ToS/MSA oficial publicado, DPA público, anuncio corporativo oficial, Trust Portal verificable. URL incluida. Máxima confiabilidad.

NIVEL 2

Análisis Publicado Independiente

Análisis de firma legal reconocida (Ropes & Gray, Wilson Sonsini, K&L Gates), consultora (Gartner, IDC), medio especializado (TechCrunch) o paper académico peer-reviewed. Alta confiabilidad.

NIVEL 3

Inferencia de Fuente Pública Parcial

Inferencia razonada de secciones específicas de ToS/DPA público. La sección de referencia está citada. Confiabilidad media — requiere validación contractual directa.

NIVEL 4

Sin Información Pública Disponible

No existe información públicamente verificable. El equipo de due diligence debe solicitar esta información directamente al proveedor bajo NDA o en la negociación comercial.

⚠ Implicancia para procurement: La prevalencia de NIVEL 4 en un proveedor no es necesariamente negativa — puede reflejar que el proveedor solo revela esos términos en negociaciones directas. Sin embargo, NIVEL 4 en criterios críticos (indemnización, ZDR, SLAs) dificulta la comparación objetiva entre proveedores sin invertir en múltiples procesos de negociación paralelos.

La indemnización por derechos de autor (IP indemnity) determina qué parte asume la responsabilidad legal si un tercero demanda al cliente argumentando que el output generado por IA infringe sus derechos de propiedad intelectual. Con el aumento de litigación en el espacio de IA generativa (2023-2026), este término ha pasado de ser secundario a ser un criterio determinante en las negociaciones enterprise.

📄 NIVEL 1: Fuente: blogs.microsoft.com/on-the-issues/2023/09/07/copilot-copyright-commitment-ai-legal-concerns/ + learn.microsoft.com/legal/cognitive-services/openai/customer-copyright-commitment

DIMENSIÓN

DETALLE VERIFICADO

Anuncio y alcance

7 septiembre 2023 (Brad Smith). Extendido a Copilot Studio en junio 2025. Cubre planes de pago: M365 Copilot, GitHub Copilot Commercial, Dynamics 365, Power Platform, Security Copilot, Bing Chat Enterprise, Copilot Studio. EXCLUYE planes consumer/personal.

Cobertura

Microsoft asume defensa legal activa y paga daños/settlements si el cliente de pago es demandado por infracción de copyright en outputs generados.

Alcance financiero

No sujeto al cap general del contrato. Compromiso sin límite explícito publicado — diferenciador frente a competidores.

Condición principal

El cliente debe usar los content filters y guardrails incorporados. Si intenta deliberadamente generar material infractor (bypass de filtros), pierde la protección.

NO cubre

Infracción de trademark, reclamaciones por Customer Content propio del cliente, outputs de modelos open source externos añadidos por el cliente.

Gap [N2]

Análisis Lexology/Directions on Microsoft: la condición 'uso de content filters' puede actuar como cláusula de escape. Clientes que desactivan filtros por rendimiento pierden cobertura sin saberlo. Se recomienda documentar el uso de filtros como evidencia.

6.1.2 OpenAI: Indemnización API Enterprise y ChatGPT Enterprise

📄 NIVEL 1: Fuente: openai.com/policies/services-agreement/ + openai.com/policies/service-terms/ (secciones de indemnización, acceso público)

DIMENSIÓN

DETALLE VERIFICADO

Texto exacto (Servicios API)

'OpenAI agrees to indemnify, defend, and hold Customer harmless against any liabilities, damages and costs (including reasonable attorneys fees) payable to a third party arising out of a Claim alleging that the Services infringe any third-party IP Right.'

Texto exacto (Outputs — API)

'...indemnification obligations include claims that Customer use or distribution of Output infringes a third party intellectual property right.'

Texto exacto (Outputs — Enterprise)

'OpenAIs indemnification obligations to Enterprise customers under the Agreement include claims that Customer use or distribution of Output infringes a third party intellectual property right.'

Alcance financiero

El tope general de responsabilidad (últimos 12 meses de fees) NO aplica a las obligaciones de indemnización. Indemnización sin cap explícito publicado.

Exclusiones documentadas

(a) Combinación de outputs con productos de terceros no provistos por OpenAI; (b) Modificación de servicios por terceros; (c) Customer Content (datos del cliente); (d) Customer Applications construidas sobre la API.

Beta Services

EXCLUIDOS de indemnización — ofrecidos 'as-is' sin garantías. Critical gap para early adopters de features en preview.

Contexto mercado [N2]

Wilson Sonsini (nov. 2023): OpenAI se unió al estándar del sector al anunciar indemnización de outputs. Terms.law (abril 2025): solo Microsoft y Anthropic enterprise ofrecen IP indemnity completa.

6.1.3 Google: Indemnización Workspace y Vertex AI

📄 NIVEL 1 / NIVEL 3: Fuente N1: anuncio Google octubre 2023. Fuente N3: inferencia DPA Workspace + herencia Gemini.

Cobertura declarada [N1]: Google indemniza a clientes de Workspace y Cloud contra reclamaciones de copyright, tanto si derivan del output generado como del uso de datos de entrenamiento de Google. Uno de los compromisos más amplios del mercado al cubrir también training data.

Alcance [N3]: Las protecciones se extienden a Gemini integrado en Docs, Sheets, Gmail y Drive. Vertex AI hereda las protecciones enterprise de Google Cloud incluyendo FedRAMP High, ISO 27001, HIPAA BAA y SOC 2.

Gap [N4]: Los términos específicos (caps, exclusiones precisas, condiciones de activación) no están publicados en documentación técnica pública. Requieren revisión directa del Enterprise Agreement.

6.1.4 AWS Bedrock: Indemnización Modelos Propios Únicamente

📄 NIVEL 1: Fuente: AWS Service Terms, Section 50.10.2 — publicly available at aws.amazon.com/service-terms/

Cobertura — Modelos Propios AWS: La indemnización aplica ÚNICAMENTE a modelos de AWS: Amazon Titan (text-analyzing) y Amazon CodeWhisperer (code-generating).

CodeWhisperer — Cobertura ampliada: Cubre todas las reclamaciones IP incluyendo trademarks (no solo copyright). CONDICIÓN: suscripción Professional con copyright-defending filtering features habilitadas. Usuarios free tier: sin protección.

Exclusión explícita (texto AWS §50.10.2) [N1]: 'AWS will have no obligations or liability [...] with respect to any claim: (i) arising from Generative AI Output generated in connection with inputs or other data provided by you that, alone or in combination, infringe or misappropriate another party intellectual property rights.'

Modelos terceros en Bedrock [N4]: AWS NO indemnifica por outputs de Claude (Anthropic), Llama (Meta), Cohere, Stability AI ni otros modelos de terceros. El cliente debe verificar los términos directamente con el proveedor original.

🔴 Gap crítico — AWS Bedrock + modelos terceros: El modelo multi-proveedor de Bedrock crea un vacío de indemnización. Un cliente que usa Claude via Bedrock recibe cobertura de infraestructura AWS pero NO la indemnización de outputs de Anthropic Enterprise. Ropes & Gray (dic. 2024): 'vendors will generally indemnify users against third-party infringement claims related to outputs, some will not indemnify users for claims that the training data and inputs were infringing.'

6.1.5 Anthropic: Indemnización Enterprise Confirmada (Términos No Públicos)

📄 NIVEL 2 / NIVEL 4: Fuente N2: terms.law análisis abril 2025. Fuente N4: términos exactos NO publicados en ToS público.

Existencia confirmada [N2]: Terms.law (abril 2025): 'All major platforms assign ownership to you, but only Microsoft and Anthropic (enterprise) offer IP indemnity if outputs infringe third-party rights.' Anthropic es uno de solo dos proveedores con indemnización de outputs confirmada por análisis legal independiente.

Contexto litigioso relevante [N1]: El settlement Bartz v. Anthropic ($1.5B, agosto 2025) NO cubre reclamaciones futuras de outputs. Cubre exclusivamente el uso pasado de datos de entrenamiento antes del 25 de agosto de 2025. Las reclamaciones por outputs futuros son materia separada cubierta por los términos enterprise.

Términos exactos [N4]: Los parámetros específicos (alcance preciso, exclusiones, caps, condiciones de activación) NO están publicados en el ToS público accesible. Solo disponibles vía contrato enterprise negociado.

6.1.6 IBM Watsonx, Cohere y Otros

IBM Watsonx — Granite y Slate [N2]: TechCrunch (octubre 2023): IBM provee IP indemnity para modelos Granite y Slate disponibles en Watsonx. Diferenciador en sectores regulados donde la claridad legal sobre outputs es crítica. Términos exactos: [N4].

Cohere [N2]: TechCrunch (octubre 2023): Cohere tiene provisiones tipo 'defend, indemnify and hold harmless' para clientes enterprise que enfrenten reclamaciones por modelos Cohere. Términos exactos: [N4].

Meta AI (Llama open weights) [N3]: No hay relación contractual entre Meta y usuarios downstream. La responsabilidad de compliance recae enteramente en el deployer. Meta AI.com (servicio directo): [N4].

xAI, Mistral, DeepSeek, Alibaba, Tencent, Huawei [N4]: Sin información pública verificable sobre programas de indemnización de copyright enterprise.

6.2 POLÍTICAS DE ZERO DATA RETENTION (ZDR) PARA ENTERPRISE

Zero Data Retention (ZDR) es la política bajo la cual un proveedor procesa solicitudes de forma efímera, sin persistir prompts, outputs ni metadatos tras completar la respuesta. Crítico para GDPR (derecho al olvido), HIPAA (PHI), PCI (datos de pago) y sectores donde la retención de datos sensibles crea exposición regulatoria independientemente de si son accedidos por humanos.

📋 Distinción técnica esencial: La diferencia entre 'no usar datos para entrenamiento' y 'no retener datos' es fundamental. Un proveedor puede no entrenar con los datos del cliente pero retenerlos 30 días en logs de abuse monitoring. ZDR implica ambas garantías: ni entrenamiento ni retención.

6.2.1 Anthropic Claude: ZDR Enterprise Mejor Documentado del Mercado

📄 NIVEL 1: Fuentes: datastudios.org sept. 2025 'Claude: enterprise security configurations'; arXiv:2510.11558 (2025); tdcommons.org abril 2025 SOC 2 comparative audit.

PARÁMETRO

DETALLE DOCUMENTADO (NIVEL 1)

Declaración ZDR

'No prompts, outputs, or metadata are persisted on Anthropic systems.' (datastudios.org, sept. 2025)

Scope

Enterprise API traffic vía commercial organization key. EXCLUYE: Claude.ai web UI y beta features salvo inclusión explícita en contrato firmado.

Activación

Vía executed security addendum. No disponible en planes estándar sin negociación.

Casos de uso típicos

Healthcare (PHI), financial services, regulated cloud environments. Paired con BAA (HIPAA), GDPR addendum, PCI frameworks.

Confirmación independiente

arXiv 2510.11558: 'Anthropic also facilitates organizations with implementing zero data retention.'

Retención estándar (sin ZDR)

tdcommons.org, abril 2025: 'strict 30-day retention limit' para logs en modalidad estándar.

Encryption

AES-256 at rest para stored logs, model outputs, files. TLS 1.2+ in transit. KMS-backed provider-managed keys.

BYOK (Bring Your Own Key)

Anunciado: coming H1 2026. No disponible a fecha de corte (febrero 2026).

6.2.2 Microsoft Azure OpenAI + Copilot: Near-Zero Retention

📄 NIVEL 1: Fuente: arXiv:2510.11558 'Zero Data Retention in LLM-based Enterprise AI' (2025).

Default: Azure OpenAI retiene datos 30 días para abuse monitoring en configuración estándar.

Copilot override [N1]: En modalidad enterprise con monitoring override configurado, el sistema procesa anomalías en tiempo real sin logs persistentes — near-zero retention. Los content filters filtran inputs/outputs en tiempo real sin retenerlos.

Garantía contractual: Azure OpenAI prohíbe contractualmente el uso de Customer Data para entrenar o mejorar el modelo base. Audit logs excluyen el contenido de las conversaciones.

Limitación [N3]: La integración con el ecosystem Azure/M365 puede limitar ZDR completo en deploys que usan servicios auxiliares (Azure AI Search, SharePoint indexing) con sus propias políticas de retención.

6.2.3 Google Vertex AI: ZDR Configurable

📄 NIVEL 2 / NIVEL 1: Fuente N2: arXiv:2510.11558. Fuente N1: tdcommons.org abril 2025 ('Gemini stateless default' documentado).

Google Vertex AI ofrece capacidades de zero-retention configurables. El comparative audit de tdcommons.org documenta el 'Gemini stateless default' para deployments enterprise. EU Data Boundary aplica a Workspace para clientes europeos — limita procesamiento fuera de la región EU.

Gap [N4]: Procedimiento de activación, exclusiones técnicas específicas (carve-outs para safety monitoring), impacto en performance — no publicados en documentación pública accesible.

6.2.4 OpenAI Enterprise: No Training + 30 Días — Sin ZDR Completo Documentado

📄 NIVEL 1 / NIVEL 4: Fuente N1: openai.com/business-data/ + openai.com/enterprise-privacy/. ZDR completo (0 días): [N4].

Garantías documentadas [N1]: API Platform y ChatGPT business products garantizan que los datos no se usan para entrenar modelos. Retención API estándar: 30 días para abuse monitoring. ChatGPT Enterprise/Edu/Healthcare: no entrena con conversaciones.

Data residency [N1]: Disponible en 10 regiones (US, Europe, UK, JP, CA, KR, SG, AU, IN, UAE) para at-rest storage. In-region GPU inference en US y Europa.

ZDR completo (0 días retención) [N4]: No documentado públicamente. Puede estar disponible vía negociación enterprise, pero no verificable sin NDA.

6.2.5 AWS Bedrock: No Training — Retención Específica No Publicada

📄 NIVEL 1 / NIVEL 4: Fuente N1: AWS Service Terms. Retención específica y ZDR: [N4].

AWS garantiza contractualmente (Service Terms) que no usa datos del cliente para mejorar los modelos base. Interacciones con Bedrock permanecen dentro del AWS VPC y no se comparten con proveedores de modelos terceros.

Gap [N4]: Período específico de retención, configuración ZDR completo y exclusiones técnicas no publicados en documentación técnica pública.

6.2.6 DeepSeek: INCOMPATIBLE con ZDR — Almacenamiento en China

🔴 NIVEL 1 — BLOQUEANTE: arXiv:2510.11558 (2025): 'DeepSeek does not offer zero data retention to enterprise clients, retaining user data after processing and allowing it to be shared with third parties. Data is stored on servers in China, which may not comply with GDPR and HIPAA. Their privacy policy permits sharing with advertising partners.' Incompatible con cualquier requisito de privacidad de datos regulados.

6.2.7 Otros Proveedores

Meta Llama (open weights) [N3]: En deployments por terceros, Meta no recopila conversaciones técnicamente. La política de retención es definida por el deployer. Meta AI.com: [N4].

IBM Watsonx, Alibaba, Tencent, Huawei, xAI, Mistral, Cohere [N4]: Sin información pública verificable sobre políticas ZDR enterprise específicas.

6.3 CERTIFICACIONES DE COMPLIANCE PUBLICADAS

Las certificaciones de compliance son verificables de forma independiente, a diferencia de las políticas contractuales. Los Trust Portals (cuando existen) permiten verificación directa de status, período cubierto y scope — haciéndolas el indicador más objetivo de madurez de seguridad.

6.3.1 OpenAI: Trust Portal Comprehensivo

📄 NIVEL 1: Fuente: trust.openai.com (Trust Portal powered by SafeBase). Verificable directamente sin NDA.

CERTIFICACIÓN

STATUS Y ALCANCE DOCUMENTADO

SOC 2 Type II

Período: 1 enero – 30 junio 2025. Cubre: Security, Availability, Confidentiality, Privacy. Scope: API Platform, ChatGPT Enterprise, ChatGPT Edu, ChatGPT Team.

ISO/IEC 27001:2022

Certificado para API, ChatGPT Enterprise, ChatGPT Edu. Vigente.

ISO/IEC 27017:2015

Cloud security controls implementation conforms. Vigente.

ISO/IEC 27018:2019

Personal data in cloud controls conforms. Vigente.

ISO/IEC 27701:2019 (PIMS)

Privacy Information Management System conforms. Vigente.

HIPAA BAA

Disponible para ChatGPT for Healthcare y API healthcare customers (lanzado 2025).

Data Residency

10 regiones: US, EU, UK, JP, CA, KR, SG, AU, IN, UAE (at rest). In-region GPU inference: US y Europa.

6.3.2 Anthropic Claude: SOC 2 + ISO 27001 + HIPAA Elegible

📄 NIVEL 1: Fuentes: datastudios.org septiembre 2025 + tdcommons.org abril 2025 SOC 2 comparative audit.

CERTIFICACIÓN / CONTROL

STATUS Y DETALLE

SOC 2 Type II

Audit independiente completado. Valida security y availability controls de infraestructura Claude. Período exacto: [N4] no publicado.

ISO 27001

Compliance documentado en fuentes secundarias verificables [N2].

HIPAA BAA

Elegible vía executed security addendum. No disponible en plan estándar.

Encryption

AES-256 at rest. TLS 1.2+ in transit. KMS-backed provider-managed keys.

BYOK

Anunciado H1 2026. No disponible a fecha de corte.

SSO

SAML 2.0 y OIDC-based SSO para Claude Enterprise. Domain capture automatizado.

Private Service Connect

GA desde abril 2025 para Claude-hosted tenants en Google Vertex AI.

AWS Bedrock integration

VPC-scoped Claude access para private workloads. Hereda certificaciones AWS.

Safety Classifiers NNSA

Desarrollados con US National Nuclear Security Administration. Detectan prompts de alto riesgo (nuclear, bio, quím). Webhook alerts: private beta, expanding Q1 2026.

6.3.3 Google, Microsoft, AWS: Suite Completa Heredada

Google Vertex AI / Workspace AI [N1]: ISO 27001, 27017, 27018, SOC 2, FedRAMP High, HIPAA BAA, PCI DSS. EU Data Boundary para clientes europeos. Suite más completa del mercado para sectores regulados.

Microsoft Azure OpenAI [N1]: Hereda suite completa de Azure: SOC 2, ISO 27001, HIPAA BAA, FedRAMP High (GovCloud), GDPR compliance. Certificaciones aplican a los servicios Azure OpenAI desplegados en infraestructura Azure del cliente.

AWS Bedrock [N1]: Hereda certificaciones AWS: SOC 2, HIPAA, GDPR, ISO 27001, FedRAMP, PCI DSS. Nota: certificaciones AWS aplican a infraestructura de entrega. Modelos terceros (Claude, Llama, Cohere) pueden tener gaps adicionales que el cliente debe verificar directamente.

6.3.4 Proveedores con Información Parcial o Sin Información

IBM Watsonx [N2]: FLI AI Safety Index: mayor transparencia FMTI del mercado. Certificaciones específicas SOC 2, ISO, HIPAA para Watsonx: [N4].

Meta AI, xAI/Grok, Mistral, DeepSeek, Alibaba, Tencent, Huawei [N4]: Sin información pública verificable sobre certificaciones de compliance enterprise en ninguno de estos proveedores.

6.4 SLAs PUBLICADOS VS. TÉRMINOS ESTÁNDAR

Hallazgo notable de esta fase: la mayoría de los proveedores de IA frontier no publican SLAs de uptime en su documentación estándar, en contraste con los proveedores de cloud general. Esto dificulta la comparación objetiva sin iniciar negociaciones enterprise individuales — una asimetría de información que favorece al proveedor.

6.4.1 Microsoft Azure OpenAI: 99.9% con Matices Operacionales

📄 NIVEL 1: Fuente: redresscompliance.com agosto 2025 'Azure OpenAI SLA and Support: What Is Covered'. Verificable en Azure SLA documentation.

PARÁMETRO SLA

DETALLE

Uptime garantizado

99.9% para Azure OpenAI Service en configuración estándar (shared, multi-tenant).

Remedio

Service credit prorrateado según downtime. NO cubre pérdidas de negocio derivadas del downtime ni remedios más allá del service credit.

SLA NO cubre

Response times / throughput (no hay SLA de performance, solo de uptime). Preview features (sin SLA hasta release oficial — crítico para early adopters de features agénticas).

Provisioned Throughput

Cluster dedicado con performance predecible. Pago fixed hourly. Recomendado para workloads críticos que no pueden tolerar variabilidad de la shared infrastructure.

Shared Service

En peak times: slower responses o rate-limit errors posibles. Sin SLA de performance explícito.

Soporte

Tiered: Standard, Professional Direct, Premier/Unified. Producción AI crítica requiere top-tier (24/7 rapid response). Response times varían según tier contratado.

6.4.2 AWS Bedrock: 99.9% Documentado

[N1]: AWS Bedrock publica SLA de 99.9% uptime heredado de infraestructura AWS. Términos específicos de service credits, exclusiones y performance guarantees adicionales: [N4].

6.4.3 OpenAI Enterprise: Sin SLA de Uptime Publicado

📄 NIVEL 3 / NIVEL 4: Inferido de Service Terms públicos. SLA uptime específico: [N4].

El Service Terms de OpenAI indica que los servicios 'will conform in all material respects with the Documentation' durante el Term, con disclaimer 'AS IS' para el resto. Sin SLA de uptime publicado. Ausencia de SLA public es un gap significativo para procurement enterprise de organizaciones que dependen del servicio para procesos críticos.

Fricción documentada [N2]: blog.premai.io 2026: 'Usage limits cause friction. Developers report hitting caps faster than expected. Enterprise pricing requires significant seat commitments. No live chat support on standard plans.'

6.4.4 Anthropic Claude: Sin SLA de Uptime Publicado

[N4]: No existe SLA de uptime publicado por Anthropic en documentación pública accesible. La disponibilidad del servicio Claude API no está contractualmente garantizada en términos estándar. Este gap es especialmente relevante dado el perfil enterprise y precio premium de Anthropic.

Rate limits documentados [N2]: strapi.io 2026: 'Anthropic enforces rate limits using a token bucket algorithm across Requests Per Minute (RPM), Input Tokens Per Minute (ITPM), and Output Tokens Per Minute (OTPM). Cached tokens generally do not count toward input token rate limits.'

6.4.5 Google Vertex AI: SLA de Plataforma

[N2]: Google publica SLAs de plataforma para Vertex AI heredados de Google Cloud (99.9%). Estructura de pricing modular (training, tuning, inference como categorías separadas). SLA de uptime específico para modelos Gemini en Vertex: [N4].

6.4.6 Resumen: Disponibilidad de SLAs por Proveedor

PROVEEDOR

SLA UPTIME

SLA PERFORMANCE

NIVEL DE EVIDENCIA

Microsoft Azure OpenAI

99.9%

Sin SLA (shared) / Predecible (Provisioned)

NIVEL 1

AWS Bedrock

99.9%

[N4]

NIVEL 1

Google Vertex AI

~99.9% (plataforma)

[N4]

NIVEL 2

OpenAI Enterprise

[N4]

[N4]

NIVEL 4

Anthropic Claude

[N4]

[N4]

NIVEL 4

IBM Watsonx

[N4]

[N4]

NIVEL 4

Meta / xAI / Mistral / Cohere

[N4]

[N4]

NIVEL 4

DeepSeek / Alibaba / Tencent / Huawei

[N4]

[N4]

NIVEL 4

6.5 PORTABILIDAD DE DATOS, RESIDENCIA Y SOBERANÍA

La residencia de datos (dónde se almacenan físicamente) y la soberanía de datos (qué jurisdicción legal controla esos datos) son factores críticos para: (A) organizaciones sujetas al GDPR con restricciones de transferencia internacional; (B) entidades gubernamentales con mandatos de soberanía digital; (C) organizaciones con datos HIPAA que no pueden procesarse en jurisdicciones sin tratado adecuado; (D) cualquier organización que deba cumplir con el PIPL chino o la US CLOUD Act.

PROVEEDOR

REGIONES DISPONIBLES

RESIDENCIA / SOBERANÍA DOCUMENTADA

NIVEL / EVALUACIÓN

OpenAI

10 regiones (ver §6.3.1)

Data at rest en región seleccionada. In-region GPU inference en US y Europa. DPA disponible. GDPR y CCPA compliance documentado. (openai.com/enterprise-privacy)

N1 — Mejor cobertura de regiones del mercado

Microsoft Azure OpenAI

Azure regions globales

Cliente selecciona región Azure. Fine-tuning puede mover datos temporalmente a procesamiento centralizado [N3]. GovCloud para requisitos federales EEUU.

N1/N3 — Gap en fine-tuning documentado

Google Vertex AI

Global + EU Data Boundary

EU Data Boundary para Workspace: garantía de procesamiento en EU. FedRAMP High GovCloud disponible. Data region policies heredadas de Google Cloud.

N1 — EU Data Boundary diferenciador clave para GDPR

AWS Bedrock

Multi-región global

Residencia controlada por región de deployment del cliente. GovCloud para reqs. federales EEUU. VPC isolation estándar por diseño.

N1 — Flexible y bien documentado

Anthropic

API directa, AWS Bedrock, o Google Cloud

Residencia depende del deployment path: API directa (EEUU), Bedrock (región AWS del cliente), Vertex AI (región Google del cliente).

N3 — Sin control directo si no es Bedrock/Vertex

IBM Watsonx

IBM Cloud regiones globales

IBM Cloud soporta EU, US, AP. FedRAMP disponible para gobierno EEUU.

N2 — Documentación pública limitada

DeepSeek

China únicamente

Almacenamiento SOLO en China. CLOUD Act (acceso gov EEUU posible). PIPL 2021. INCOMPATIBLE con GDPR, HIPAA.

N1 — BLOQUEANTE para sectores regulados

Alibaba / Tencent / Huawei

China + algunos int'l

Sujeto a PIPL 2021: consentimiento requerido pero acceso gubernamental chino legalmente posible. Residencia en China crea exposición GDPR severa (transferencia sin garantías adecuadas).

N3 — Riesgo geopolítico significativo

6.6 TABLA MAESTRA COMPARATIVA: TÉRMINOS ENTERPRISE (16 PROVEEDORES)

La siguiente tabla consolida las seis dimensiones contractuales para los 16 proveedores. El color de fondo de cada celda refleja el nivel de evidencia: verde = N1 (fuente primaria), azul = N2 (análisis independiente), amarillo = N3 (inferencia), rojo = N4 (sin info pública).

PROVEEDOR

IPIndemnity

ZDREnterprise

SOC 2Type II

ISO27001

SLAUptime

ResidenciaDocumentada

Microsoft Azure OpenAI

SÍ [N1]

Near-Zero [N1]

SÍ [N1]

SÍ [N1]

99.9% [N1]

Sí — Azure regions [N1]

OpenAI Enterprise

SÍ [N1]

30d / Negoc. [N1]

SÍ [N1]

SÍ [N1]

[N4]

Sí — 10 regiones [N1]

Google Vertex AI

SÍ [N1]

Config. [N2]

SÍ [N1]

SÍ [N1]

~99.9% [N2]

Sí — EU Boundary [N1]

AWS Bedrock

Solo Titan [N1]

No training [N1]

SÍ [N1]

SÍ [N1]

99.9% [N1]

Sí — Multi-región [N1]

Anthropic Enterprise

SÍ [N2]

SÍ [N1]

SÍ [N1]

SÍ [N2]

[N4]

Depende path [N3]

IBM Watsonx

Granite/Slate [N2]

[N4]

[N4]

[N4]

[N4]

IBM Cloud [N2]

Meta Llama (hosted)

NO [N3]

[N4]

[N4]

[N4]

[N4]

[N4]

Meta Llama (self-hosted)

N/A

Control total

N/A

N/A

N/A

Cliente controla

Databricks

N/A plataforma

Workspace [N2]

SÍ [N2]

[N2]

[N4]

Multi-cloud [N2]

Cohere

Tipo DHH [N2]

[N4]

[N4]

[N4]

[N4]

[N4]

xAI / Grok

[N4]

[N4]

[N4]

[N4]

[N4]

[N4]

Mistral AI

[N4]

[N4]

[N4]

[N4]

[N4]

EU — Inferido [N3]

DeepSeek

[N4]

NO [N1]

[N4]

[N4]

[N4]

China — BLOQUEANTE [N1]

Alibaba Qwen

[N4]

[N4]

[N4]

[N4]

[N4]

China [N3]

Tencent Hunyuan

[N4]

[N4]

[N4]

[N4]

[N4]

China [N3]

Huawei PanGu

[N4]

[N4]

[N4]

[N4]

[N4]

China [N3]

📌 Lectura de la tabla: N/A indica que el criterio no aplica al modelo de negocio del proveedor. BLOQUEANTE en DeepSeek/China indica incompatibilidad documentada (N1) con GDPR e HIPAA. 'Hosted' vs 'self-hosted' para Meta refleja una diferencia de modelo de negocio con implicaciones contractuales radicalmente distintas.

6.7 GAPS CRÍTICOS PARA DUE DILIGENCE

El análisis de esta fase revela seis gaps estructurales en la transparencia contractual del mercado de IA enterprise que impiden la comparación objetiva sin invertir en negociaciones individuales con cada proveedor:

GAP IDENTIFICADO

DESCRIPCIÓN E IMPLICACIÓN

PROVEEDORES AFECTADOS

GAP 1Ausencia de SLAs de Uptime Publicados

OpenAI y Anthropic —dos de los proveedores de mayor adopción enterprise— no publican SLAs de uptime. Solo Azure OpenAI y AWS Bedrock publican 99.9%. Los equipos de procurement no pueden comparar commitments de disponibilidad sin negociaciones enterprise individuales con cada proveedor. Estándar inaceptablemente bajo para servicios de los que dependen procesos críticos.

OpenAI, Anthropic, IBM, xAI, Mistral, Cohere, todos los [N4]

GAP 2Términos de Indemnización No Públicos

Anthropic, IBM y Cohere tienen programas de indemnización confirmados por análisis legales independientes, pero los términos exactos (alcance, exclusiones, caps, condiciones) no están publicados. Los equipos legales negocian sin baseline de comparación. Solo Microsoft y OpenAI tienen términos suficientemente públicos para evaluación previa.

Anthropic, IBM, Cohere, y todos los [N4]

GAP 3ZDR No Documentado en Líderes

OpenAI, Google y AWS ofrecen ZDR inferido o parcialmente documentado, pero los procedimientos de activación y exclusiones técnicas específicas (¿qué logs quedan? ¿carve-outs para safety monitoring?) no están publicados. Anthropic y Microsoft tienen la mejor documentación pública disponible.

OpenAI, Google, AWS, IBM, xAI, Cohere, Mistral

GAP 4Proveedores Chinos Sin Transparencia

Alibaba, Tencent, Huawei y DeepSeek tienen [N4] en todas las dimensiones contractuales enterprise. El único dato verificable: DeepSeek explícitamente NO ofrece ZDR y almacena en China (incompatible con GDPR/HIPAA). Los tres proveedores chinos restantes carecen completamente de información pública sobre indemnización, ZDR, certificaciones o SLAs.

DeepSeek, Alibaba, Tencent, Huawei

GAP 5Meta Open Weights Sin Relación Contractual

El modelo open weights crea un vacío contractual total: no existe relación legal entre Meta y los usuarios finales que despliegan Llama. Indemnización, ZDR, compliance y SLAs son responsabilidad del deployer, no de Meta. Esto es técnicamente una ventaja de control pero requiere madurez técnica de ML/MLOps significativa que muchas organizaciones no tienen.

Meta Llama (deployments por terceros)

GAP 6Preview/Beta Features Sin Protecciones

OpenAI, Microsoft y Google excluyen explícitamente features en preview/beta/alpha de sus programas de indemnización y SLAs. Los equipos que adoptan early access (frecuente en IA agéntica, multimodal, herramientas de coding) asumen riesgo legal y operacional completo hasta que la feature alcanza GA (General Availability).

OpenAI (Beta Services), Microsoft (Preview), Google (Experimental)

6.8 REFERENCIAS

Fuentes Primarias — Términos Contractuales Oficiales (NIVEL 1):

  1. R100. Microsoft, Copilot Copyright Commitment (Brad Smith), sept. 2023. blogs.microsoft.com/on-the-issues/2023/09/07/copilot-copyright-commitment-ai-legal-concerns/

  2. R101. Microsoft, Customer Copyright Commitment — Azure OpenAI. learn.microsoft.com/en-us/legal/cognitive-services/openai/customer-copyright-commitment

  3. R102. OpenAI, Services Agreement (público). openai.com/policies/services-agreement/ — Sección Indemnification.

  4. R103. OpenAI, Service Terms (específico). openai.com/policies/service-terms/ — Sección Output Indemnity.

  5. R104. OpenAI, Business Data Policy. openai.com/business-data/

  6. R105. OpenAI, Enterprise Privacy. openai.com/enterprise-privacy/

  7. R106. OpenAI, Expanding Data Residency Access to Business Customers. openai.com/index/expanding-data-residency-access-to-business-customers-worldwide/

  8. R107. OpenAI, Trust Portal (SafeBase). trust.openai.com — SOC 2 Type II (ene-jun 2025), ISO 27001:2022, ISO 27017, 27018, 27701.

  9. R108. AWS, Service Terms Section 50.10.2 — Indemnified Generative AI Services. aws.amazon.com/service-terms/

  10. R109. arXiv:2510.11558, 'Zero Data Retention in LLM-based Enterprise AI', 2025. Cubre: Azure OpenAI, Anthropic, Google, DeepSeek, Salesforce AgentForce.

Análisis Independientes y Fuentes Secundarias (NIVEL 2):

  1. R110. Terms.law, 'AI Platform IP Rights Analysis', abril 2025. Confirma: solo Microsoft y Anthropic enterprise ofrecen IP indemnity de outputs.

  2. R111. TechCrunch, 'AI vendors promised indemnification against lawsuits. The details are messy', enero 2024. Cubre: IBM (Granite/Slate), Cohere, OpenAI, Google.

  3. R112. Wilson Sonsini, 'Will Indemnification Commitments Address Market Demands in AI?', noviembre 2023.

  4. R113. Ropes & Gray LLP, 'End-of-Year Update on AI-Related Copyright Litigation', diciembre 2024.

  5. R114. Ropes & Gray LLP, 'Anthropic Landmark Copyright Settlement: Implications for AI Developers', septiembre 2025. Settlement Bartz v. Anthropic ($1.5B).

  6. R115. Lexology / Directions on Microsoft, análisis Copilot Copyright Commitment — gaps condición content filters, 2024.

  7. R116. datastudios.org, 'Claude: enterprise security configurations and deployment controls explained', septiembre 2025.

  8. R117. Ramkumar Bharathan, 'Securing the Future of AI: SOC 2, ISO 27001 and NIST Comparative Review', tdcommons.org, abril 2025.

  9. R118. redresscompliance.com, 'Azure OpenAI SLA and Support: Whats Covered (and Whats Not)', agosto 2025.

  10. R119. cloudoptimo.com, 'Google Vertex AI pricing and SLA overview', mayo 2025.

  11. R120. strapi.io, 'Anthropic rate limits and enterprise constraints', 2026.

  12. R121. blog.premai.io, 'Enterprise AI pricing friction — usage limits and support gaps', 2026.

  13. R122. Future of Life Institute, AI Safety Index Summer 2025. Meta (unico lab sin responder encuesta). IBM (mayor transparencia FMTI).

Marco Regulatorio Aplicable a Términos Contractuales:

  1. R123. GDPR Art. 28 (Data Processing Agreements), Art. 9 (datos especiales), Art. 44-49 (transferencias internacionales).

  2. R124. HIPAA §164.308 (BAA requirements). HHS Office for Civil Rights guidance on cloud computing.

  3. R125. DORA (EU 2022/2554), Art. 30: contenido minimo de contratos con proveedores TIC criticos. Entrada en vigor enero 2025.

  4. R126. BaFin, Orientacion sobre riesgos TIC con IA bajo DORA, diciembre 2025.

  5. R127. EU AI Act (EU 2024/1689), Art. 13 (transparencia), Art. 6 + Anexo III (sistemas alto riesgo). Compliance obligatorio agosto 2026.

  6. R128. OCC/Fed/FDIC, TPRM Guidance 2023 — clausulado minimo con proveedores tecnologicos.

  7. R129. China PIPL (Personal Information Protection Law), 2021. Aplicable a Alibaba, Tencent, Huawei, DeepSeek.

  8. R130. US CLOUD Act — acceso gubernamental a datos en servidores de empresas EEUU, incluso en el exterior.

Last updated