checkF3 - FASE 3: DOCUMENTOS PÚBLICOS, TRANSPARENCIA Y ACCOUNTABILITY

§3.1 Stanford FMTI 2025 — Tabla completa de los 13 proveedores evaluados + los 5 restantes del análisis, con puntajes, tendencia vs. 2024, punto máximo divulgado y gap crítico. Hallazgos clave: declive generalizado (promedio cayó de 58 a 40/100), IBM lidera con 95/100, Meta cayó 29 puntos, xAI obtuvo 11/100 (último), impacto ambiental es el punto ciego universal de la industria.

§3.2 FLI AI Safety Index Summer + Winter 2025 — Tabla de calificaciones (A-F) para los 8 laboratorios en 6 dominios. Hallazgo central: ningún laboratorio obtuvo más de C+ en el índice general, y todos obtuvieron D o F en Existential Safety. Análisis específico por laboratorio con fortalezas y debilidades documentadas.

§3.3 EU AI Act GPAI Code of Practice — Marco regulatorio vinculante en vigor desde agosto 2025. Tabla de posición regulatoria de los 16 proveedores: quiénes son firmantes, qué capítulos suscribieron, si son systemic risk (>10²⁵ FLOPs), e implicancias. Caso destacado: xAI firmó solo el capítulo Safety pero no Transparencia ni Copyright — situación señalada explícitamente por la Comisión Europea.

§3.4 System Cards y Model Cards — Matriz de documentación técnica por proveedor: disponibilidad de system card, model card, red team report y safety eval hub público, con inconsistencias documentadas (ej. GPT-4.1 sin system card, Llama 4 sin reporte técnico, Grok 4 sin ningún documento).

§3.5 Mecanismos de Accountability — Análisis de efectividad de 7 mecanismos (índices académicos, EU AI Act, Seoul Commitments, bug bounty, investigaciones regulatorias, whistleblowing, cross-lab evals) con cuatro gaps sistémicos estructurales identificados.

§3.6 Tabla de Triangulación Consolidada — Los 16 proveedores evaluados simultáneamente en FMTI + FLI + EU GPAI Code, con evaluación consolidada para due diligence.

§3.7 Referencias — 23 referencias adicionales [R41–R63].

FASE 3: DOCUMENTOS PÚBLICOS, TRANSPARENCIA Y ACCOUNTABILITY

La Fase 3 examina evidencia de tercer tipo: no lo que los proveedores declaran sobre sí mismos (Fase 1) ni cómo articulan su filosofía (Fase 2), sino lo que evidencia externa e índices independientes revelan sobre sus prácticas reales de transparencia y rendición de cuentas. Las fuentes centrales son tres: (1) el Stanford Foundation Model Transparency Index (FMTI) 2025, que mide 100 indicadores de transparencia en 13 proveedores; (2) el Future of Life Institute (FLI) AI Safety Index, publicado en ediciones Summer y Winter 2025, con calificaciones de expertos independientes en 6-8 laboratorios; y (3) el EU AI Act GPAI Code of Practice (julio-agosto 2025), que establece las primeras obligaciones legalmente vinculantes de transparencia para modelos de propósito general en la Unión Europea.

Las tres fuentes son independientes, metodológicamente distintas y miden dimensiones complementarias: el FMTI mide divulgación de información; el FLI Safety Index mide calidad de las prácticas de seguridad; y el EU AI Act establece requisitos regulatorios mínimos vinculantes. Combinadas, permiten una triangulación significativa del gap entre declaración y práctica.

3.1 STANFORD FMTI 2025: ÍNDICE DE TRANSPARENCIA DE MODELOS

Foundation Model Transparency Index — Tercera Edición, Diciembre 2025

El FMTI 2025, publicado en diciembre de 2025 por un equipo de investigadores de Stanford, Berkeley, Princeton y MIT, es el instrumento de medición de transparencia corporativa más sistemático disponible para modelos de IA fundacionales. Su tercera edición evalúa 100 indicadores organizados en 18 subdominios (recursos para el desarrollo, propiedades del modelo, impacto downstream) para 13 compañías. De los 23 proveedores contactados, solo 7 presentaron reportes de transparencia voluntariamente; el equipo del FMTI preparó reportes para las 6 compañías restantes basándose en información públicamente disponible. Este dato es en sí mismo revelador: el 70% de las empresas más relevantes del ecosistema no consideró oportuno participar activamente en el proceso. [NIVEL 1: crfm.stanford.edu/fmti/December-2025, diciembre 2025]

3.1.1 Hallazgo Principal: Declive Generalizado de la Transparencia

El hallazgo más significativo del FMTI 2025 es que la transparencia en la industria ha disminuido frente a 2024, revirtiendo el progreso observado ese año y retornando a niveles de 2023. El puntaje promedio cayó de 58/100 en 2024 a 40/100 en 2025. Seis compañías disminuyeron sus puntajes, con Meta reduciéndolo a la mitad (de 60 a 31) y Mistral en más de dos tercios (de 55 a 18). OpenAI cayó 14 puntos. Amazon, Anthropic y Google cayeron menos de 10 puntos cada una. [NIVEL 1: FMTI 2025, Stanford]

[Stanford FMTI 2025, "Meta and OpenAI started first and second in 2023, but now are last and second-to-last respectively", crfm.stanford.edu/fmti/December-2025, diciembre 2025] [NIVEL 1]

3.1.2 Tabla de Puntuaciones FMTI 2025 (100 indicadores)

La tabla incorpora los 13 proveedores evaluados por el FMTI más los 3 proveedores del análisis no evaluados (Oracle, Teradata, Cloudera) marcados con N/E (no evaluado por ausencia de modelos fundacionales propios):

PROVEEDOR

FMTI 2025(/ 100)

GRUPOFMTI

TRENDvs. 2024

PUNTO MÁXIMODIVULGADO

GAP CRÍTICOIDENTIFICADO

IBM

95

Top

▲ (+30 vs 2024)

Governance, datos entrenamiento, energía — 6 indicadores únicos

Menor presencia en modelos frontier

Writer (Palmyra)

79

Top

▲ (+15)

Compliance, downstream use, términos de servicio

Escala limitada vs. frontier labs

AI21 Labs

66

Top

▲ (+41 vs 2023)

Datos de entrenamiento, compute, emisiones

Retrocedió en emisiones en 2025

Anthropic

47

Medio

▼ (-5)

RSP, system cards, usage policies — domina a OpenAI en casi todos los indicadores

Sin bug bounty; sin data retention policy explícita

Google (Gemini)

44

Medio

▼ (-6)

FSF, safety reports anuales, AI Principles

Sin model information disclosure (arquitectura, tamaño); demora en Gemini 2.5 card

Amazon (AWS)

42

Medio

▼ (-2)

AI Service Cards, Responsible Use Guide, downstream info

Sin model information disclosure; opaco en impacto ambiental

OpenAI (GPT-5)

38

Medio

▼ (-14)

GPT-5 System Card, Usage Policies, bug bounty, Preparedness Framework

Sin model information disclosure; sin info de impacto ambiental; GPT-4.1 sin system card

DeepSeek

31

Medio-bajo

N/E (1a edición)

Datos parciales de entrenamiento (open weights)

Sin safety framework; sin governance pública; regulación china

Meta (Llama 4)

31

Medio-bajo

▼ (-29)

Llama AUP, partial open-weight data

No publicó reporte técnico para Llama 4; regresión histórica mayor

Alibaba (Qwen)

28

Medio-bajo

N/E (1a edición)

Tamaño de datos de entrenamiento

Sin impacto ambiental; sin model info; regulación china

Mistral

18

Bajo

▼ (-37)

Partial open weights info

Regresión crítica; no preparó reporte para FMTI

xAI (Grok)

11

Bajo

N/E (1a edición)

Mínimo: términos de servicio básicos

Sin model info, sin safety framework, sin impacto ambiental, sin sistema card Grok 4

Snowflake

N/E

Gobernanza de datos (lineaje, auditoría)

Sin modelo fundacional propio; sin framework AI ethics verificable

Databricks

N/E

DAGF documentado; Testing Framework (TAP, PAIR)

No desarrolla modelos frontier; gobernanza del despliegue cliente-variable

Teradata

N/E

Referencias UNESCO/OECD/Asilomar

Sin framework propio; adopción por referencia sin implementación técnica

Oracle

N/E

Página Responsible AI web

Sin documento con versioning/URL/fecha verificable; infraestructura crítica sin marco AI ethics

Cloudera

N/E

Data governance empresarial (lineaje, auditoría)

Sin documentación primaria AI ethics identificada

Huawei Cloud

N/E

TC260 compliance; AI for Good ITU

Sin framework autónomo; restricciones geopolíticas; sin evaluación independiente occidental

Nota metodológica: Los puntajes FMTI para empresas con N/E (Snowflake, Databricks, Teradata, Oracle, Cloudera, Huawei Cloud) se deben a que el FMTI evalúa exclusivamente proveedores con modelos fundacionales propios. La columna 'Gap crítico' para estos proveedores es de elaboración propia del consultor basada en investigación directa (Fases 1-2).

3.1.3 Hallazgos Clave del FMTI 2025 Relevantes para Due Diligence

Primero: los proveedores enterprise-focused (IBM, AI21 Labs, Writer, Amazon) son consistentemente más transparentes que los consumer-focused o de estrategia híbrida. Los tres primeros del ranking FMTI son todos enterprise. Esto sugiere que la presión del cliente corporativo —con sus procesos de due diligence, auditorías y requerimientos de cumplimiento— genera incentivos de transparencia más efectivos que la presión regulatoria o el compromiso voluntario. [NIVEL 1: FMTI 2025]

Segundo: openness y transparencia son dimensiones distintas que no correlacionan de manera automática. Meta, DeepSeek y Alibaba publican pesos abiertos (open weights) pero se ubican en la mitad inferior del ranking de transparencia. IBM publica pesos abiertos y es el proveedor más transparente. El hecho de que un proveedor abra sus pesos no implica que divulgue información sobre datos de entrenamiento, impacto ambiental, o gobernanza de seguridad. [NIVEL 1: FMTI 2025]

Tercero: el impacto ambiental es el punto ciego universal de la industria. Diez de las 13 empresas evaluadas —incluyendo OpenAI, Anthropic, Google, Amazon y Meta— no divulgan ninguna información sobre uso de energía, emisiones de carbono o consumo de agua. Esto es especialmente relevante en 2025-2026, cuando las inversiones en datacenters de IA están impactando materialmente las redes eléctricas y los costos energéticos. [NIVEL 1: FMTI 2025]

Cuarto: Amazon, Google, Midjourney, Mistral, OpenAI y xAI no obtuvieron ningún indicador en el subdominio 'model information' —que incluye arquitectura, modalities, tamaño de parámetros, componentes. Esto significa que usuarios downstream, incluyendo organizaciones que integran estos modelos en sistemas críticos, no disponen de información técnica básica del modelo que están usando. [NIVEL 1: FMTI 2025]

[Stanford FMTI 2025, "Current transparency practices most directly reflect the priority placed on transparency, instead of systemic pressures that incentivize or disincentivize transparency", crfm.stanford.edu/fmti/December-2025/paper.pdf, diciembre 2025] [NIVEL 1]

3.2 FLI AI SAFETY INDEX: EVALUACIÓN EXPERTA DE PRÁCTICAS DE SEGURIDAD

Future of Life Institute — Ediciones Summer y Winter 2025

El FLI AI Safety Index complementa al FMTI en una dimensión crítica: evalúa no solo la divulgación de información sino la calidad de las prácticas de seguridad y la adecuación de los frameworks de governance frente a los riesgos que los propios laboratorios declaran perseguir. La edición Summer 2025 evaluó 7 laboratorios en 33 indicadores distribuidos en 6 dominios; la edición Winter 2025 evaluó 8 laboratorios (añadiendo Alibaba Cloud) en 35 indicadores. La evaluación fue realizada por paneles de expertos académicos e institucionales independientes con acceso a materiales públicos más respuestas a encuestas de los propios laboratorios.

Una restricción metodológica importante: la evidencia de la edición Winter fue recopilada hasta el 8 de noviembre de 2025, por lo que no refleja eventos posteriores como el lanzamiento de Gemini 3 Pro (DeepMind) ni el incidente Grok Imagine de diciembre 2025. [NIVEL 1: futureoflife.org/ai-safety-index-winter-2025, diciembre 2025]

3.2.1 Calificaciones Generales — FLI AI Safety Index Winter 2025

PROVEEDOR

GENERAL

Risk Assess.

Safety Framework

Info Sharing

Safety Bench.

Existential Safety

FORTALEZA / DEBILIDAD CLAVE

Anthropic

C+

B

B+

C+

B+

D

Lideró en bio-risk (únicos con trials humanos), privacidad, CAI. Aún sin plan de control AGI.

OpenAI

C+

B-

B

B

B

D

Único con whistleblowing policy publicada. Criticado por lobbying contra leyes estatales AI.

Google/DeepMind

C

C+

C+

C

C+

D

Whistleblowing policy publicada (mejora 2025). Falta coordinación safety team ↔ policy team.

xAI

D+

D

D+

D

D+

D-

Publicó primer safety framework estructurado (2025), pero 'estrecho y sin mitigation triggers claros'.

Meta

D

D

D-

D

D

F

Sin evidencia de inversión en safety más allá del mínimo. Único laboratorio que no respondió la encuesta FLI.

DeepSeek

D-

D-

F

D

D

F

Sin safety framework publicado. Regulación china como único marco de referencia.

Alibaba Cloud

D-

D-

F

D-

D

F

Sin safety framework publicado. Régimen regulatorio chino sin equivalencia con estándares occidentales.

Z.ai

D+

D+

D

B-

D+

D

Único que permite publicación sin censura de evaluaciones safety externas. Requiere framework completo.

Nota: Los colores de calificación siguen el sistema estándar: verde=A-B, amarillo=C, naranja=D, rojo=F. La escala es absoluta, no relativa: un C+ significa que hay trabajo significativo pendiente, no que el proveedor es relativamente bueno. Microsoft, IBM, AWS, Databricks y proveedores de plataforma no fueron evaluados por el FLI Safety Index (fuera del alcance del índice, que se centra en laboratorios de modelos frontier).

3.2.2 Hallazgo Estructural: Ningún Laboratorio tiene un Plan de Control AGI Creíble

El hallazgo más alarmante del FLI Safety Index —tanto Summer como Winter 2025— es que ninguna de las compañías evaluadas presentó un plan concreto y verificable para controlar la AGI o superinteligencia que públicamente declaran perseguir. Todas las empresas obtuvieron una calificación 'D' o inferior en el dominio de Existential Safety —incluyendo Anthropic, que lidera el ranking general. Este resultado es especialmente relevante para el due diligence porque implica que la 'safety' declarada por estos laboratorios es de naturaleza operacional-inmediata (prevención de daños actuales) pero no de naturaleza existencial-preventiva (prevención de pérdida de control sobre sistemas superinteligentes).

[Future of Life Institute AI Safety Index Winter 2025, "All eight companies reviewed are racing toward AGI/superintelligence without presenting any explicit plans for controlling or aligning such smarter-than-human technology, leaving the most consequential risks effectively unaddressed", futureoflife.org/ai-safety-index-winter-2025, diciembre 2025] [NIVEL 1]

Stuart Russell, Profesor de Computer Science en UC Berkeley y co-revisor del índice, articuló la posición del panel de expertos con precisión: 'AI CEOs claim they know how to build superhuman AI, yet none can show how they'll prevent us from losing control — after which humanity's survival is no longer in our hands.' Max Tegmark, presidente del FLI, comparó la situación regulatoria con la industria alimentaria: 'AI is less regulated than sandwiches in the United States, and there is continued lobbying against binding safety standards.' [NIVEL 2: declaraciones públicas, diciembre 2025]

Desde la perspectiva del due diligence de una organización cliente, este hallazgo tiene dos implicancias: primero, que los contratos con estos proveedores no pueden apoyarse en sus frameworks de safety para riesgos de largo plazo; segundo, que los clientes que operen en sectores críticos (finanzas, salud, infraestructura) tienen la responsabilidad primaria de diseñar sus propias capas de mitigación para los sistemas AI que adopten.

3.2.3 Hallazgos Específicos por Proveedor (FLI Summer 2025)

Anthropic lideró en tres dimensiones: fue el único laboratorio que realizó human participant bio-risk trials; destacó en privacidad por no entrenar en datos de usuario por defecto; y su estructura de Public Benefit Corporation fue valorada positivamente como mecanismo de governance. Sin embargo, fue criticado por discontinuar los trials humanos en ediciones posteriores y por comenzar a entrenar en interacciones de usuario como default, lo cual debilita las protecciones de privacidad. [NIVEL 1: FLI AI Safety Index Summer 2025]

OpenAI fue el único laboratorio en publicar su política de whistleblowing completa —señalado como modelo que otros deberían adoptar. También fue valorado por un enfoque de risk management más robusto que Google en su Safety Framework. Las críticas se concentraron en umbrales de safety ambiguos, lobbying activo contra legislación de AI safety en estados de EEUU, y supervisión independiente insuficiente. [NIVEL 1: FLI AI Safety Index Summer 2025]

Google DeepMind recibió reconocimiento por su inversión en alignment research de largo plazo (scalable oversight, interpretability). Las recomendaciones del FLI apuntaron a la necesidad de mejorar la coordinación entre el safety team y el policy team de Google, y publicar resultados de evaluaciones sobre modelos sin safety guardrails para una mejor aproximación a las capacidades reales. [NIVEL 1: FLI AI Safety Index Summer 2025]

Meta fue el único laboratorio que no respondió la encuesta del FLI en la edición Summer 2025 —un rechazo al proceso de accountability externo que refuerza el patrón de opacidad documentado en el FMTI. El FLI identificó 'evidencia mínima de inversión en safety research más allá de la operacional básica'. [NIVEL 1: FLI AI Safety Index Summer 2025]

3.3 EU AI ACT: PRIMER MARCO REGULATORIO VINCULANTE — GPAI CODE OF PRACTICE

La Unión Europea representa el único contexto jurisdiccional donde la transparencia de modelos de IA fundacionales está sujeta a obligaciones legalmente vinculantes. El EU AI Act, en vigor desde agosto de 2024, estableció las obligaciones para modelos de propósito general (GPAI) a partir del 2 de agosto de 2025. En julio de 2025, la Comisión Europea publicó tres instrumentos complementarios: las Directrices sobre el alcance de las obligaciones GPAI, el GPAI Code of Practice (firmado el 10 de julio, en vigor el 1 de agosto), y la Plantilla para el resumen de datos de entrenamiento. [NIVEL 1: digital-strategy.ec.europa.eu, julio-agosto 2025]

3.3.1 Alcance de las Obligaciones GPAI

El AI Act define modelos GPAI como aquellos entrenados con más de 10²³ FLOPs y capaces de generar texto, audio, imágenes o video con capacidades generales. Esto incluye GPT-5, Claude 4, Gemini 3, Grok 4, y Llama 4. Los modelos GPAI entrenados con más de 10²⁵ FLOPs se presumen de 'alto impacto' (systemic risk) y están sujetos a obligaciones adicionales de notificación a la AI Office.

Las obligaciones básicas para todos los GPAI incluyen: documentación técnica detallada actualizada durante toda la vida útil del modelo (mínimo 10 años); información compartida con downstream providers; resumen de datos de entrenamiento usando la plantilla oficial; y política de copyright. Los modelos de systemic risk añaden: evaluación de riesgos pre-market, mitigaciones obligatorias, reporte de incidentes graves, y evaluaciones externas. [NIVEL 1: EU AI Act + GPAI Guidelines, julio-agosto 2025]

La plena aplicabilidad del régimen sancionatorio (multas de hasta 3% del volumen de negocios anual global o 15 millones de euros, lo que sea mayor) está prevista para el 2 de agosto de 2026. Los modelos comercializados antes del 2 de agosto de 2025 tienen hasta el 2027 para adaptarse.

3.3.2 GPAI Code of Practice: Contenido y Signatarios

El GPAI Code of Practice, desarrollado mediante un proceso multi-stakeholder de casi un año, cubre tres capítulos: Transparencia (obligatorio para todos los GPAI), Derechos de Autor (obligatorio para todos los GPAI), y Seguridad y Safety (obligatorio para modelos con systemic risk). Aunque su adhesión es voluntaria, los signatarios obtienen una 'presunción de conformidad' con el AI Act —lo que en la práctica los convierte en la ruta de menor riesgo regulatorio para los proveedores. Los no signatarios deben demostrar cumplimiento por medios alternativos y pueden esperar mayor escrutinio de la AI Office.

Una nota relevante para el análisis: xAI firmó el capítulo de Safety and Security pero se excluyó de los capítulos de Transparencia y Copyright —una decisión que la Comisión ha señalado explícitamente en su sitio web, indicando que xAI 'deberá demostrar cumplimiento de las obligaciones de transparencia y copyright por medios alternativos'. [NIVEL 1: digital-strategy.ec.europa.eu/en/policies/contents-code-gpai, 2025]

3.3.3 Posición Regulatoria de los 16 Proveedores Frente al EU AI Act GPAI

PROVEEDOR

¿Modelo GPAIen UE?

¿Firmante GPAICode of Practice?

¿Systemic Risk(>10²⁵ FLOPs)?

IMPLICANCIAS Y GAPS REGULATORIOS

Anthropic (Claude 4)

Sí (todos los capítulos)

Probable Sí

Notificación previa requerida si 10²⁵ FLOPs confirmados. Cumplimiento CoP = presunción conformidad AI Act.

OpenAI (GPT-5)

Sí (todos los capítulos)

Sí (confirmado)

GPT-5 notificado a la AI Office. Obligaciones systemic risk en vigor. GPT-4.1 sin system card = posible gap documental.

Google/DeepMind (Gemini 3)

Sí (todos los capítulos)

Demora en publicar model card para Gemini 2.5 generó escrutinio de parlamentarios británicos. Precedente sobre velocidad de divulgación.

Microsoft (Azure AI)

Sí (hosting)

Sí (todos los capítulos)

Por modelo hospedado

Como hosting provider, Microsoft asume responsabilidades adicionales por modelos de terceros (OpenAI, Meta) ofrecidos en Azure. Delimitación con originadores no completamente documentada.

Meta (Llama 4)

Sí (limitado)

Sí (todos los capítulos)

Meta excluyó Llama 3.2 multimodal del mercado europeo sin explicación pública. Llama 4 disponible con restricciones. No publicó reporte técnico = posible gap documental AI Act.

IBM (Granite)

Sí (todos los capítulos)

No probable

Granite models dentro de umbrales estándar. Mayor puntaje FMTI = mejor posición de partida para cumplimiento documentación AI Act.

AWS (Bedrock)

Sí (hosting)

Sí (todos los capítulos)

Por modelo hospedado

Similar a Microsoft: responsabilidades de hosting para modelos de terceros en Bedrock. Complejidad: múltiples modelos GPAI con distintos niveles de riesgo en la misma plataforma.

xAI (Grok)

Solo Safety & Security

Sí (probable)

POSICIÓN CRÍTICA: Firmó Safety pero NO Transparencia ni Copyright. Debe demostrar cumplimiento de estas dos obligaciones por medios alternativos. AI Office ha señalado explícitamente esta situación. Mayor exposición sancionatoria potencial de todos los firmantes.

Databricks

Sí (plataforma)

No aplicable como originador

No

Databricks no desarrolla GPAI propio; sus clientes pueden desarrollar modelos GPAI usando la plataforma. Obligaciones AI Act recaen sobre el cliente-desarrollador, no sobre Databricks como infraestructura.

Alibaba (Qwen-UE)

Limitado

No confirmado

Probable Sí

Presencia en mercado europeo vía Qwen models en Hugging Face y API. Adhesión al CoP no confirmada públicamente. Regulación china puede generar conflictos con requerimientos de AI Office.

Tencent, Huawei, DeepSeek

Limitado / Incierto

No confirmado

Posible

Exposición regulatoria máxima si distribución en UE alcanza umbrales GPAI. Sin confirmación de adhesión al CoP. FLI: DeepSeek sin safety framework = F en safety framework domain.

Oracle, Snowflake, Teradata, Cloudera

Como infraestructura

No como originadores

N/A como plataformas

Obligaciones AI Act para proveedores de infraestructura que habilitan deployment de modelos GPAI de terceros. Responsabilidades como 'deployers' según AI Act pueden aplicar a sus clientes.

3.4 ANÁLISIS DE SYSTEM CARDS Y MODEL CARDS

Mecanismos de Divulgación Técnica por Proveedor

Las system cards y model cards son el instrumento principal de transparencia técnica en la industria: documentos publicados antes o simultáneamente con el lanzamiento de un modelo, que describen sus capacidades, limitaciones, evaluaciones de safety realizadas, y condiciones de uso recomendadas. El análisis de qué proveedores las publican, con qué profundidad y qué nivel de consistencia, es uno de los mejores proxies disponibles para evaluar la seriedad operacional de los compromisos de safety.

3.4.1 Matriz de Documentación por Proveedor (Modelos Principales 2024-2025)

PROVEEDOR

System Card(tiene / consistente)

Model Card(técnica)

Red TeamReport

Safety EvalHub Público

INCONSISTENCIAS / GAPS DOCUMENTADOS

Anthropic

✓ / Mayormente consistente

✓ Partial

✓ RSP evalúas

Parcial (blog posts)

Claude 4 Opus: FMTI preparó reporte propio porque Anthropic no presentó. Domina a OpenAI en casi todos los indicadores excepto bug bounty y data retention.

OpenAI

✓ / Inconsistente

✓ GPT-5

✓ 5,000+ hrs GPT-5

✓ Safety Evaluations Hub

GPT-4.1 lanzado sin system card — única excepción documentada al patrón establecido desde GPT-4. FMTI: sin model architecture info pública.

Google/DeepMind

✓ / Mayorment. consistente

✓ Gemini 3

✓ FSF evaluaciones

Parcial (Responsible AI Report)

Gemini 2.5 model card publicada con retraso significativo: escrutinio parlamentario británico por incumplimiento compromiso previo. FMTI: sin model architecture disclosure.

Microsoft

✓ (modelos propios Phi-4)

✓ Phi-4 model card

✓ via RAI Impact Assessment

Parcial (Responsible AI Dashboard)

Para modelos de terceros (GPT-5 via Azure): system card de OpenAI aplica. Distinción de responsabilidades hosting-originador no completamente documentada.

Meta AI

✗ Llama 4 sin reporte técnico

✗ Llama 4 sin tech report

Parcial (Llama papers)

✗ No disponible

REGRESIÓN CRÍTICA: Llama 4 fue el único flagship de un laboratorio top-5 lanzado en 2025 sin reporte técnico. Contribuyó a caída de 29 puntos en FMTI 2025.

IBM (Granite)

✓ Responsable Use Guide

✓ Granite Tech Reports

✓ Documentado

✓ AI Risk Atlas

Mejor evaluado por Stanford CRFM como más transparente. 95/100 en FMTI 2025 con 6 indicadores únicos.

AWS (Bedrock)

✓ AI Service Cards

Parcial (por servicio)

Parcial

✓ AWS Responsible AI

AI Service Cards por servicio (no por modelo subyacente). Opacidad en modelo información (FMTI): sin architecture disclosure. Sin impacto ambiental.

xAI (Grok)

✗ Grok 4 sin system card

✗ Sin model card

✗ Sin red team report

✗ No disponible

INCUMPLIMIENTO DOCUMENTADO: Sin system card para Grok 4 viola directamente compromisos Seoul AI Safety Summit (mayo 2024). 11/100 en FMTI 2025 — puntaje más bajo de todos.

Alibaba (Qwen)

Parcial (blog posts)

Parcial (papers técnicos)

✗ No documentado

✗ No disponible

28/100 FMTI. Participó por primera vez en FMTI 2025; reporte preparado por el equipo FMTI (no voluntario). Comité de Ética activo pero sin traducción en transparencia técnica externa.

Tencent (Hunyuan)

Parcial (Safety Report 2024)

Parcial

✓ Metodología documentada

✗ No disponible

Large Model Safety Report 2024 documenta red-teaming automatizado. Sin evaluación de capability por terceros independientes. FLI: no evaluado. FMTI: no evaluado.

Huawei Cloud

✗ No disponible

✗ No disponible

✗ No disponible

✗ No disponible

Sin documentación técnica equivalente a model cards o system cards en sentido occidental. Sin evaluación por ningún índice independiente internacional.

Databricks

DAGF documenta prácticas

Por cliente-modelo

✓ TAP/PAIR docs

Parcial (Framework docs)

No aplica formato system card estándar: Databricks no es originador de modelos frontier. Documentación orientada a metodología de governance para clientes.

3.5 MECANISMOS DE ACCOUNTABILITY: MÁS ALLÁ DE LA DIVULGACIÓN

La transparencia en documentos y la accountability real son dimensiones relacionadas pero distintas. La accountability implica que las instituciones externas —reguladores, investigadores independientes, usuarios, organismos gubernamentales— pueden acceder a evidencia verificable, identificar discrepancias entre compromisos y acciones, y aplicar consecuencias. Esta sección analiza los mecanismos de accountability existentes y sus limitaciones.

3.5.1 Tipos de Mecanismos de Accountability y su Efectividad Actual

MECANISMO

ACTORES

ALCANCE / LIMITACIONES

EVIDENCIA DE EFECTIVIDAD

Índices académicos externos (FMTI, FLI)

Stanford, FLI, MIT, Berkeley

Mide transparencia declarada y prácticas de safety. No tiene poder coercitivo. Depende de participación voluntaria o información pública.

Meta y OpenAI retrocedieron en ranking; presión reputacional genera mejoras incrementales. FLI: 4 de 5 compañías americanas ahora responden encuesta vs. 2 en 2023.

EU AI Act / AI Office

Comisión Europea, AI Office

Primer marco vinculante. Poder sancionatorio (hasta 3% volumen global) en vigor desde agosto 2026. Cubre modelos en mercado UE.

Primer ejercicio de enforcement (2026+). La demora en model card de Gemini 2.5 ya generó escrutinio parlamentario —señal de presión regulatoria efectiva.

Seoul AI Safety Commitments

Laboratorios firmantes, gobiernos UK/US/UE

Compromisos voluntarios. Sin mecanismo de enforcement. Sin consecuencias documentadas por incumplimiento.

xAI incumplió (sin system card Grok 4) sin consecuencias formales. Evidencia de efectividad limitada para actores no cooperativos.

Bug Bounty / Responsible Disclosure

Investigadores seguridad, comunidad

Identifica vulnerabilidades técnicas. Alcance limitado a lo que investigadores externos pueden probar.

OpenAI: programa activo. Anthropic: señalado en FMTI como gap (ausencia de programa formal). Google: programa activo.

Investigaciones regulatorias por incidentes

Reguladores UE, Australia, Brasil, UK, Malaysia

Activadas por incidentes graves. Reactivas, no preventivas. Proceso lento vs. velocidad de iteración de modelos.

Caso Grok Imagine CSAM: investigaciones activas en 5 jurisdicciones pero sin resolución pública a fecha de corte. Presión reputacional inmediata; consecuencias sancionatorias inciertas.

Whistleblowing interno

Empleados, ex-empleados

Revela prácticas internas no divulgadas. Dependiente de protecciones legales y cultura corporativa.

OpenAI: único laboratorio con política de whistleblowing pública (valorado FLI). Salidas de investigadores de OpenAI en 2024 generaron cobertura significativa sobre cultura organizacional.

Cross-lab safety evaluations

OpenAI, Anthropic (piloto 2025)

Evaluación bilateral con metodologías de cada laboratorio sobre modelos del otro. Limitado a dos participantes. Voluntario.

Ejercicio piloto OpenAI-Anthropic (2025): primera instancia documentada de este tipo. Resultados parcialmente publicados.

3.5.2 Gaps Sistémicos de Accountability

El análisis revela cuatro gaps estructurales que ningún mecanismo existente resuelve completamente.

Primero: ausencia de auditoría independiente obligatoria. Ningún marco regulatorio en vigor (incluyendo el EU AI Act) requiere auditoría de terceros independientes sin afiliación comercial con el laboratorio para todos los modelos frontier. Las evaluaciones externas del FLI y FMTI son valiosas pero voluntarias y limitadas en alcance metodológico frente a lo que requeriría una auditoría técnica completa.

Segundo: asimetría de velocidad. El ciclo de lanzamiento de modelos (6-12 meses entre versiones mayores) es más rápido que el ciclo de enforcement regulatorio (años para investigaciones, sanciones y litigios). Esto crea una ventana sistemática donde un modelo puede causar daño, ser retirado o actualizado, y que el proceso regulatorio nunca alcance la versión específica que generó el daño.

Tercero: ausencia de divulgación ambiental. El FMTI 2025 documentó que 10 de 13 empresas evaluadas no divulgan ninguna información sobre impacto energético y ambiental de sus operaciones de entrenamiento. En un contexto donde los datacenters de AI representan ya una fracción significativa del consumo eléctrico en algunas regiones, esta opacidad es un gap material de accountability ante stakeholders financieros, reguladores y sociedad civil.

Cuarto: accountability asimétrica por tipo de proveedor. Los índices de transparencia y safety se concentran en laboratorios de modelos frontier. Los proveedores de plataforma (AWS, Azure, Databricks, Snowflake) y los integradores downstream —que en muchos casos tienen mayor contacto con usuarios finales que los originadores de modelos— tienen mucho menos escrutinio externo. El principio de 'responsabilidad compartida' que estos proveedores invocan opera como mecanismo de dilución de accountability, no como mecanismo de amplificación.

⚠ INFORMACIÓN NO DISPONIBLE (NIVEL 4): Los criterios exactos de las investigaciones regulatorias en curso sobre xAI (Grok Imagine, CSAM) en Australia, UE, Brasil, Malasia y UK no son públicamente accesibles a la fecha de corte. Los resultados de las investigaciones de capacity y safety que los laboratorios realizan internamente sobre sus propios modelos antes de deployment son confidenciales y no auditables externamente en su totalidad.

3.6 RESUMEN CONSOLIDADO: TRIANGULACIÓN FMTI + FLI + EU AI ACT

La triangulación de los tres índices externos permite construir una evaluación de transparencia y accountability más robusta que cualquier fuente individual. La tabla siguiente consolida la posición de los 16 proveedores en las tres dimensiones:

PROVEEDOR

FMTI(/100)

FLIOverall

EU GPAICode

EVALUACIÓN CONSOLIDADA PARA DUE DILIGENCE

IBM

95

N/E

Firmante

FORTALEZA: mejor proveedor del análisis en transparencia documentada (FMTI histórico 95/100). Granite Responsible Use Guide = referencia del sector. Gap: menor exposición en modelos frontier de más alto riesgo.

Anthropic

47

C+

Firmante

POSICIÓN SÓLIDA CON GAPS: lidera FLI (C+), firmante CoP. El FMTI cayó 5 puntos y no presentó reporte voluntariamente — señal de disminución de prioridad de transparencia. RSP es referencia de la industria, pero tensiones comerciales documentadas.

OpenAI

38

C+

Firmante

POSICIÓN MIXTA: Safety Evaluations Hub y red teaming GPT-5 son positivos. Caída de 14 puntos en FMTI y GPT-4.1 sin system card generan dudas sobre consistencia. Lobbying contra leyes estatales de safety señalado por FLI.

Google/DeepMind

44

C

Firmante

POSICIÓN SÓLIDA CON INCONSISTENCIAS: FSF v3.0 y AI Safety Annual Reports son positivos. Demora en Gemini 2.5 model card generó escrutinio parlamentario. Sin model architecture disclosure (FMTI). Jailbreaks en Gemini 3 horas post-lanzamiento.

Microsoft

42

N/E

Firmante

POSICIÓN SÓLIDA: RAI Standard v2, ORA, 6 principios con implementación técnica. Gap: Standard v2 no completamente público. Responsabilidades de hosting para modelos terceros requieren clarificación para due diligence sector regulado.

AWS

42

N/E

Firmante

POSICIÓN ACEPTABLE: Responsible Use Guide (dic 2024) es operacionalmente sólido. Bedrock Guardrails con métricas publicadas. Gaps: sin model architecture info, sin impacto ambiental, delimitación responsabilidades hosting-modelo opaca.

Meta AI

31

D

Firmante

POSICIÓN DETERIORADA: mayor regresión de transparencia en FMTI 2025 (-29 puntos). Llama 4 sin reporte técnico. No respondió encuesta FLI. Benchmarks fraudulentos. LeCun fuera. Futuro de filosofía open-source incierto.

Databricks

N/E

N/E

No aplica

FORTALEZA RELATIVA: mejor framework de governance entre plataformas de datos. DAGF y TAP/PAIR documentados públicamente. Sin exposición directa en índices frontier, lo que refleja su rol de plataforma, no originador.

Alibaba (Qwen)

28

D-

Incierto

POSICIÓN DÉBIL CON CONTEXTO CHINO: marco de governance más sofisticado del ecosistema chino (Comité Ética, AAIG) pero bajo en índices internacionales. Independencia institucional no verificable. FLI: D-.

Tencent (Hunyuan)

N/E

N/E

Incierto

POSICIÓN MEDIA: ARCC 2018 y Safety Report 2024 son documentos técnicos más sustanciales que Huawei. Sin evaluación FMTI/FLI. Regulación china. Sin equivalencia con estándares internacionales de accountability.

Huawei Cloud

N/E

N/E

Incierto

POSICIÓN MÁS DÉBIL DEL ECOSISTEMA CHINO: sin framework autónomo verificable, sin evaluación internacional, complejidad geopolítica (sanciones US). Riesgo de due diligence máximo para clientes en sectores regulados.

Oracle

N/E

N/E

Como infraestructura

BRECHA DE DUE DILIGENCE: sin documento fundacional verificable para proveedor de infraestructura crítica (banca, salud, gobierno). Principios declarados sin traducción en restricciones o herramientas técnicas verificables.

Snowflake

N/E

N/E

Como infraestructura

GOVERNANCE LIMITADA A DATOS: Trust & Safety pages orientadas a data governance (lineaje, auditoría), no a AI ethics en sentido estricto. Sin documento AI ethics fundacional.

Teradata

N/E

N/E

Como infraestructura

ADOPCIÓN POR REFERENCIA SIN IMPLEMENTACIÓN: referencias UNESCO/OECD/Asilomar sin framework propio. Sin herramientas técnicas verificables de AI ethics.

Cloudera

N/E

N/E

Como infraestructura

AUSENCIA TOTAL: sin documentación primaria AI ethics identificable. Data governance empresarial ≠ AI ethics framework.

xAI ⚠

11

D+

Parcial (solo Safety)

POSICIÓN CRÍTICA EN TODOS LOS ÍNDICES: 11/100 FMTI (último lugar), D+ FLI, firmó solo capítulo Safety del CoP (sin Transparencia ni Copyright). Grok 4 sin system card = incumplimiento Seoul Commitments. Investigaciones regulatorias activas en 5 jurisdicciones.

3.7 REFERENCIAS — FASE 3 (ADICIONALES A FASES 1-2)

[R41] Stanford CRFM / Bommasani et al. The 2025 Foundation Model Transparency Index. crfm.stanford.edu/fmti/December-2025. Diciembre 2025. [NIVEL 1]

[R42] Stanford HAI. Transparency in AI is on the Decline. news.stanford.edu. Diciembre 2025. [NIVEL 1]

[R43] arXiv / FMTI Team. The 2025 Foundation Model Transparency Index (arxiv.org/html/2512.10169v1). [NIVEL 1]

[R44] Future of Life Institute. AI Safety Index — Summer 2025. futureoflife.org/ai-safety-index-summer-2025. Julio 2025. [NIVEL 1]

[R45] Future of Life Institute. AI Safety Index — Winter 2025. futureoflife.org/ai-safety-index-winter-2025. Diciembre 2025. [NIVEL 1]

[R46] Fortune. AI labs like Meta, DeepSeek, and xAI earned worst grades on existential safety index. fortune.com. Diciembre 2025. [NIVEL 2]

[R47] Axios. AI risks, AGI — Anthropic, Google, OpenAI. axios.com. Diciembre 2025. [NIVEL 2]

[R48] IEEE Spectrum. OpenAI, Google DeepMind, and Meta Get Bad Grades on AI Safety. spectrum.ieee.org. Enero 2025. [NIVEL 2]

[R49] TechXplore. Transparency in AI companies falls to new low. techxplore.com. Diciembre 2025. [NIVEL 2]

[R50] Euronews. AI less regulated than sandwiches — no firm has AI superintelligence safety plan. euronews.com. Diciembre 2025. [NIVEL 2]

[R51] European Commission / AI Office. EU AI Act GPAI Code of Practice. digital-strategy.ec.europa.eu/en/policies/contents-code-gpai. Julio-agosto 2025. [NIVEL 1]

[R52] European Commission. Guidelines for Providers of General-Purpose AI Models. digital-strategy.ec.europa.eu. Julio 2025. [NIVEL 1]

[R53] Skadden Arps. EU's General-Purpose AI Obligations Are Now in Force, With New Guidance. skadden.com. Agosto 2025. [NIVEL 2]

[R54] Latham & Watkins. EU AI Act: GPAI Model Obligations in Force and Final GPAI Code of Practice in Place. lw.com. Agosto 2025. [NIVEL 2]

[R55] AI Act website. Overview of the Code of Practice. artificialintelligenceact.eu. 2025. [NIVEL 2]

[R56] AI Act website. Implementation Timeline. artificialintelligenceact.eu. 2025. [NIVEL 1]

[R57] Nelson Mullins. The EU Commission Publishes GPAI Code of Practice. nelsonmullins.com. Julio 2025. [NIVEL 2]

[R58] OpenAI. Safety Evaluations Hub. openai.com/safety/evaluations-hub. 2025. [NIVEL 1]

[R59] CRFM Stanford. Foundation Model Transparency Index — Transparency Reports 2025. crfm.stanford.edu/fmti/December-2025/company-reports. Diciembre 2025. [NIVEL 1]

[R60] IEEE / Farzaan et al. HELM Safety v1.0 benchmark. Stanford CRFM 2024. [NIVEL 1]

[R61] GitHub / Stanford CRFM. FMTI Repository. github.com/stanford-crfm/fmti. 2025. [NIVEL 1]

[R62] Google DeepMind. Responsible AI Progress Report. deepmind.google. 2024-2025 editions. [NIVEL 1]

[R63] OpenAI. Findings from Pilot OpenAI-Anthropic Alignment Evaluation. openai.com. 2025. [NIVEL 1]

— FIN FASE 3 — Continúa en Fase 4: Dilemas Éticos Estado del Arte 2024-2026

Last updated