Analisis conjunto 16 vendors (En desarrollo)

ROL Y ALCANCE

Actúa como un Consultor Senior en Ética de IA, Gobernanza de Datos y Riesgo Tecnológico preparando un informe de due diligence basado EXCLUSIVAMENTE en información públicamente verificable.


REGLAS CRÍTICAS DE VALIDACIÓN

1. Niveles de Evidencia (OBLIGATORIO clasificar cada afirmación)

Clasifica TODA información según estos niveles:

[NIVEL 1 - DOCUMENTO PÚBLICO]:

  • Información de documentos oficiales publicados

  • Requiere: URL específica + fecha de publicación

  • Ejemplo: [NIVEL 1] Anthropic Constitutional AI - Fuente: <https://www.anthropic.com/index/constitutional-ai-harmlessness-from-ai-feedback> [Dic 2023]

[NIVEL 2 - DECLARACIÓN PÚBLICA NO DOCUMENTADA]:

  • Statements en entrevistas, blogs, conferencias

  • Requiere: URL + contexto

  • Ejemplo: [NIVEL 2] CEO statement en conferencia - Fuente: [link] [fecha]

[NIVEL 3 - PRÁCTICA INFERIDA]:

  • Basada en análisis de términos de servicio, comportamiento observable

  • Requiere: Razonamiento explícito

  • Ejemplo: [NIVEL 3] Inferido de ToS sección X que establece... [URL]

[NIVEL 4 - INFORMACIÓN NO DISPONIBLE]:

  • Explícitamente marca cuando NO existe información pública

  • Ejemplo: [NIVEL 4] No hay información pública sobre cláusulas de indemnización específicas. Razón: contratos enterprise son NDAs

2. Prohibiciones Absolutas

  • ❌ NO inventes nombres de documentos que no existen

  • ❌ NO especules sobre cláusulas contractuales sin fuente pública

  • ❌ NO atribuyas posiciones éticas sin cita directa

  • ❌ NO uses términos marketers ("Copyright Shield") sin verificar que el proveedor usa ese término exacto

FORMATO DE OUTPUT

Estructura del documento:

  1. Executive Summary (300-400 palabras)

  2. Findings principales

  3. Ranking de transparencia

  4. Red flags identificados

  5. Metodología (200 palabras)

  6. Fuentes consultadas

  7. Limitaciones del análisis

  8. Fecha de corte de información

  9. Secciones 1-5 según estructura arriba

  10. Conclusiones y Recomendaciones (500 palabras)

  11. Para organizaciones evaluando proveedores

  12. Gaps en el ecosistema

  13. Tendencias emergentes

  14. Apéndices:

  15. A: Lista completa de fuentes (mínimo 40 referencias)

  16. B: Glosario de términos técnicos

  17. C: Timeline de incidents y controversias mayores (2023-2025)

Styling:

  • ✅ Usa tablas comparativas extensamente

  • ✅ Cita inline con formato: [Proveedor, "texto exacto", Fuente, Fecha]

  • ✅ Marca nivel de evidencia en CADA afirmación sustantiva

  • ✅ Secciones claramente delimitadas con headers

  • ❌ NO uses bullet points genéricos sin contenido sustantivo

  • ❌ NO hagas listas de "principios" sin análisis crítico


CHECKLIST DE VALIDACIÓN FINAL

Antes de entregar tu análisis, verifica:

  • [ ] Cada proveedor mencionado tiene mínimo 3 fuentes distintas citadas

  • [ ] CERO especulación sobre contratos no públicos sin marcarlo [NIVEL 4]

  • [ ] Todas las citas de documentos incluyen URLs funcionales

  • [ ] Cada claim ético tiene evidencia documental o está marcado como opinion/análisis

  • [ ] Análisis tiene >3000 palabras sustantivas (excluye tablas)

  • [ ] Mínimo 40 fuentes únicas en bibliografía

  • [ ] Todos los papers académicos citados existen y son verificables

  • [ ] Identificaste explícitamente >10 instancias de "información no disponible"

  • [ ] Incluiste disclaimer sobre limitaciones y fecha de conocimiento


DISCLAIMER REQUERIDO

Termina con:

LIMITACIONES DE ESTE ANÁLISIS

  1. Basado en información pública hasta [fecha de corte]

  2. Contratos enterprise son mayormente privados; análisis limitado a ToS públicos

  3. Prácticas reales pueden diferir de documentación pública

  4. Sector de IA evoluciona rápidamente; verificar actualizaciones

RECOMENDACIONES PARA DUE DILIGENCE

  • Solicitar cláusulas contractuales específicas directamente a proveedores

  • Realizar security & privacy assessment independiente

  • Consultar con legal counsel especializado en AI/IP

  • Revisar compliance certifications específicas a tu industria

  • [otras 3-5 recomendaciones específicas]

circle-info

--- Fase1

SECCIÓN 1: MATRIZ DE POSTURAS ÉTICAS Y MARCOS DE REFERENCIA

Proveedores a analizar (exclusivamente estas empresas)

  • OpenAI

  • Anthropic

  • Google

  • Microsoft

  • Meta AI

  • xAI (elon Musk)

  • Oracle

  • Huawei Cloud

  • Alibaba

  • IBM

  • AWS

  • Databricks

  • Snowflake

  • Tencent Cloud

  • Teradata

  • Cloudera

1.A. Filosofías y Principios Declarados

Para CADA proveedor, documenta:

Tabla requerida: | Proveedor | Documento fundacional ética | URL | Fecha publicación | Enfoque principal | Nivel evidencia |

circle-info

--- Fase2

Análisis narrativo

  1. Safety-First / Constitutional AI

  2. Definición: [explica el concepto]

  3. Proveedores que lo practican: [lista con evidencia]

  4. Documentos específicos: [URLs]

  5. Diferencias entre implementaciones

  6. Responsible Release / Staged Deployment

  7. Definición y origen del concepto

  8. Proveedores adherentes

  9. Evidencia de práctica real (no solo declaraciones)

  10. Casos donde NO se siguió (controversias documentadas)

  11. Open Science / Democratization

  12. Definición

  13. Análisis de la tensión: "open weights" vs "truly open source"

  14. Proveedores y su nivel real de apertura

  15. Licencias específicas usadas (Llama 2/3, Mistral, etc.)

circle-info

--- Fase3

1.B. Metodologías de Investigación y Safety

Tabla comparativa requerida:

| Proveedor | RLHF | RLAIF | Red Teaming | Constitutional AI | Otro | Papers públicos | URL |

Preguntas específicas a responder (con fuentes):

  1. ¿Qué proveedores publican sus datasets de red teaming?

  2. ¿Quién documenta públicamente su proceso de RLHF/RLAIF?

  3. ¿Existen benchmarks independientes de safety? (ej: TruthfulQA, BBQ)

  4. ¿Qué proveedores someten modelos a audit externo pre-release?

Formato: Párrafo de 300-400 palabras por proveedor con todas las fuentes inline

circle-info

--- Fase4

SECCIÓN 2: DOCUMENTOS PÚBLICOS Y TRANSPARENCIA

2.A. Inventario de Documentos de Transparencia

Para CADA proveedor, busca y documenta si existen (con URLs):

Checklist de documentos:

  • [ ] System Card / Model Card: Descripción técnica y limitaciones

  • [ ] Transparency Report: Uso, moderación, solicitudes gubernamentales

  • [ ] Red Team Report: Resultados de testing adversarial

  • [ ] Responsible AI / Ethics Principles: Documento fundacional

  • [ ] Research Papers: Sobre safety, alignment, evaluation

  • [ ] Safety Policies: Uso prohibido, acceptable use policies

Tabla de inventario: | Proveedor | System Card | Transparency Report | Red Team | Ethics Doc | Frecuencia actualización | URLs | Notas |

circle-info

--- Fase5

2.B. Análisis de Términos de Servicio y Políticas Públicas

IMPORTANTE: Esta sección analiza SOLO lo que está en ToS/Privacy Policy públicos

Para cada proveedor, extrae y cita textualmente:

  1. Uso de datos para entrenamiento:

  2. ¿Qué dice EXACTAMENTE el ToS sobre uso de inputs del usuario?

  3. Diferencia: API empresarial vs. producto consumer

  4. Cita textual + URL + sección específica

  5. Formato ejemplo:

[OpenAI]

  • ToS Consumer (ChatGPT): [cita textual] - Fuente: [URL sección X] [fecha]

  • API Enterprise: [cita textual] - Fuente: [URL] [fecha]

  • Análisis: [tu interpretación de 100-150 palabras]

  1. Retención de datos:

  • Políticas de retention publicadas

  • Opciones de opt-out documentadas

  • Zero data retention: ¿quién lo ofrece y bajo qué condiciones?

  1. Contenido generado y propiedad intelectual:

  • ¿Qué dice el ToS sobre copyright del output?

  • ¿Hay menciones a indemnización? (si es público)

  • ¿Disclaimers sobre contenido con derechos de autor en training data?

circle-info

--- Fase6

2.C. Contratos Enterprise: Lo que SÍ sabemos públicamente

CRÍTICO: Esta subsección solo incluye:

  • Información que empresas hayan compartido públicamente sobre sus contratos

  • Análisis publicados por legal firms sobre términos estándar

  • Declaraciones oficiales de proveedores sobre políticas enterprise

Estructura:

Tema: Indemnización por Copyright [NIVEL 1] Microsoft Copilot: Commitment anunciado público - [URL] [fecha] [NIVEL 3] OpenAI: Inferido de sección X de ToS enterprise (público) - [URL] [NIVEL 4] Anthropic: No hay información pública sobre esta política específica

Temas a cubrir (solo si hay info pública):

  • Programas de indemnización anunciados

  • Políticas de zero data retention para enterprise

  • Compliance certifications publicadas (SOC2, ISO, HIPAA, GDPR)

  • SLAs publicados vs. standard ToS

circle-info

--- Fase7

SECCIÓN 3: ESTADO DEL ARTE DE DILEMAS ÉTICOS (2024-2026)

3.A. Taxonomía de Preocupaciones Éticas

1. AUTONOMÍA Y AGENCIA

Pregunta central: ¿Bajo qué condiciones es ético permitir que IA tome acciones sin supervisión humana?

Subtemas a desarrollar:

  • Agentic AI / AI Agents:

  • Definición técnica actual

  • Capacidades documentadas (ej: function calling, tool use)

  • Riesgos identificados en literatura académica

  • Frameworks propuestos: Human-in-the-loop, Human-on-the-loop, Human-in-command

  • Papers clave: [listar 3-5 con URLs]

  • Economic Agency:

  • ¿Deberían agentes poder gastar dinero?

  • Casos de uso actuales (ej: automatic bidding, procurement)

  • Regulatory frameworks emergentes

Fuentes requeridas:

  • Mínimo 5 papers académicos (Arxiv, ACM, NeurIPS)

  • Posiciones de al menos 3 proveedores de IA sobre agentes autónomos

circle-info

--- Fase8

2. INTEGRIDAD DE DATOS Y MODEL COLLAPSE

Pregunta central: ¿Qué sucede cuando IA entrena con output de otras IAs?

Desarrollo requerido:

  • Definición técnica de "model collapse" o "autophagy loop"

  • Evidencia empírica: papers que lo demuestran

  • Implicaciones para web indexing y search

  • Estrategias de mitigación propuestas

  • Posición de proveedores sobre synthetic data en training

Papers clave a referenciar:

  • [Buscar estudios de 2023-2024 sobre este fenómeno]

  • Análisis de watermarking como solución

circle-info

--- Fase9

3. FUTURO DEL TRABAJO

Pregunta central: Displacement vs. Augmentation - ¿qué dice la evidencia actual?

Análisis requerido (600 palabras):

  • Estudios empíricos recientes:

  • Cita estudios específicos sobre impacto medible (ej: programadores con Copilot)

  • Sectores más afectados según research

  • Diferencia entre "automation anxiety" y automation real

  • Frameworks propuestos:

  • Taxonomías de tareas automatizables (ej: Moravec's Paradox actualizado)

  • Concepto de "Centaur workers" (human + AI)

  • Upskilling vs. reskilling debates

  • Posiciones de stakeholders:

  • Proveedores de IA: [sus narrativas públicas con citas]

  • Organizaciones laborales: [posiciones documentadas]

  • Gobiernos: [políticas emergentes EU, US, UK]

Fuentes: Mínimo 8 fuentes diversas (académicas, think tanks, reportes gubernamentales)

circle-info

--- Fase10

4. BIAS, FAIRNESS Y REPRESENTACIÓN

Subtemas:

  • Bias en training data: casos documentados

  • Evaluation benchmarks para fairness (BBQ, WinoBias)

  • Stereotyping y representación: estudios empíricos

  • Técnicas de mitigación y su efectividad demostrada

circle-info

--- Fase11

5. TRANSPARENCIA Y EXPLICABILIDAD

  • Interpretability research: estado actual

  • Trade-off: performance vs. explicability

  • Regulatory requirements emergentes (EU AI Act)

  • Proveedores que publican eval datasets

circle-info

--- Fase12

6. OTROS DILEMAS EMERGENTES

  • Antropomorfización y dependencia emocional

  • Personalización extrema y filter bubbles

  • Desinformación at scale

  • Dual use y weaponization

circle-info

--- Fase13

SECCIÓN 4: ANÁLISIS VERTICAL POR SECTORES CRÍTICOS

Estructura para CADA sector:

4.A. SALUD Y PSICOLOGÍA

Subsecciones obligatorias:

  1. Regulatory Landscape:

  2. HIPAA (US) requirements para IA en salud

  3. GDPR special categories (health data)

  4. FDA guidance sobre AI/ML in medical devices

  5. Posición de AMA (American Medical Association) sobre AI

  6. Riesgos Específicos Documentados:

  7. Antropomorfización terapéutica:

  8. Estudios sobre dependencia emocional en chatbots de salud mental

  9. Papers sobre "therapeutic alliance" con IA

  10. Casos de Replika, Character.AIarrow-up-right (citar incidentes reportados)

  11. Accuracy en diagnóstico:

  12. Benchmarks de AI en medical diagnosis (citar estudios)

  13. Casos de failure modes documentados

  14. Comparative performance: AI vs. médicos vs. AI+médicos

  15. Privacy y confidencialidad:

  16. Análisis de ToS de apps de salud mental que usan IA

  17. Data breaches documentados (si existen)

  18. Posición de proveedores sobre HIPAA compliance

  19. Guidelines y Best Practices Emergentes:

  20. WHO guidance on AI in healthcare

  21. Clinical practice guidelines que mencionan IA

  22. Positions de colegios médicos/psicológicos

circle-info

--- Fase14

4.B. LEGAL

Subsecciones:

  1. El Problema de las Alucinaciones en Contexto Legal:

  2. Casos documentados de abogados citando jurisprudencia falsa

  3. Análisis de benchmarks: accuracy en legal reasoning

  4. Posición de Bar Associations sobre uso de IA

  5. Confidencialidad Cliente-Abogado:

  6. Análisis: ¿usar ChatGPT rompe attorney-client privilege?

  7. Guías de colegios de abogados (ABA, etc.)

  8. Implicaciones en ToS de proveedores

  9. Regulación del Uso de IA en Legal Services:

  10. EU AI Act: implicaciones para legal AI

  11. State bar rules (US)

  12. Emerging case law

circle-info

--- Fase15

4.C. EDUCACIÓN Y PEDAGOGÍA

Subsecciones:

  1. Impacto en Pensamiento Crítico y Aprendizaje:

  2. Estudios empíricos sobre uso de LLMs en educación

  3. Debate: ¿calculadora o muleta?

  4. Research sobre retention y deep learning

  5. Integridad Académica:

  6. Estado del arte en detección de AI-generated content

  7. Políticas de universidades (survey de top 20)

  8. Efectividad de herramientas de detección (cita estudios)

  9. Equidad y Acceso:

  10. Digital divide en acceso a IA educativa

  11. Costos de herramientas premium vs. free tier

  12. Impacto en estudiantes con necesidades especiales

circle-info

--- Fase16

4.D. OTROS SECTORES (más breve)

  • Finanzas: Algorithmic trading, risk assessment, bias en lending

  • Recursos Humanos: Bias en hiring, privacy en screening

  • Justicia Criminal: Predictive policing, sentencing algorithms

Extensión por sector: 300-400 palabras con 3-4 fuentes


circle-info

--- Fase17

SECCIÓN 5: ANÁLISIS CRÍTICO Y GAPS

5.A. Tabla de Transparencia Comparativa

Genera esta tabla resumen:

| Proveedor | Score Transparencia (0-10) | Documentos publicados | Audits externos | Open research | Limitaciones visibles | Mejora necesaria |

Criterios de scoring (explícita el rubric que usas)

circle-info

--- Fase18

5.B. Brechas entre Retórica y Práctica

Identifica casos donde hay discrepancia entre:

  • Principios declarados vs. documentación técnica

  • Políticas anunciadas vs. implementación observable

  • Claims de safety vs. incidents reportados

Requiere: Evidencia específica para cada discrepancia alegada

circle-info

--- Fase19

5.C. Información No Disponible (Visibility Gaps)

Lista explícita de:

  • Qué información DEBERÍA ser pública pero no lo es

  • Proveedores menos transparentes y en qué áreas

  • Tipos de contratos enterprise donde no hay visibilidad

Last updated