Analisis conjunto 16 vendors (En desarrollo)
ROL Y ALCANCE
Actúa como un Consultor Senior en Ética de IA, Gobernanza de Datos y Riesgo Tecnológico preparando un informe de due diligence basado EXCLUSIVAMENTE en información públicamente verificable.
REGLAS CRÍTICAS DE VALIDACIÓN
1. Niveles de Evidencia (OBLIGATORIO clasificar cada afirmación)
Clasifica TODA información según estos niveles:
[NIVEL 1 - DOCUMENTO PÚBLICO]:
Información de documentos oficiales publicados
Requiere: URL específica + fecha de publicación
Ejemplo: [NIVEL 1] Anthropic Constitutional AI - Fuente: <https://www.anthropic.com/index/constitutional-ai-harmlessness-from-ai-feedback> [Dic 2023]
[NIVEL 2 - DECLARACIÓN PÚBLICA NO DOCUMENTADA]:
Statements en entrevistas, blogs, conferencias
Requiere: URL + contexto
Ejemplo: [NIVEL 2] CEO statement en conferencia - Fuente: [link] [fecha]
[NIVEL 3 - PRÁCTICA INFERIDA]:
Basada en análisis de términos de servicio, comportamiento observable
Requiere: Razonamiento explícito
Ejemplo: [NIVEL 3] Inferido de ToS sección X que establece... [URL]
[NIVEL 4 - INFORMACIÓN NO DISPONIBLE]:
Explícitamente marca cuando NO existe información pública
Ejemplo: [NIVEL 4] No hay información pública sobre cláusulas de indemnización específicas. Razón: contratos enterprise son NDAs
2. Prohibiciones Absolutas
❌ NO inventes nombres de documentos que no existen
❌ NO especules sobre cláusulas contractuales sin fuente pública
❌ NO atribuyas posiciones éticas sin cita directa
❌ NO uses términos marketers ("Copyright Shield") sin verificar que el proveedor usa ese término exacto
FORMATO DE OUTPUT
Estructura del documento:
Executive Summary (300-400 palabras)
Findings principales
Ranking de transparencia
Red flags identificados
Metodología (200 palabras)
Fuentes consultadas
Limitaciones del análisis
Fecha de corte de información
Secciones 1-5 según estructura arriba
Conclusiones y Recomendaciones (500 palabras)
Para organizaciones evaluando proveedores
Gaps en el ecosistema
Tendencias emergentes
Apéndices:
A: Lista completa de fuentes (mínimo 40 referencias)
B: Glosario de términos técnicos
C: Timeline de incidents y controversias mayores (2023-2025)
Styling:
✅ Usa tablas comparativas extensamente
✅ Cita inline con formato: [Proveedor, "texto exacto", Fuente, Fecha]
✅ Marca nivel de evidencia en CADA afirmación sustantiva
✅ Secciones claramente delimitadas con headers
❌ NO uses bullet points genéricos sin contenido sustantivo
❌ NO hagas listas de "principios" sin análisis crítico
CHECKLIST DE VALIDACIÓN FINAL
Antes de entregar tu análisis, verifica:
[ ] Cada proveedor mencionado tiene mínimo 3 fuentes distintas citadas
[ ] CERO especulación sobre contratos no públicos sin marcarlo [NIVEL 4]
[ ] Todas las citas de documentos incluyen URLs funcionales
[ ] Cada claim ético tiene evidencia documental o está marcado como opinion/análisis
[ ] Análisis tiene >3000 palabras sustantivas (excluye tablas)
[ ] Mínimo 40 fuentes únicas en bibliografía
[ ] Todos los papers académicos citados existen y son verificables
[ ] Identificaste explícitamente >10 instancias de "información no disponible"
[ ] Incluiste disclaimer sobre limitaciones y fecha de conocimiento
DISCLAIMER REQUERIDO
Termina con:
LIMITACIONES DE ESTE ANÁLISIS
Basado en información pública hasta [fecha de corte]
Contratos enterprise son mayormente privados; análisis limitado a ToS públicos
Prácticas reales pueden diferir de documentación pública
Sector de IA evoluciona rápidamente; verificar actualizaciones
RECOMENDACIONES PARA DUE DILIGENCE
Solicitar cláusulas contractuales específicas directamente a proveedores
Realizar security & privacy assessment independiente
Consultar con legal counsel especializado en AI/IP
Revisar compliance certifications específicas a tu industria
[otras 3-5 recomendaciones específicas]
--- Fase1
SECCIÓN 1: MATRIZ DE POSTURAS ÉTICAS Y MARCOS DE REFERENCIA
Proveedores a analizar (exclusivamente estas empresas)
OpenAI
Anthropic
Google
Microsoft
Meta AI
xAI (elon Musk)
Oracle
Huawei Cloud
Alibaba
IBM
AWS
Databricks
Snowflake
Tencent Cloud
Teradata
Cloudera
1.A. Filosofías y Principios Declarados
Para CADA proveedor, documenta:
Tabla requerida: | Proveedor | Documento fundacional ética | URL | Fecha publicación | Enfoque principal | Nivel evidencia |
--- Fase2
Análisis narrativo
Safety-First / Constitutional AI
Definición: [explica el concepto]
Proveedores que lo practican: [lista con evidencia]
Documentos específicos: [URLs]
Diferencias entre implementaciones
Responsible Release / Staged Deployment
Definición y origen del concepto
Proveedores adherentes
Evidencia de práctica real (no solo declaraciones)
Casos donde NO se siguió (controversias documentadas)
Open Science / Democratization
Definición
Análisis de la tensión: "open weights" vs "truly open source"
Proveedores y su nivel real de apertura
Licencias específicas usadas (Llama 2/3, Mistral, etc.)
--- Fase3
1.B. Metodologías de Investigación y Safety
Tabla comparativa requerida:
| Proveedor | RLHF | RLAIF | Red Teaming | Constitutional AI | Otro | Papers públicos | URL |
Preguntas específicas a responder (con fuentes):
¿Qué proveedores publican sus datasets de red teaming?
¿Quién documenta públicamente su proceso de RLHF/RLAIF?
¿Existen benchmarks independientes de safety? (ej: TruthfulQA, BBQ)
¿Qué proveedores someten modelos a audit externo pre-release?
Formato: Párrafo de 300-400 palabras por proveedor con todas las fuentes inline
--- Fase4
SECCIÓN 2: DOCUMENTOS PÚBLICOS Y TRANSPARENCIA
2.A. Inventario de Documentos de Transparencia
Para CADA proveedor, busca y documenta si existen (con URLs):
Checklist de documentos:
[ ] System Card / Model Card: Descripción técnica y limitaciones
[ ] Transparency Report: Uso, moderación, solicitudes gubernamentales
[ ] Red Team Report: Resultados de testing adversarial
[ ] Responsible AI / Ethics Principles: Documento fundacional
[ ] Research Papers: Sobre safety, alignment, evaluation
[ ] Safety Policies: Uso prohibido, acceptable use policies
Tabla de inventario: | Proveedor | System Card | Transparency Report | Red Team | Ethics Doc | Frecuencia actualización | URLs | Notas |
--- Fase5
2.B. Análisis de Términos de Servicio y Políticas Públicas
IMPORTANTE: Esta sección analiza SOLO lo que está en ToS/Privacy Policy públicos
Para cada proveedor, extrae y cita textualmente:
Uso de datos para entrenamiento:
¿Qué dice EXACTAMENTE el ToS sobre uso de inputs del usuario?
Diferencia: API empresarial vs. producto consumer
Cita textual + URL + sección específica
Formato ejemplo:
[OpenAI]
ToS Consumer (ChatGPT): [cita textual] - Fuente: [URL sección X] [fecha]
API Enterprise: [cita textual] - Fuente: [URL] [fecha]
Análisis: [tu interpretación de 100-150 palabras]
Retención de datos:
Políticas de retention publicadas
Opciones de opt-out documentadas
Zero data retention: ¿quién lo ofrece y bajo qué condiciones?
Contenido generado y propiedad intelectual:
¿Qué dice el ToS sobre copyright del output?
¿Hay menciones a indemnización? (si es público)
¿Disclaimers sobre contenido con derechos de autor en training data?
--- Fase6
2.C. Contratos Enterprise: Lo que SÍ sabemos públicamente
CRÍTICO: Esta subsección solo incluye:
Información que empresas hayan compartido públicamente sobre sus contratos
Análisis publicados por legal firms sobre términos estándar
Declaraciones oficiales de proveedores sobre políticas enterprise
Estructura:
Tema: Indemnización por Copyright [NIVEL 1] Microsoft Copilot: Commitment anunciado público - [URL] [fecha] [NIVEL 3] OpenAI: Inferido de sección X de ToS enterprise (público) - [URL] [NIVEL 4] Anthropic: No hay información pública sobre esta política específica
Temas a cubrir (solo si hay info pública):
Programas de indemnización anunciados
Políticas de zero data retention para enterprise
Compliance certifications publicadas (SOC2, ISO, HIPAA, GDPR)
SLAs publicados vs. standard ToS
--- Fase7
SECCIÓN 3: ESTADO DEL ARTE DE DILEMAS ÉTICOS (2024-2026)
3.A. Taxonomía de Preocupaciones Éticas
1. AUTONOMÍA Y AGENCIA
Pregunta central: ¿Bajo qué condiciones es ético permitir que IA tome acciones sin supervisión humana?
Subtemas a desarrollar:
Agentic AI / AI Agents:
Definición técnica actual
Capacidades documentadas (ej: function calling, tool use)
Riesgos identificados en literatura académica
Frameworks propuestos: Human-in-the-loop, Human-on-the-loop, Human-in-command
Papers clave: [listar 3-5 con URLs]
Economic Agency:
¿Deberían agentes poder gastar dinero?
Casos de uso actuales (ej: automatic bidding, procurement)
Regulatory frameworks emergentes
Fuentes requeridas:
Mínimo 5 papers académicos (Arxiv, ACM, NeurIPS)
Posiciones de al menos 3 proveedores de IA sobre agentes autónomos
--- Fase8
2. INTEGRIDAD DE DATOS Y MODEL COLLAPSE
Pregunta central: ¿Qué sucede cuando IA entrena con output de otras IAs?
Desarrollo requerido:
Definición técnica de "model collapse" o "autophagy loop"
Evidencia empírica: papers que lo demuestran
Implicaciones para web indexing y search
Estrategias de mitigación propuestas
Posición de proveedores sobre synthetic data en training
Papers clave a referenciar:
[Buscar estudios de 2023-2024 sobre este fenómeno]
Análisis de watermarking como solución
--- Fase9
3. FUTURO DEL TRABAJO
Pregunta central: Displacement vs. Augmentation - ¿qué dice la evidencia actual?
Análisis requerido (600 palabras):
Estudios empíricos recientes:
Cita estudios específicos sobre impacto medible (ej: programadores con Copilot)
Sectores más afectados según research
Diferencia entre "automation anxiety" y automation real
Frameworks propuestos:
Taxonomías de tareas automatizables (ej: Moravec's Paradox actualizado)
Concepto de "Centaur workers" (human + AI)
Upskilling vs. reskilling debates
Posiciones de stakeholders:
Proveedores de IA: [sus narrativas públicas con citas]
Organizaciones laborales: [posiciones documentadas]
Gobiernos: [políticas emergentes EU, US, UK]
Fuentes: Mínimo 8 fuentes diversas (académicas, think tanks, reportes gubernamentales)
--- Fase10
4. BIAS, FAIRNESS Y REPRESENTACIÓN
Subtemas:
Bias en training data: casos documentados
Evaluation benchmarks para fairness (BBQ, WinoBias)
Stereotyping y representación: estudios empíricos
Técnicas de mitigación y su efectividad demostrada
--- Fase11
5. TRANSPARENCIA Y EXPLICABILIDAD
Interpretability research: estado actual
Trade-off: performance vs. explicability
Regulatory requirements emergentes (EU AI Act)
Proveedores que publican eval datasets
--- Fase12
6. OTROS DILEMAS EMERGENTES
Antropomorfización y dependencia emocional
Personalización extrema y filter bubbles
Desinformación at scale
Dual use y weaponization
--- Fase13
SECCIÓN 4: ANÁLISIS VERTICAL POR SECTORES CRÍTICOS
Estructura para CADA sector:
4.A. SALUD Y PSICOLOGÍA
Subsecciones obligatorias:
Regulatory Landscape:
HIPAA (US) requirements para IA en salud
GDPR special categories (health data)
FDA guidance sobre AI/ML in medical devices
Posición de AMA (American Medical Association) sobre AI
Riesgos Específicos Documentados:
Antropomorfización terapéutica:
Estudios sobre dependencia emocional en chatbots de salud mental
Papers sobre "therapeutic alliance" con IA
Casos de Replika, Character.AI (citar incidentes reportados)
Accuracy en diagnóstico:
Benchmarks de AI en medical diagnosis (citar estudios)
Casos de failure modes documentados
Comparative performance: AI vs. médicos vs. AI+médicos
Privacy y confidencialidad:
Análisis de ToS de apps de salud mental que usan IA
Data breaches documentados (si existen)
Posición de proveedores sobre HIPAA compliance
Guidelines y Best Practices Emergentes:
WHO guidance on AI in healthcare
Clinical practice guidelines que mencionan IA
Positions de colegios médicos/psicológicos
--- Fase14
4.B. LEGAL
Subsecciones:
El Problema de las Alucinaciones en Contexto Legal:
Casos documentados de abogados citando jurisprudencia falsa
Análisis de benchmarks: accuracy en legal reasoning
Posición de Bar Associations sobre uso de IA
Confidencialidad Cliente-Abogado:
Análisis: ¿usar ChatGPT rompe attorney-client privilege?
Guías de colegios de abogados (ABA, etc.)
Implicaciones en ToS de proveedores
Regulación del Uso de IA en Legal Services:
EU AI Act: implicaciones para legal AI
State bar rules (US)
Emerging case law
--- Fase15
4.C. EDUCACIÓN Y PEDAGOGÍA
Subsecciones:
Impacto en Pensamiento Crítico y Aprendizaje:
Estudios empíricos sobre uso de LLMs en educación
Debate: ¿calculadora o muleta?
Research sobre retention y deep learning
Integridad Académica:
Estado del arte en detección de AI-generated content
Políticas de universidades (survey de top 20)
Efectividad de herramientas de detección (cita estudios)
Equidad y Acceso:
Digital divide en acceso a IA educativa
Costos de herramientas premium vs. free tier
Impacto en estudiantes con necesidades especiales
--- Fase16
4.D. OTROS SECTORES (más breve)
Finanzas: Algorithmic trading, risk assessment, bias en lending
Recursos Humanos: Bias en hiring, privacy en screening
Justicia Criminal: Predictive policing, sentencing algorithms
Extensión por sector: 300-400 palabras con 3-4 fuentes
--- Fase17
SECCIÓN 5: ANÁLISIS CRÍTICO Y GAPS
5.A. Tabla de Transparencia Comparativa
Genera esta tabla resumen:
| Proveedor | Score Transparencia (0-10) | Documentos publicados | Audits externos | Open research | Limitaciones visibles | Mejora necesaria |
Criterios de scoring (explícita el rubric que usas)
--- Fase18
5.B. Brechas entre Retórica y Práctica
Identifica casos donde hay discrepancia entre:
Principios declarados vs. documentación técnica
Políticas anunciadas vs. implementación observable
Claims de safety vs. incidents reportados
Requiere: Evidencia específica para cada discrepancia alegada
--- Fase19
5.C. Información No Disponible (Visibility Gaps)
Lista explícita de:
Qué información DEBERÍA ser pública pero no lo es
Proveedores menos transparentes y en qué áreas
Tipos de contratos enterprise donde no hay visibilidad
Last updated