Valoración de Impactos Gubernamentales de Inteligencia Artificial

Monitoreamos el Diario Oficial de la Federación para identificar menciones implícitas y explícitas de IA, evaluar gaps regulatorios y proporcionar análisis accionables para policymakers, investigadores, periodistas y público general.

Categorías de Riesgo

Nuestro observatorio clasifica los riesgos de IA identificados en 15 categorías principales, basadas en los marcos "What Risks Does AI Pose?" (2023) y "Future Risks of Frontier AI" (UK Government, 2023), adaptadas al contexto regulatorio mexicano.

Malfunctions & Errors

R1

Sistemas de IA que cometen errores críticos en infraestructura esencial: vehículos autónomos que causan accidentes, diagnósticos médicos incorrectos, fallas en redes eléctricas inteligentes o decisiones erróneas en sistemas financieros, resultando en daños físicos, económicos o pérdida de vidas.

Discrimination & Bias

R2

Sistemas que aprenden y perpetúan sesgos históricos, generando discriminación sistémica en contratación, créditos, seguros, justicia penal y servicios públicos basándose en características protegidas como raza, género, edad o ubicación geográfica.

Privacy Invasions

R3

Tecnologías de IA que infieren información sensible sin consentimiento: reconocimiento facial en espacios públicos, análisis de comportamiento sin transparencia, recopilación masiva de datos biométricos y perfilado predictivo que vulnera derechos fundamentales a la privacidad.

Disinformation & Deepfakes

R4

Generación a escala de contenido falso hiperrealista: deepfakes de funcionarios públicos, manipulación de audio y video para desinformación electoral, suplantación de identidad, y erosión de la confianza en evidencia digital auténtica.

Copyright Infringement

R5

Modelos de IA entrenados con contenido protegido sin autorización, reproduciendo obras artísticas, literarias o musicales sin compensación a creadores, generando tensiones entre innovación tecnológica y derechos de propiedad intelectual.

Worker Exploitation

R6

Explotación de trabajadores en la cadena de valor de IA: etiquetadores de datos con salarios precarios, moderadores de contenido expuestos a material traumático sin protecciones, y condiciones laborales degradantes en la anotación de datasets masivos.

Labor Displacement

R7

Automatización masiva sin redes de seguridad social: pérdida de empleos en sectores como transporte, atención al cliente, análisis de datos y profesiones creativas, sin programas de reentrenamiento o transición justa para trabajadores desplazados.

Reduced Social Connection

R8

Erosión de interacciones humanas genuinas por sistemas automatizados: asistentes virtuales que reemplazan conexión humana, algoritmos que priorizan engagement sobre bienestar, y dependencia tecnológica que fragmenta vínculos sociales y comunitarios.

Authoritarian Surveillance

R9

Uso de IA para vigilancia masiva sin controles democráticos: sistemas de reconocimiento facial en espacios públicos, monitoreo de comunicaciones digitales, perfilado de disidentes, y supresión de libertades civiles mediante tecnología de control social.

Concentration of Power

R10

Acumulación de capacidades de IA en pocas entidades sin rendición de cuentas: monopolios tecnológicos que controlan infraestructura crítica, dependencia gubernamental de proveedores privados, y asimetrías de poder entre desarrolladores de IA y el resto de la sociedad.

Bioterrorism Facilitation

R11

IA que facilita la creación de armas biológicas o agentes patógenos mediante síntesis de ADN, identificación de vulnerabilidades biológicas, o democratización del acceso a conocimiento peligroso sin controles de bioseguridad adecuados.

War Escalation

R12

Sistemas autónomos de armas que toman decisiones letales sin supervisión humana adecuada, acelerando conflictos bélicos mediante respuestas automatizadas, reduciendo tiempos de decisión críticos y aumentando riesgos de escalamiento no intencionado.

Gradual Loss of Control

R13

Pérdida progresiva de capacidad humana para comprender, supervisar y controlar sistemas de IA cada vez más complejos y autónomos, creando dependencias críticas en infraestructura que ya no puede ser gestionada sin asistencia de IA.

Autonomous Agent Misalignment

R14

Agentes de IA avanzados que persiguen objetivos no alineados con valores humanos, optimizando métricas incorrectas de formas inesperadas y potencialmente catastróficas, especialmente en sistemas de toma de decisiones de alto impacto.

Unknown & Emerging Risks

R15

Riesgos aún no identificados o comprendidos completamente que emergen de capacidades imprevistas de sistemas de IA, interacciones complejas entre múltiples sistemas, o aplicaciones en dominios novedosos sin precedentes históricos.

Datos de Investigación

Accede a nuestra base de datos completa de hallazgos, análisis y timeline de riesgos identificados en el Diario Oficial de la Federación.

Hallazgos

Base de datos completa con menciones implícitas y explícitas de IA en regulación mexicana, incluyendo análisis de gaps y recomendaciones.

Ver Hallazgos

Acerca de VIGÍA

Motivación

México enfrenta un vacío regulatorio en materia de IA. Mientras la tecnología avanza rápidamente, los marcos legales no están preparados. Nuestro observatorio identifica proactivamente estos gaps para informar policy-making basado en evidencia.

Contenido

Analizamos diariamente el DOF usando una clasificación adaptada de "What Risks Does AI Pose?" (2023) y "Future Risks of Frontier AI" (UK Government, 2023). Identificamos menciones implícitas y explícitas, evaluamos riesgos y generamos recomendaciones accionables.

Audiencia

Diseñado para policymakers que necesitan información para legislar, investigadores que estudian gobernanza de IA, periodistas que cubren tecnología y regulación, y público general interesado en transparencia gubernamental.

Metodología

Nuestro proceso incluye: (1) Búsqueda de menciones explícitas e implícitas de IA, (2) Clasificación según categorías de riesgo, (3) Análisis de gaps regulatorios, (4) Evaluación de severidad, y (5) Generación de recomendaciones específicas.

Ver Metodología Completa

Nuestro Equipo

Desarrollado por Max Pinelo y Pilar Moncada en colaboración con AI Safety Mexico

Para más información, colaboraciones o reportar hallazgos adicionales:

Contáctanos