Monitoreamos el Diario Oficial de la Federación para identificar menciones implícitas y explícitas de IA, evaluar gaps regulatorios y proporcionar análisis accionables para policymakers, investigadores, periodistas y público general.
Nuestro observatorio clasifica los riesgos de IA identificados en 15 categorías principales, basadas en los marcos "What Risks Does AI Pose?" (2023) y "Future Risks of Frontier AI" (UK Government, 2023), adaptadas al contexto regulatorio mexicano.
Sistemas de IA que cometen errores críticos en infraestructura esencial: vehículos autónomos que causan accidentes, diagnósticos médicos incorrectos, fallas en redes eléctricas inteligentes o decisiones erróneas en sistemas financieros, resultando en daños físicos, económicos o pérdida de vidas.
Sistemas que aprenden y perpetúan sesgos históricos, generando discriminación sistémica en contratación, créditos, seguros, justicia penal y servicios públicos basándose en características protegidas como raza, género, edad o ubicación geográfica.
Tecnologías de IA que infieren información sensible sin consentimiento: reconocimiento facial en espacios públicos, análisis de comportamiento sin transparencia, recopilación masiva de datos biométricos y perfilado predictivo que vulnera derechos fundamentales a la privacidad.
Generación a escala de contenido falso hiperrealista: deepfakes de funcionarios públicos, manipulación de audio y video para desinformación electoral, suplantación de identidad, y erosión de la confianza en evidencia digital auténtica.
Modelos de IA entrenados con contenido protegido sin autorización, reproduciendo obras artísticas, literarias o musicales sin compensación a creadores, generando tensiones entre innovación tecnológica y derechos de propiedad intelectual.
Explotación de trabajadores en la cadena de valor de IA: etiquetadores de datos con salarios precarios, moderadores de contenido expuestos a material traumático sin protecciones, y condiciones laborales degradantes en la anotación de datasets masivos.
Automatización masiva sin redes de seguridad social: pérdida de empleos en sectores como transporte, atención al cliente, análisis de datos y profesiones creativas, sin programas de reentrenamiento o transición justa para trabajadores desplazados.
Erosión de interacciones humanas genuinas por sistemas automatizados: asistentes virtuales que reemplazan conexión humana, algoritmos que priorizan engagement sobre bienestar, y dependencia tecnológica que fragmenta vínculos sociales y comunitarios.
Uso de IA para vigilancia masiva sin controles democráticos: sistemas de reconocimiento facial en espacios públicos, monitoreo de comunicaciones digitales, perfilado de disidentes, y supresión de libertades civiles mediante tecnología de control social.
Acumulación de capacidades de IA en pocas entidades sin rendición de cuentas: monopolios tecnológicos que controlan infraestructura crítica, dependencia gubernamental de proveedores privados, y asimetrías de poder entre desarrolladores de IA y el resto de la sociedad.
IA que facilita la creación de armas biológicas o agentes patógenos mediante síntesis de ADN, identificación de vulnerabilidades biológicas, o democratización del acceso a conocimiento peligroso sin controles de bioseguridad adecuados.
Sistemas autónomos de armas que toman decisiones letales sin supervisión humana adecuada, acelerando conflictos bélicos mediante respuestas automatizadas, reduciendo tiempos de decisión críticos y aumentando riesgos de escalamiento no intencionado.
Pérdida progresiva de capacidad humana para comprender, supervisar y controlar sistemas de IA cada vez más complejos y autónomos, creando dependencias críticas en infraestructura que ya no puede ser gestionada sin asistencia de IA.
Agentes de IA avanzados que persiguen objetivos no alineados con valores humanos, optimizando métricas incorrectas de formas inesperadas y potencialmente catastróficas, especialmente en sistemas de toma de decisiones de alto impacto.
Riesgos aún no identificados o comprendidos completamente que emergen de capacidades imprevistas de sistemas de IA, interacciones complejas entre múltiples sistemas, o aplicaciones en dominios novedosos sin precedentes históricos.
Accede a nuestra base de datos completa de hallazgos, análisis y timeline de riesgos identificados en el Diario Oficial de la Federación.
Base de datos completa con menciones implícitas y explícitas de IA en regulación mexicana, incluyendo análisis de gaps y recomendaciones.
Ver HallazgosMéxico enfrenta un vacío regulatorio en materia de IA. Mientras la tecnología avanza rápidamente, los marcos legales no están preparados. Nuestro observatorio identifica proactivamente estos gaps para informar policy-making basado en evidencia.
Analizamos diariamente el DOF usando una clasificación adaptada de "What Risks Does AI Pose?" (2023) y "Future Risks of Frontier AI" (UK Government, 2023). Identificamos menciones implícitas y explícitas, evaluamos riesgos y generamos recomendaciones accionables.
Diseñado para policymakers que necesitan información para legislar, investigadores que estudian gobernanza de IA, periodistas que cubren tecnología y regulación, y público general interesado en transparencia gubernamental.
Nuestro proceso incluye: (1) Búsqueda de menciones explícitas e implícitas de IA, (2) Clasificación según categorías de riesgo, (3) Análisis de gaps regulatorios, (4) Evaluación de severidad, y (5) Generación de recomendaciones específicas.
Ver Metodología CompletaDesarrollado por Max Pinelo y Pilar Moncada en colaboración con AI Safety Mexico
Para más información, colaboraciones o reportar hallazgos adicionales:
Contáctanos