La gobernanza internacional de la inteligencia artificial (IA) congrega a gobiernos, organizaciones internacionales, empresas, instituciones académicas y actores de la sociedad civil para establecer pautas, estándares y herramientas destinadas a orientar cómo se desarrolla y emplea esta tecnología. Las discusiones integran dimensiones técnicas, éticas, económicas, de seguridad y geopolíticas. A continuación se detallan los asuntos clave, ejemplos específicos y los mecanismos que distintos foros proponen o ya ponen en práctica.
Amenazas para la seguridad y la integridad
La atención dedicada a la seguridad abarca errores involuntarios, usos malintencionados y repercusiones estratégicas de gran alcance. Entre los aspectos esenciales se encuentran:
- Riesgos sistémicos: la posibilidad de que modelos extremadamente avanzados se comporten de manera inesperada o superen los mecanismos de control, comprometiendo infraestructuras críticas.
- Uso dual y militarización: la incorporación de IA en armamento, sistemas de vigilancia y operaciones de ciberataque. En debates de la ONU y del Convenio sobre Ciertas Armas Convencionales se analizan opciones para regular o incluso vetar sistemas de armas totalmente autónomos.
- Reducción del riesgo por diseño: estrategias como evaluaciones adversarias, auditorías de seguridad y la exigencia de análisis de riesgo previos a cualquier implementación.
Ejemplo: en el ámbito multilateral se discute la creación de normas vinculantes sobre SALA (sistemas de armas letales autónomas) y procedimientos de verificación para evitar proliferación.
Privacidad, vigilancia y protección de los derechos humanos
La IA genera desafíos para los derechos civiles y las libertades públicas:
- Reconocimiento facial y vigilancia masiva: posible debilitamiento de la privacidad y aparición de sesgos. Diversos países y la Unión Europea analizan imponer límites o pausas a su implementación a gran escala.
- Protección de datos: gestión responsable de grandes conjuntos de información para entrenar modelos, junto con aspectos de consentimiento, reducción de datos y procesos de anonimización.
- Libertad de expresión e información: sistemas de moderación automatizada, creación de contenido engañoso y deepfakes que pueden influir en dinámicas democráticas.
Caso: campañas de desinformación potenciadas por generación automática de contenido han llevado a debates en foros electorales y a propuestas para obligaciones de transparencia sobre el uso de sistemas generativos en campañas.
Equidad, no discriminación y inclusión
Los modelos pueden reflejar o incluso intensificar sesgos existentes cuando los datos de entrenamiento no resultan suficientemente representativos:
- Discriminación algorítmica: revisiones independientes, indicadores de equidad y procedimientos de corrección.
- Acceso y desigualdad global: posibilidad de que la capacidad tecnológica se concentre en unas pocas naciones o corporaciones; urgencia de impulsar la transferencia tecnológica y la cooperación para fortalecer el desarrollo local.
Dato y ejemplo: estudios han mostrado que modelos entrenados con datos sesgados dan peores resultados para grupos subrepresentados; por ello iniciativas como evaluaciones de impacto social y requisitos de testeo público son cada vez más solicitadas.
Claridad, capacidad de explicación y seguimiento
Los reguladores analizan cómo asegurar que los sistemas avanzados resulten entendibles y susceptibles de auditoría:
- Obligaciones de transparencia: comunicar cuando una resolución automatizada impacta a una persona, divulgar documentación técnica (fichas del modelo, fuentes de datos) y ofrecer vías de reclamación.
- Explicabilidad: proporcionar niveles adecuados de detalle técnico adaptados a distintos tipos de audiencia (usuario final, autoridad reguladora, instancia judicial).
- Trazabilidad y registro: conservar registros de entrenamiento y operación que permitan realizar auditorías en el futuro.
Ejemplo: la propuesta legislativa de la Unión Europea clasifica sistemas según riesgo y exige documentación detallada para los considerados de alto riesgo.
Responsabilidad jurídica y cumplimiento
La cuestión de cómo asignar la responsabilidad por daños ocasionados por sistemas de IA se ha convertido en un punto clave:
- Regímenes de responsabilidad: se discute si debe recaer en el desarrollador, el proveedor, el integrador o el usuario final.
- Certificación y conformidad: incluyen esquemas de certificación previa, evaluaciones independientes y posibles sanciones en caso de incumplimiento.
- Reparación a las víctimas: se plantean vías ágiles para ofrecer compensación y soluciones de remediación.
Datos normativos: la propuesta de la UE prevé sanciones ajustadas a la gravedad, incluidas multas de gran envergadura ante incumplimientos en sistemas clasificados como de alto riesgo.
Propiedad intelectual y acceso a datos
El uso de contenidos para entrenar modelos ha generado tensiones entre creación, copia y aprendizaje automático:
- Derechos de autor y recopilación de datos: litigios y solicitudes de claridad sobre si el entrenamiento constituye uso legítimo o requiere licencia.
- Modelos y datos como bienes estratégicos: debates sobre si imponer licencias obligatorias, compartir modelos en repositorios públicos o restringir exportaciones.
Caso: varios litigios recientes en distintos países cuestionan la legalidad de entrenar modelos con contenidos protegidos, impulsando reformas legales y acuerdos entre sectores.
Economía, empleo y competencia
La IA puede transformar mercados, trabajos y estructuras empresariales:
- Sustitución y creación de empleo: estudios muestran efectos heterogéneos: algunas tareas se automatizan, otras se complementan; políticas activas de formación son clave.
- Concentración de mercado: riesgo de monopolios por control de datos y modelos centrales; discusión sobre políticas de competencia y interoperabilidad.
- Impuestos y redistribución: propuestas para impuestos sobre beneficios derivados de automatización o para financiar protección social y reentrenamiento.
Ejemplo: diversas adaptaciones regulatorias pueden contemplar beneficios tributarios orientados a impulsar la formación profesional y estipulaciones en contratos estatales que den preferencia a proveedores locales.
Sostenibilidad ambiental
El impacto energético y material asociado al entrenamiento y funcionamiento de los modelos se encuentra sujeto a regulaciones y prácticas recomendadas:
- Huella de carbono: la preparación de modelos de gran escala puede requerir un uso considerable de energía; se debaten métricas y posibles límites.
- Optimización y transparencia energética: adopción de sistemas de eficiencia, divulgación del consumo y transición hacia infraestructuras alimentadas con fuentes renovables.
Estudio relevante: diversos análisis han puesto de manifiesto que entrenar modelos de lenguaje de manera intensiva puede llegar a producir emisiones comparables a decenas o incluso cientos de toneladas de CO2 cuando el proceso no se optimiza adecuadamente.
Regulaciones técnicas, estándares y procesos de interoperabilidad
La adopción de estándares facilita seguridad, confianza y comercio:
- Marco de normalización: desarrollo de estándares técnicos internacionales sobre robustez, interfaces y formatos de datos.
- Interoperabilidad: garantizar que sistemas distintos puedan cooperar con garantías de seguridad y privacidad.
- Rol de organismos internacionales: OCDE, UNESCO, ONU, ISO y foros regionales participan en la armonización normativa.
Ejemplo: la OCDE elaboró una serie de principios sobre la IA que se han convertido en una guía para numerosas políticas públicas.
Procesos de verificación, observancia y coordinación multilateral
Sin mecanismos de verificación sólidos, las normas quedan como simples declaraciones:
- Inspecciones y auditorías internacionales: se plantean observatorios multilaterales que monitoreen el cumplimiento y difundan información técnica.
- Mecanismos de cooperación técnica: apoyo para naciones con menor capacidad, intercambio de buenas prácticas y recursos destinados a reforzar la gobernanza.
- Sanciones y medidas comerciales: debate sobre restricciones a la exportación de tecnologías delicadas y acciones diplomáticas frente a eventuales incumplimientos.
Caso: las limitaciones impuestas al comercio de semiconductores ilustran cómo la tecnología de IA puede transformarse en un asunto de política comercial y de seguridad.
Instrumentos normativos y recursos aplicados
Las respuestas normativas varían entre instrumentos vinculantes y enfoques flexibles:
- Regulación vinculante: leyes nacionales y regionales que imponen obligaciones y sanciones (ejemplo: propuesta de ley en la Unión Europea).
- Autorregulación y códigos de conducta: guías emitidas por empresas y asociaciones que pueden ser más ágiles pero menos exigentes.
- Herramientas de cumplimiento: evaluaciones de impacto, auditorías independientes, etiquetas de conformidad, y entornos experimentales regulatorios para probar políticas.
Gobernanza democrática y participación de la ciudadanía
La validez de las normas se sustenta en una participación amplia:
- Procesos participativos: audiencias públicas, órganos éticos y la presencia de comunidades involucradas.
- Educación y alfabetización digital: con el fin de que la población comprenda los riesgos y se involucre en la toma de decisiones.
Ejemplo: iniciativas de consulta ciudadana en varios países han influido en requisitos de transparencia y límites al uso de reconocimiento facial.
Sobresalientes tensiones geopolíticas
La carrera por la primacía en IA implica riesgos de fragmentación:
- Competencia tecnológica: inversiones estratégicas, subsidios y alianzas que pueden crear bloques tecnológicos divergentes.
- Normas divergentes: diferentes enfoques regulatorios (más restrictivo versus más permissivo) afectan comercio y cooperación internacional.
Resultado: la gobernanza global busca equilibrar harmonización normativa con soberanía tecnológica.
Acciones y referencias multilaterales
Existen varias iniciativas que sirven de marco de referencia:
- Principios de la OCDE: lineamientos orientadores sobre la IA confiable.
- Recomendación de la UNESCO: marco ético para orientar políticas nacionales.
- Propuestas regionales: la Unión Europea impulsa un reglamento centrado en riesgo y obligaciones de transparencia y seguridad.
Estas iniciativas muestran la combinación de normas no vinculantes y propuestas legislativas concretas que avanzan en distintos ritmos.
La gobernanza internacional de la IA es un entramado dinámico que debe integrar exigencias técnicas, valores democráticos y realidades geopolíticas. Las soluciones efectivas requieren marcos normativos claros, capacidades de verificación creíbles y mecanismos



