Podría interesarle…

Ley de IA de la UE: Lo que las Empresas en Honduras y América Latina Deben Saber

La primera regulación integral de IA del mundo ya entró en vigor y aplica extraterritorialmente a empresas en Honduras, Centroamérica y América Latina. Guía completa de requisitos, plazos y cómo prepararse.

El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, conocido como Ley de Inteligencia Artificial de la UE (EU AI Act), entró en vigor el 1 de agosto de 2024. Es la primera regulación integral de inteligencia artificial del mundo y establece un marco de clasificación de riesgos, obligaciones de cumplimiento y sanciones que afectan no solo a las empresas europeas, sino a cualquier organización en el mundo cuyos sistemas de IA afecten a personas en la Unión Europea.

Esto tiene implicaciones directas y concretas para empresas en Honduras, Guatemala, El Salvador, Nicaragua, Costa Rica, Panamá, México, Colombia, Brasil y toda América Latina que tengan cualquier tipo de conexión con el mercado europeo: clientes europeos, datos de ciudadanos europeos, contratos de suministro con empresas europeas o el uso de modelos de IA desarrollados en Europa.

Esta guía explica qué exige la Ley de IA de la UE, quién debe cumplirla en América Latina, cuáles son los plazos y las penalidades, y cómo una empresa latinoamericana puede prepararse de manera pragmática.

La Lógica de la Ley de IA de la UE: Riesgo Proporcional a las Obligaciones

La Ley de IA de la UE no prohíbe la IA ni la regula de manera uniforme. Su lógica central es que el nivel de regulación debe ser proporcional al nivel de riesgo que el sistema de IA presenta para los derechos fundamentales y la seguridad de las personas. El reglamento clasifica todos los sistemas de IA en cuatro categorías:

Riesgo Inaceptable — Prohibido

Sistemas prohibidos sin excepción: manipulación subliminal del comportamiento, explotación de vulnerabilidades de grupos específicos, puntuación social por parte de gobiernos, identificación biométrica en tiempo real en espacios públicos (con excepciones muy limitadas), reconocimiento de emociones en el trabajo y la escuela. Prohibidos a partir de febrero de 2025.

Alto Riesgo — Máximas Obligaciones

Sistemas con las mayores obligaciones: IA en infraestructura crítica, educación, empleo y gestión de trabajadores, acceso a servicios esenciales, seguridad pública, administración de justicia y, específicamente, crédito, seguros y servicios financieros. Cumplimiento total requerido para agosto de 2026.

Riesgo Limitado — Transparencia

Los chatbots y sistemas conversacionales deben informar al usuario que está interactuando con inteligencia artificial. Los *deepfakes* y el contenido generado por inteligencia artificial deben etiquetarse. Cumplimiento a partir de agosto de 2026.

Riesgo Mínimo — Sin Obligaciones

La mayoría de los sistemas de IA: sin obligaciones específicas más allá de los principios generales del reglamento. Se recomienda seguir códigos de conducta voluntarios.

Aplicación Extraterritorial: Por Qué Afecta a América Latina

El artículo 2 de la Ley de Inteligencia Artificial de la UE establece su ámbito de aplicación con un alcance extraterritorial similar al del RGPD:

El reglamento se aplica a: (1) los proveedores de sistemas de inteligencia artificial establecidos en la Unión Europea o en un tercer país que pongan en funcionamiento sistemas de inteligencia artificial en la UE; (2) los operadores de sistemas de inteligencia artificial establecidos en la UE o en un tercer país cuando las salidas del sistema se utilicen en la UE; (3) los proveedores e importadores de sistemas de inteligencia artificial establecidos fuera de la UE cuando el sistema se utilice en la UE.

Traducido al contexto latinoamericano, esto significa que la Ley de IA de la UE se aplica a:

  • Maquiladoras y empresas manufactureras hondureñas y centroamericanas que operan sistemas de IA — control de calidad, programación de producción, gestión de proveedores — bajo contrato con marcas o compradores europeos que exigen el cumplimiento por parte de sus proveedores
  • Empresas de BPO y servicios compartidos en Costa Rica y Panamá que procesan datos de ciudadanos europeos utilizando herramientas de inteligencia artificial para la automatización de procesos, la clasificación de documentos o la atención al cliente
  • Empresas de software y tecnología en toda América Latina que desarrollan o comercializan productos de IA utilizados por clientes en la Unión Europea
  • Instituciones financieras con corresponsales o clientes europeos aquellos que utilizan IA en decisiones de crédito, prevención de lavado de dinero (AML) o conocimiento del cliente (KYC) que afectan a personas en la UE
  • Cualquier empresa latinoamericana que utilice modelos de IA fundacionales (GPT, Gemini, Claude) para servicios dirigidos a usuarios europeos
Cumplimiento de la Ley de IA de la UE América Latina Honduras América Central lo que las empresas deben saber 2025
Aplicación extraterritorial de la Ley de IA de la UE para empresas de América Latina, Honduras y Centroamérica en materia de cumplimiento.

Los Plazos de la Ley Europea de Inteligencia Artificial

  • 1 de agosto de 2024: El reglamento entró en vigor.
  • 2 de febrero de 2025: Prohibición de sistemas de IA de riesgo inaceptable. Los sistemas listados como prohibidos deben ser desactivados o modificados para no cumplir la definición de prohibido.
  • 2 de agosto de 2025: Obligaciones para los proveedores de modelos de IA de propósito general (GPAI) como GPT-4, Gemini y Claude. Los proveedores de estos modelos deben cumplir con la transparencia, la documentación técnica y la evaluación de riesgos sistémicos.
  • 2 de agosto de 2026: Cumplimiento integral para sistemas de IA de alto riesgo. Esto incluye a todos los sistemas de crédito, seguros, empleo, educación e infraestructura crítica. Las empresas latinoamericanas con exposición europea en estas categorías deben tener sus programas de cumplimiento operativos para esta fecha.
  • 2 de agosto de 2027: Ampliación del cumplimiento a algunos sistemas de alto riesgo del Anexo I que ya estaban en el mercado antes de la entrada en vigor del reglamento.

Las Penalidades de la Ley de Inteligencia Artificial de la UE

  • Prácticas prohibidas: hasta 35 millones de euros o el 7% del volumen de negocios mundial anual de la empresa, el que sea mayor
  • Incumplimiento de requisitos de alto riesgo hasta 15 millones de euros o el 3% del volumen de negocios mundial anual
  • Proporcionar información incorrecta a las autoridades: hasta 7.5 millones de euros o el 1.5% del volumen de negocios mundial
  • Para PYMES y startups: Se aplican los límites absolutos (no el porcentaje) cuando estos resulten menores.

¿Qué debe hacer una empresa latinoamericana para cumplir?

Para la mayoría de las empresas latinoamericanas con exposición a la Ley de IA de la UE, el camino práctico hacia el cumplimiento tiene cuatro pasos:

Paso 1 — Evaluación de Aplicabilidad

Determinar si la Ley de IA de la UE se aplica a su empresa y en qué medida. Esto requiere analizar: qué sistemas de IA utiliza la empresa, si dichos sistemas afectan a personas en la UE, en qué categoría de riesgo cae cada sistema y cuál es la base legal de la relación con la UE (contrato de suministro, contrato de servicio, uso de modelo de IA europeo, clientes europeos). GLADiiUM realiza evaluaciones de aplicabilidad de la Ley de IA de la UE para empresas en Honduras, Centroamérica y América Latina.

Paso 2 — Clasificación de Sistemas de IA

Para cada sistema de IA identificado, clasifíquelo en la categoría de riesgo de la Ley de IA de la UE. Los sistemas de alto riesgo en el ámbito financiero —los más comunes en Honduras y Centroamérica— requieren: evaluación de conformidad, un sistema de gestión de riesgos documentado, datos de entrenamiento de alta calidad con gobernanza verificable, documentación técnica exhaustiva, registro de actividad del sistema, supervisión humana activa y precisión, robustez y ciberseguridad adecuadas.

Paso 3 — Implementación de Controles

Implementar los controles técnicos y procedimentales que los sistemas de alto riesgo requieren. Para las empresas latinoamericanas, esto típicamente significa: desarrollar o actualizar la documentación técnica de los sistemas de IA, implementar registros de actividad y auditoría, establecer procedimientos de supervisión humana, y alinear las políticas de datos de entrenamiento con los requisitos de calidad del reglamento.

Paso 4 — Registro y Transparencia

Los sistemas de IA de alto riesgo deberán registrarse en la base de datos de la Oficina de IA de la UE antes de su puesta en el mercado europeo. Los sistemas de riesgo limitado deberán incluir las divulgaciones de transparencia requeridas (informar a los usuarios que interactúan con la IA).

Preguntas Frecuentes — Ley de Inteligencia Artificial de la UE y América Latina

Si mi empresa esta en Honduras, necesito cumplir el EU AI Act?

Depende de si sus sistemas de IA afectan a personas en la Unión Europea. Si utiliza IA en servicios para clientes europeos, en el procesamiento de datos de ciudadanos europeos, en sistemas bajo contrato con empresas europeas que exigen cumplimiento, o en modelos que se utilizan en la UE, entonces sí. Si su empresa opera exclusivamente para el mercado hondureño o centroamericano sin ninguna conexión europea, la Ley de IA de la UE no se aplica directamente, aunque los reguladores locales podrían adoptarla como referencia en el futuro.

La Ley de Inteligencia Artificial de la UE se aplica a los modelos de IA que usted compra o contrata (OpenAI, Gemini, Claude).

Si su empresa utiliza modelos de IA para prestar servicios en la UE, usted es el operador bajo la Ley de IA de la UE y tiene obligaciones de cumplimiento independientes de las del proveedor del modelo. OpenAI, Google y Anthropic tienen sus propias obligaciones como proveedores de modelos de propósito general (GPAI). Su empresa tiene obligaciones adicionales como operador de esos modelos en su contexto de negocio específico.

Como afecta el EU AI Act a las maquilas hondurenas?

Las maquilas hondureñas que emplean IA (control de calidad, gestión de producción, programación de pedidos) bajo contrato con marcas o compradores europeos presentan dos fuentes de exposición: la aplicabilidad directa del Reglamento de IA de la UE si los resultados de sus sistemas de IA afectan a personas en la UE, y los requisitos contractuales de sus clientes europeos, que pueden exigir el cumplimiento del Reglamento de IA de la UE como condición del contrato de suministro. GLADiiUM asiste a las maquilas hondureñas en la evaluación de ambas exposiciones y en el desarrollo de programas de cumplimiento proporcionales.

Prepare su empresa para la Ley de Inteligencia Artificial de la UE

GLADiiUM realizará una evaluación de aplicabilidad de la Ley de IA de la UE para su empresa, clasificará sus sistemas de IA por nivel de riesgo y presentará un plan de cumplimiento proporcional a su exposición real.