Ley europea para regular la inteligencia artificial

La nueva Ley Europea de Inteligencia Artificial busca equilibrar el avance tecnológico con la protección de los derechos fundamentales, estableciendo normas claras para su uso en la Unión Europea. 

Andalucía, 16/08/2024

La Unión Europea ha dado un paso histórico al convertirse en la primera jurisdicción en el mundo en regular el uso de la inteligencia artificial (IA) mediante la implementación de la Ley Europea de Inteligencia Artificial. Esta legislación, busca garantizar que la IA desarrollada y utilizada en la UE sea segura, fiable y centrada en la protección de los derechos fundamentales de las personas. 

La Ley de IA introduce un enfoque basado en el riesgo, categorizando los sistemas de IA en cuatro niveles: riesgo mínimo, riesgo específico de transparencia, riesgo alto y riesgo inaceptable. Por ejemplo, los chatbots deberán informar claramente a los usuarios que están interactuando con una máquina, mientras que sistemas considerados de alto riesgo, como los utilizados en la contratación o en la evaluación de créditos, deberán cumplir con estrictos requisitos de calidad y supervisión. Asimismo, la ley prohíbe aquellos sistemas de IA que representan una amenaza para los derechos fundamentales, como los que manipulan el comportamiento humano o aquellos utilizados para la "puntuación social". Además, introduce normas específicas para los modelos de IA de uso general, garantizando la transparencia y abordando posibles riesgos sistémicos. 

La Comisión Europea ha establecido un marco para la aplicación y supervisión de esta normativa, que incluye la creación de la Oficina de IA y tres órganos consultivos encargados de garantizar su implementación uniforme en todos los Estados miembros. Las empresas que no cumplan con las normativas podrán enfrentarse a multas significativas, que podrían alcanzar hasta el 7% de su volumen de negocios anual. 

Aunque la mayoría de las disposiciones de la ley comenzarán a aplicarse en agosto de 2026, algunas prohibiciones se implementarán antes. Para facilitar la transición, la Comisión ha lanzado el Pacto sobre la IA, una iniciativa que invita a los desarrolladores a adoptar voluntariamente las obligaciones clave de la ley antes de los plazos establecidos. Esta legislación no solo establece un precedente global, sino que también posiciona a Europa como líder en el desarrollo responsable de la inteligencia artificial, fomentando la innovación mientras se protege a los ciudadanos. 

La Ley de IA clasifica los sistemas de inteligencia artificial en función de su riesgo: 

  • Riesgos inaceptables: Se prohíben sistemas como la puntuación social y la IA manipuladora que amenazan los derechos fundamentales. 
  • Riesgos altos: Los sistemas de IA de alto riesgo, como aquellos utilizados en la contratación o evaluación de créditos, están sujetos a estrictos requisitos de seguridad y  supervisión. 
  • Riesgos limitados: Los sistemas con riesgo limitado, como chatbots y deepfakes, deben garantizar la transparencia, informando a los usuarios que están interactuando con IA. 
  • Riesgos mínimos: Aplicaciones como videojuegos con IA y filtros de spam, que representan un riesgo mínimo, no están reguladas bajo la ley. 

La mayoría de las obligaciones recaen sobre los proveedores (desarrolladores) de sistemas de IA de alto riesgo, incluidos aquellos fuera de la UE cuyos productos se utilicen en la región. Los usuarios profesionales de estos sistemas también tienen responsabilidades, aunque menores que los desarrolladores. 

En cuanto a la IA de propósito general (GPAI), los proveedores deben cumplir con una serie de obligaciones, incluyendo la documentación técnica y la evaluación de riesgos. Aquellos que presentan un riesgo sistémico están sujetos a medidas adicionales, como pruebas de adversarios y ciberseguridad reforzada. 

Para obtener más información, pueden visitar: Resumen de alto nivel de la Ley de Inteligencia Artificial | Ley de Inteligencia Artificial de la UE (artificialintelligenceact.eu)