Reglamento de IA de la Unión Europea
El mundo como lo conocemos, está en constante cambio, y con él la tecnología, la cual trajo consigo varios avances, y podemos destacar que uno de los más relevantes en el último tiempo: Inteligencia Artificial (IA).
La IA no tiene una definición absoluta, y a grandes rasgos podemos decir que es un grupo de tecnologías agrupadas, que aprende y mejora por los textos, estadísticas, porcentajes e información que se le cargar a su sistema.
Desde el año 2018, la Unión Europea está trabajando en su definición, y mediante la Comunicación COM (2018) 237, se definió la IA como “(…) sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción –con cierto grado de autonomía– con el fin de alcanzar objetivos específicos. (…)” y Organismos Internacionales como la UNESCO, en sus Recomendaciones sobre la Ética de la Inteligencia Artificial, del año 2019 la definió como “(…) sistemas capaces de procesar datos e información de una manera que se asemeja a un comportamiento inteligente, y abarca generalmente aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control (….)”.
Este tipo de avances transforma, día a día, distintas áreas claves de la sociedad, como el trabajo, la salud, la educación, la seguridad, y el comercio. Pero, nos podemos dejar de preguntar por qué es tan importante regular esto, y cuáles serían las consecuencias de no hacerlo.
A medida que fue creciendo, fueron surgiendo muchos desafíos importantes: la protección de derechos inherentes que tenemos las personas, y de ahí nace la necesidad de una regulación ética y transparente global, sin dejar a fuera los marcos legales de cada estado que juegan un papel fundamental para garantizar un desarrollo responsable y sostenible de la IA.
Es por ello que su desarrollo, que avanza de manera acelerada ha generado riesgos, y a raíz de eso se impulsó la necesidad de una regulación que garantice su uso ético y seguro.
La Unión Europea, a diferencia de Estados Unidos o China, no es líder en desarrollo de modelos de IA, pero si es protagonista en la regulación digital, como en el Reglamento General de Protección de Datos (RGPD), que se convirtió en un estándar global y el Reglamento de Ciberseguridad, que fueron llevando de a poco a querer que se utilicen los nuevos avances tecnológicos de forma seguro para los ciudadanos.
Es cierto, que no pueden competir con países como Estados Unidos o China, pero si tienen como estrategia establecer un marco normativo que siente las bases para el desarrollo responsable del uso de la IA dentro y fuera de su territorio, buscando de esta forma un uso descontrolado que pueda afectar derechos fundamentales, al tiempo que impulsa la confianza del consumidor y la seguridad jurídica para las empresas que operan en su mercado.
El camino para llegar al Reglamento
Para llegar al reglamento se estuvo trabajando mucho, desde la formación de un grupo de expertos que elaboró directrices éticas para una IA confiable con principios fundamentales: que sea lícita, ética y robusta desde el punto de vista técnico y social desde la transparencia, supervisión humana, diversidad y responsabilidad, luego la Comisión Europea, a través del Libro Blanco sobre la Inteligencia Artificial del año 2020, destaco como objetivos principales: promover la adopción de la IA y abordar los riesgos vinculados a determinados usos de esta nueva tecnología, fomentando la investigación, la innovación, y buscando que este ecosistema sea de confianza basado en la regulación para garantizar la seguridad y los derechos fundamentales, y finalmente, el 21 de abril de 2021, la Comisión Europea propone un marco reglamentario sobre inteligencia artificial, el cual tenía como objetivos principales, que se garantice que los sistemas de IA introducidos y usados en los mercados de la Unión Europea sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión Europea. A raíz de la propuesta de un marco regulatorio, comienza un proceso de varias etapas, y el 9 de diciembre de 2023, tras varias negociaciones, el Parlamento y el Consejo alcanzaron un acuerdo provisional sobre el reglamento, sentando las bases de las primeras normas a nivel mundial para la regulación de la inteligencia artificial, con el objetivo de equilibrar la innovación tecnológica con la protección de derechos fundamentales.
Todas estas etapas, culminaron con la aprobación del Reglamento (UE) 2024/1689 –Reglamento de Inteligencia Artificial, firmado el 13 de junio de 2024, el cual estableció un marco normativo, pionero en el tema a nivel mundial, y el cual tiene como objetivo garantizar el uso seguro y ético de la IA en la UE, evitando riesgos para los derechos fundamentales y la seguridad pública. El presente es obligatorio en todos sus elementos y directamente aplicable en cada Estado Miembro, se divide en trece (13) capítulos, ciento trece (113) artículos, y trece (13) anexos, y entrando en vigencia el 1° de agosto de 2024 (veinte días después de su publicación en el Diario Oficial de la Unión Europea), el mismo comenzará a aplicarse a partir del 2 de agosto de 2026, pero cuenta con distintas excepciones: los capítulos: I (Disposiciones Generales) y II (Prácticas Prohibidas), que comenzaron a aplicarse a partir del 2 de febrero de 2025, III (Sistemas de Alto Riesgos), sección 4 (Autoridades notificantes y Organismos notificados), V (Modelos de IA de uso general) y XII (Sanciones), con excepciones del artículo 101 y el artículo 78 (Confidencialidad), serán aplicables a partir del 2 de agosto de 2025 y el artículo 6, apartado 1 (Clasificación de los sistemas de IA de alto riesgo) y las obligaciones del Reglamento serán aplicables a partir del 2 de agosto de 2027.
Lo que busca es generar seguridad jurídica frente a estos sistemas, basados en el nivel de riesgo (mínimo, limitado, alto y prohibidos) que representan. En su artículo 1, se establece que lo principal es mejorar el funcionamiento del mercado interno, para el desarrollo, la introducción al mercado, la puesta en servicio y la utilización de estos sistemas, y que sea fiable, dentro de la Unión Europea, y a su vez busca que este tipo de tecnología sea utilizada de tal forma que respete los derechos, los valores, garantizando protección en salud, seguridad y los derechos fundamentales incluidos en la Carta Magna de la Unión. Asimismo, establece determinadas prohibiciones en prácticas de IA, y requisitos específicos para los sistemas de IA de alto riesgo, y obligaciones para los operadores de dichos sistemas. Las normas establecidas no deben perjudicar la legislación existente, en particular sobre todo las relativas a la protección de datos, al consumidor, derechos fundamentales, empleo y protección de los trabajadores, y seguridad del producto, y debe ser siempre complementario a la legislación vigente.
De las cosas que se pueden destacar con la entrada en vigencia de parte del Reglamento, es que se prohíbe a las empresas usarla para reconocer emociones en los puestos de trabajo, lo que estará multado, no se permitirá el uso de dispositivos o aplicaciones de IA que usen técnicas subliminales dirigidas a influir en el comportamiento de personas, que se aprovechen de las vulnerabilidades, que sirvan para categorizar individuos o para identificarlos a través de la biometría, entre otros, asimismo los proveedores y responsables del despliegue de sistemas de IA han de adoptar medidas para garantizar que, su personal que usa esta herramienta tengan un nivel suficiente de alfabetización en esta materia.
Ventajas y desventajas de su aplicación escalonada
El problema principal que se tiene con este tipo de avances tecnológicos, es que están en constante movimiento y actualización, entonces por qué se decidió hace una implementación escalonada del Reglamento, sabiendo que la tecnología avanza en un abrir y cerrar de ojos.
Esta estrategia busca equilibrar la seguridad jurídica, la innovación y la adaptación de los sectores afectados, permitiéndole a las empresas, proveedores y desarrolladores ajustar sus sistemas de IA para poder cumplir con los requisitos que se piden y a su vez, al priorizar la prohibición de ciertas prácticas de IA de altos riesgo, se busca evitar que se afectan derechos fundamentales.
Tal vez, es una forma de que las instituciones de la UE, puedan evaluar la efectividad de la primera etapa y pueden prepararse mejor para hacer cumplir la normativa y ajustar la normativa si es necesario.
Pero, si la mayor desventaja que hay al hacerlo de esta forma es que la normativa quede obsoleta al momento de que se aplique en su totalidad, ya que como venimos diciendo la IA avanza sin que uno pueda casi pensarlo.
China: regulación y avance constante
Cuando pensamos en IA, que lo que primero viene a la cabeza es en el avance tecnológico de esta materia en China, país que tiene un enfoque caracterizado por un fuerte intervencionismo estatal, con regulaciones que buscan tanto incentivar el desarrollo de IA nacional como controlar sus aplicaciones, como puede ser el plan lanzado en el año 2017 para de desarrollo de inteligencia artificial de nueva generación, estableciendo un plan de alto nivel para desarrollar tecnología y aplicaciones de IA, estableciendo objetivos hasta 2030, buscando con esto posicionarse a nivel mundial.
Actualmente, se encuentra en boca de todos por su app DeepSeek, la cual causo gran revuelo en la IA mundial después de que el 20 de enero publicara su último modelo, que según su desarrollador es comparable con el o1 de OpenAI, la firma creadora de ChatGPT, en la resolución de problemas matemáticos, programación e inferencia del lenguaje, pero poco tiempo después de su lanzamiento varios países de Asia, Europa, América y Oceanía han decidido bloquear con mayor o menor alcance la app, ya que encuentran discordancias con las leyes de protección de información personal del país, y la encuentran “sensible de espionaje”.
A pesar de ello, podemos decir que el contraste entre la UE y China radica en los objetivos: mientras la UE prioriza la protección de derechos fundamentales y la seguridad del consumidor, y China busca un equilibrio entre el control estatal y el liderazgo tecnológico, siendo este último su principal objetivo.
Estados Unidos y la IA: ¿más avanzada o quedo atrás en términos de Regulación?
Como venimos diciendo la UE, buscó en su Reglamento, establecer un marco normativo para garantizar el uso seguro y ético de la IA. En cambio, Estados Unidos, que estaba comenzando a regular esto, pero al asumir como presidente Donald Trupm, nuevamente, ha optado por una estrategia más flexible, eliminando todo tipo de obstáculo que pueda limitar su liderazgo en IA, y es por ello que el 23 de enero de 2025, firmó la orden ejecutiva titulada «Removing Barriers to American Leadership in Artificial Intelligence», en la cual busca fortalecer el liderazgo de EE.UU. en IA al eliminar políticas y directivas que se consideran obstáculos para la innovación en este campo. La política se centra en promover la competitividad económica y la seguridad nacional, desarrollando sistemas de IA libres de sesgos ideológicos o agendas sociales. A su vez, se establece un plazo de 180 días para que se elabore un plan de acción destinado a mantener la dominancia global de EE.UU. en IA. Con esta medida, buscan generar mayor competitividad económica, con menos énfasis en la regulación ética. Siempre quieren ser pioneros, y mantener su liderazgo en el sector, pero ¿a qué costo?
¿Puede esta NO regulación de IA, afectar a todos a nivel global? ¿Tener un marco regulatorio es beneficioso para la sociedad?
Teniendo un marco regulatorio busca garantizar seguridad y ética ante esta nueva tecnología, por supuesto, sin generar barreras para la innovación, pero siempre teniendo como objetivo garantizar y proteger los derechos fundamentales de las personas.
Sí la Unión Europea lograra desarrollar una IA propia ¿cambian las reglas del Reglamento?
¿quedaría este obsoleto o podría modificarse? De suceder el desarrollo de una IA en Europa, va a ser necesaria la revisión al presente reglamento, para adaptarlo no solo a la regulación sino también a la innovación, mas allá que en el artículo 57, se fomenta el desarrollo de un espacio controladopara pruebas de IA a escala nacional, que podrán hacerse en conjunto con autoridades de otro Estado Miembro, el cual estará operativo mas tardar a partir del 02 de agosto de 2026.
A pesar de ello, no hay que olvidar que, aunque la Unión Europea no desarrolle una IA pronto y con el extenso camino a implementar todo el Reglamento, es probable que esté sufra modificaciones pronto, ya que su enfoque basado en riesgos permite futuras adaptaciones, y teniendo alineaciones con otras normativas como el RGPD, le da una base sólida para evolucionar según las necesidades del sector.
Pero la realidad, es que no lo vamos a saber con exactitud, hasta que esto avance, ya que esta en constante cambio y crecimiento. Aunque el Reglamento es un primer paso crucial, su éxito dependerá de su capacidad de adaptación en un panorama tecnológico en constante evolución y sin dudas la IA es un sistema que llego para quedarse, generando muchos beneficios a la sociedad, pero nunca hay que dejar atrás el valor del trabajo de humano.
El gran desafío de regular una tecnología en constante evolución y la competencia con potencias como Estados Unidos y China, este Reglamento llego para quedarse, con sus aciertos y limitaciones, ofreciendo un modelo que otros países que podrían seguir y como ya hemos dicho su éxito dependerá de su capacidad para ajustarse a los avances tecnológicos sin frenar el desarrollo y la competitividad en el mercado global.