23/06/2023
Ley Europea de Inteligencia Artificial
La UE está decidida a implementar una regulación pionera que garantice que las IA usadas por los europeos sean seguras y respeten los derechos fundamentales y valores de la Unión.

La inteligencia artificial (IA) es un conjunto de tecnologías de rápida evolución que puede generar un amplio abanico de beneficios económicos y sociales en todos los sectores y las actividades sociales. La inteligencia artificial puede facilitar la consecución de resultados positivos desde el punto de vista social y medioambiental, así como proporcionar ventajas competitivas esenciales a las empresas y la economía europea. No obstante, los mismos elementos y técnicas que potencian los beneficios socioeconómicos de la IA también pueden dar lugar a nuevos riesgos o consecuencias negativas para personas concretas o la sociedad en su conjunto.

Debido a ello, en abril de 2021, la Comisión propuso el primer marco regulador de la UE para la IA; el 15 de junio de 2023, con 499 votos a favor, 28 en contra y 93 abstenciones, el Parlamento Europeo fijó su posición de cara a las negociaciones que empezarán con la Comisión Europea y el Consejo de la UE para pactar el texto definitivo de la ley y que continuarán bajo la presidencia rotatoria que España asumirá el 1 de julio. La Presidencia española del Consejo de la Unión Europea servirá para impulsar la negociación del reglamento de Inteligencia Artificial, en un contexto en el que España se ha posicionado como un país de referencia en Europa, liderando numerosas iniciativas para impulsar un marco regulatorio adecuado. Una vez aprobadas, serán las primeras normas del mundo sobre IA, y podrían establecer un nuevo estándar global para la supervisión de la IA.

El texto establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA. El reglamento también establecerá normas armonizadas para la comercialización, la puesta en servicio y el uso de sistemas de inteligencia artificial en la Unión; normas sobre seguimiento del mercado, vigilancia del mercado y gobernanza o medidas de apoyo a la innovación. La propuesta establece la creación de un “Comité Europeo de Inteligencia Artificial", que garantizará la toma de decisiones a nivel europeo.

La norma distingue principalmente tres niveles de riesgo: cuanto mayor sea el riesgo para los derechos o la salud de las personas, mayores serán las obligaciones de los sistemas. 

De un lado estarían las IA que no representan una gran amenaza para los ciudadanos. Los sistemas de IA de riesgo limitado deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas. Los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo.

En segundo lugar, los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo. Estos sistemas solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE, y estarán sometidos a una mayor vigilancia que garantice la seguridad e integridad en su uso. Se dividirían en dos categorías:

  • Los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
  • Una base de datos pública para toda la UE se destinará a registrar sistemas de IA pertenecientes a ocho ámbitos específicos, que será alimentada por la información que provean los proveedores de IA. El registro permitirá que autoridades, usuarios y otros interesados verifiquen si un sistema de IA de alto riesgo cumple con los requisitos establecidos.

En un tercer grupo, se encuentran las IA de riesgo inaceptable, que se consideran una amenaza para las personas, los derechos fundamentales, la democracia, el Estado de Derecho o el medio ambiente, y pasarán a estar prohibidas en el territorio de la Unión Europea una vez la norma entre en vigor. En este grupo se incluyen las IA de “puntuación social", el uso de técnicas subliminales, las que se aprovechen de alguna de las vulnerabilidades de un grupo específico de personas o sistemas de reconocimiento de emociones, entre otras.

Por último, se obligará a los sistemas de IA generativa, como ChatGPT, a que avisen de que sus contenidos se han generado artificialmente. También deberán diseñar el modelo para evitar que genere contenidos ilegales; y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.​


Etiquetas


×