La aplicación y uso de la inteligencia artificial (IA) trae consigo riesgos sobre la protección de datos de los usuarios. Dicha cuestión se ve recogida en el Reglamento General de Protección de Datos (RGPD), establecida por la Unión Europea en el año 2018, donde la UE establece un marco sólido para la protección de datos personales general y, de forma actualizada, la limitación de los usos de la IA para los países miembros de la UE. Se ha llegado a esta medida debido a que el desarrollo y los usos de la IA requieren el procesamiento de grandes volúmenes de datos personales mediante el Aprendizaje Automático (o Machine Learning, ML). La UE tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros, fiables y respetuosos con los valores y derechos fundamentales de los ciudadanos.
La Agencia Española de Protección de Datos (AEPD) recoge 6 principios para todas las fases en las que se usa y almacena datos personales:
- Licitud, lealtad y transparencia: los datos deben ser procesados de manera legal y con transparencia para el usuario.
- Limitación de finalidad (especificación del propósito): los datos deben ser tratados solo con fines específicos.
- Minimización de datos: deben recopilarse solo los datos necesarios con relación a los fines tratados
- Exactitud: los datos deben ser exactos.
- Limitación del plazo de conservación: los datos no pueden conservarse más tiempo del necesario para los fines tratados.
- Integridad y confidencialidad: los datos deben ser tratados de manera segura y protegidos del tratamiento no autorizado.
De igual forma, y a medida que avanzan las tecnologías de la IA, la UE ha alcanzado un acuerdo sobre una propuesta de normas relacionadas con la IA, denominada «Reglamento de Inteligencia Artificial», cuya entrada en vigor fue en el año 2024. Según Carmen Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial de España, la UE tiene como objetivo «mantener el equilibrio entre impulsar la innovación y adoptar la IA en toda Europa al mismo tiempo que se respetan los derechos fundamentales de los ciudadanos».
Uno de los acuerdos establecidos con este nuevo reglamento es la clasificación de sistemas de alto riesgo, donde se diferenciará entre los sistemas que sí cometen una violación grave de los derechos fundamentales de los ciudadanos y aquellos que solo tienen un riesgo limitado, que estarán entonces sujetos a obligaciones de transparencia leve. Se establecen 4 niveles donde «a mayor riesgo, normas más estrictas».
Otro acuerdo muy interesante es la excepción del uso de la IA en el ámbito policial. Se ha acordado que las autoridades policiales pueden implementar la IA en sus labores esenciales sin que dicha herramienta haya sido sometida a un procedimiento de evaluación de seguridad. De todos modos, también se ha introducido un mecanismo para asegurar que los derechos fundamentales estén suficientemente protegidos frente a cualquier uso indebido de la IA.
Como se ha mencionado anteriormente, el nuevo Reglamento de Inteligencia Artificial de la UE junto con lo ya expuesto en el RGPD suponen un refuerzo en la seguridad de los derechos fundamentales de los ciudadanos de la UE mientras que se promueve la innovación tecnológica. El equilibrio entre seguridad y desarrollo es la clave para garantizar un futuro ético y responsable de la IA.
Referencias:
- Agencia Española de Protección de Datos (2020). Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción.
- Consejo de la Unión Europea (2025). Reglamento de Inteligencia Artificial.
- Consejo de la Unión Europea (2023). Reglamento de Inteligencia Artificial: el Consejo y el Parlamento alcanzan un acuerdo sobre las primeras normas del mundo en materia de inteligencia artificial.
- Fernández, J. A. (2024). El reglamento (RGPD) y la inteligencia artificial.