03 : 03 : 38  HRS ABRIL 11, 2025

La IA va a ser regulada en Europa para respetar los derechos fundamentales

Autor: Javier Valls Prieto Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada El jueves 27 de abril, el Parlamento Europeo llegó al fin a un...

30 de mayo, 2023 ¿Por qué regular la inteligencia artificial?

Autor: Javier Valls Prieto Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada

El jueves 27 de abril, el Parlamento Europeo llegó al fin a un acuerdo final sobre el Reglamento de inteligencia artificial. Es un paso importante porque el uso de la inteligencia artificial no está exenta de riesgos.

Según la propuesta de regulación se pueden establecer diferentes usos de IA dependiendo de los riesgos que conlleva: usos prohibidos, usos de alto riesgo y aquellos que no entran en ninguna de las dos categorías anteriores.

Prohibido clasificar la honradez

Los usos prohibidos que contempla la regulación europea de la inteligencia artificial tienen que ver con:

  • IA que puedan alterar el comportamiento de una persona causándole un daño físico o psíquico de manera subliminal. En este sentido se van a prohibir los sistemas basados en inteligencia artificial que reconozcan emociones en los ámbitos la educación, laboral, control de fronteras y aplicación de la ley.
  • Aquellos usos que exploten las vulnerabilidades de un grupo específico de individuos, ya sea por edad o discapacidad física o mental con la finalidad de distorsionar el comportamiento de una persona.
  • Los usos por autoridades públicas o en su nombre para su evaluación o clasificación de la honradez de las personas mediante sistemas de puntuación basándose en su comportamiento social o por sus características personales. Dentro de estos supuestos se encuentra la prohibición de la utilización de sistemas predictivos de criminalidad o de fraude administrativo.
  • El uso en tiempo real de sistemas de identificación biométricos en espacios públicos, salvo en los casos de búsqueda de víctimas concretas de crímenes, la prevención de una amenaza específica, inminente y substancial para la vida o integridad física o una amenaza terrorista.
  • La detención, localización o persecución del autor o sospechoso de un delito. Únicamente se harán excepciones para delitos graves, previa autorización judicial.

Empleo, servicios públicos y justicia

La nueva regulación contempla también usos considerados como de alto riesgo. Entre ellos:

  • Aquellos sistemas que se encargan de la seguridad de otro producto o de sí mismos.
  • Los destinados a identificación biométrica y categorización de las personas físicas, gestión y explotación de infraestructuras críticas, enseñanza y formación profesional
  • Empleo, gestión de trabajadores y acceso al autoempleo.
  • Acceso y disfrute de los servicios privados esenciales y de los servicios y prestaciones públicos, así como los utilizados para el cumplimiento de la ley por las fuerzas y cuerpos de seguridad. Se incluyen también los relacionados con la gestión de la migración, el asilo y el control de fronteras.
  • Administración de justicia y procesos democráticos.

En el último debate parlamentario se ha accedido a incluir los sistemas de recomendación de las grandes plataformas online, los sistemas encargados de infraestructuras clave cuando haya un riesgo de impacto en el medio ambiente y la inteligencia artificial generativa, como ChatGPT o Dall-e.

En todas estas situaciones existen usos que ponen en riesgo los derechos fundamentales de los ciudadanos y se exigirán medidas para evitar que se vulneren. Eso sí, serán medidas alineadas con las guías sobre inteligencia artificial del grupo de altos expertos de la Comisión Europea, que llevan años dándole vueltas al asunto.

Evaluar los riesgos de por vida

La regulación europea indica que la evaluación de riesgos debe establecerse, implantarse, documentarse y mantenerse durante toda la vida del sistema inteligente. De manera repetitiva. Se deben evaluar los riesgos que pueden surgir de su uso previsto, pero también de las posibles malas aplicaciones. Y, por supuesto, implementar medidas para prevenirlos.

Además, se exige que haya un plan de gestión de datos, en cumplimiento con la normativa del Reglamento General de Protección de Datos. En todos los sistemas de IA es importante favorecer el acceso a la documentación técnica, y deben estar diseñados para que la transparencia en su funcionamiento permita a los usuarios interpretar sus resultados. Las instrucciones deben ser también sencillas de entender.

Por otro lado, la regulación contempla que los sistemas basados en inteligencia artificial se diseñen para permitir la supervisión humana de sus resultados, con el fin de prevenir y mitigar los riesgos en la salud, seguridad o en los derechos fundamentales de los ciudadanos.

No acaban ahí las exigencias: también deben ser precisos (mediante sistemas de métricas), robustos (que tengan copias de respaldo y planes en caso de fallo) y ciberseguros (preparados para intentos de usos por terceras partes no autorizadas).

Todos estos principios estaban ya recogidos en las guías éticas del grupo de altos expertos. En el reciente debate parlamentario europeo se ha acordado introducir otros que faltaban como el bienestar social y ambiental, el respeto a la diversidad y no discriminación y el principio de justicia.

Hacia una inteligencia artificial fiable

Que la regulación tenga como base el respeto a los derechos fundamentales y los siete principios de las guías del grupo de altos expertos de la Comisión Europea permite tener un estándar europeo claro: la inteligencia artificial fiable.

Estos requisitos serán controlados por las agencias nacionales de inteligencia artificial y, para los casos en los que se utilicen en más de un país o tengan un gran impacto transnacional, por la futura Junta Europea de Inteligencia Artificial.

Aunque ha llevado algún tiempo preparar la legislación, es indiscutible que se trata de un texto que va a dar garantías a la ciudadanía al priorizar el respecto y protección de los derechos fundamentales, teniendo como eje central de su diseño a los humanos.

Comentarios


Gemini 2.5: El Cerebro Multimodal de Google que Quiere Superar a ChatGPT y Grok

Gemini 2.5: El Cerebro Multimodal de Google que Quiere Superar a ChatGPT y Grok

Desde el lanzamiento de ChatGPT en 2022, el mundo de la inteligencia artificial ha cambiado radicalmente. OpenAI, Microsoft y Google han entrado...

abril 4, 2025
Data Centers: Los Colosos Digitales que se Tragan la Energía del Mundo

Data Centers: Los Colosos Digitales que se Tragan la Energía del Mundo

Hace apenas unas décadas, hablar de servidores o “la nube” parecía asunto exclusivo de técnicos de bata blanca o gurús del internet....

abril 10, 2025




Más de categoría
Data Centers: Los Colosos Digitales que se Tragan la Energía del Mundo

Data Centers: Los Colosos Digitales que se Tragan la Energía del Mundo

Hace apenas unas décadas, hablar de servidores o “la nube” parecía asunto exclusivo de técnicos de bata blanca o...

abril 10, 2025
Además de la diversión y la expresión artística, el baile tiene un impacto profundo en nuestra mente y cuerpo.  ¿Alguna vez se ha preguntado qué sucede en nuestro cerebro al bailar?

Ritmos que activan la mente: la neurociencia del baile

“Nací a la orilla del mar. Mi primera idea del movimiento y de la danza me ha venido seguramente...

abril 7, 2025
Gemini 2.5: El Cerebro Multimodal de Google que Quiere Superar a ChatGPT y Grok

Gemini 2.5: El Cerebro Multimodal de Google que Quiere Superar a ChatGPT y Grok

Desde el lanzamiento de ChatGPT en 2022, el mundo de la inteligencia artificial ha cambiado radicalmente. OpenAI, Microsoft y...

abril 4, 2025
¡Tu contraseña ya no es suficiente! La importancia de activar la Autenticación de Doble Factor (MFA) hoy mismo

¡Tu contraseña ya no es suficiente! La importancia de activar la Autenticación de Doble Factor (MFA) hoy mismo

Tu contraseña ya no es suficiente, pero tú sí puedes ser suficiente… si tomas acción hoy.

marzo 31, 2025