26 marzo 2025
ignacio-barahona

El fin de la IA peligrosa: La Ley de la Inteligencia Artificial en Europa

Desde el 2 de febrero de 2025, la AI Act ha entrado en vigor con sus primeras prohibiciones. Descubre en este artículo qué sistemas de Inteligencia Artificial están vetados y cómo te afectan a ti o a tu empresa. 

Ignacio Barahona Moreno 

 

La ley de Inteligencia Artificial de la Unión Europea entró en vigor el 2 de agosto de 2024 estableciendo un marco regulatorio para el desarrollo y uso de la IA en la UE, con el objetivo de garantizar que se desarrolle y utilice de manera que respete los valores y derechos europeos. 

Aunque la implementación completa de la ley se realizará de manera escalonada hasta 2026, algunas disposiciones clave, incluidas las prohibiciones de ciertos sistemas de IA, ya han comenzado a aplicarse desde el 2 de febrero de este año

El pasado mes de septiembre, publicamos en este mismo blog un artículo explicando cómo esta normativa clasifica los sistemas de IA en diferentes niveles de riesgo. 

Ahora, en este nuevo artículo me centro en las primeras prohibiciones establecidas por la AI Act, explorando las motivaciones que hay detrás de estas restricciones y el impacto que tendrán en operadores, responsables de despliegues y usuarios de sistemas de IA. A través de un análisis detallado, se pretende proporcionar una visión clara de cómo estas prohibiciones buscan salvaguardar los derechos fundamentales y la seguridad de las personas, y qué medidas deben tomar las empresas para adaptarse a este nuevo entorno regulatorio. 

 

Primeras prohibiciones de la Ley de Inteligencia Artificial

Los sistemas que se prohíben desde ese 2 de febrero por parte de la AI Act para salvaguardar los derechos fundamentales y la seguridad de las personas incluyen:

  • Sistemas de manipulación cognitiva, es decir, que usen la IA para influir en el comportamiento humano a través de técnicas subliminales, es decir que presentan información por debajo del umbral de la conciencia para influir en las decisiones. 
    La AI Act prohíbe estos sistemas debido al potencial que tienen para limitar la capacidad de las personas para tomar decisiones libres e informadas, además de que pueden generar estrés, ansiedad o sentimiento de culpa y pueden influir en aspectos como el comportamiento electoral o decisiones de consumo.
     
  • Sistemas de puntuación social, que clasifican a las personas en función de su comportamiento social o sus características personales, asignando una "puntuación social" a cada individuo y que pueden utilizarse para determinar su acceso a bienes, servicios, oportunidades o incluso derechos.
    La AI Act prohíbe los sistemas de puntuación social utilizados por las autoridades, porque representan una amenaza para los derechos fundamentales. 
     
  • Identificación biométrica en tiempo real en espacios públicos, para identificar a personas de forma automática basándose en sus características biológicas como reconocimiento facial, e identificación por iris o voz con excepciones limitadas para fines de seguridad.
    La AI Act prohíbe el uso de estos sistemas biométricos para evitar que se cree un sistema de vigilancia masiva y por eso permite su uso únicamente en casos excepcionales como: búsqueda de víctimas, prevención de amenazas terroristas o localización de sospechosos en delitos graves. 
     
  • Sistemas de reconocimiento de emociones, que hacen uso de la IA para detectar e interpretar las emociones a partir de datos como expresiones faciales, patrones del habla para detectar cambios en el tono, el volumen o el ritmo y datos biométricos como la frecuencia cardiaca, la sudoración o la actividad cerebral. 
    La AI Act prohíbe el reconocimiento de emociones en ciertos contextos como lugares de trabajo para evitar la discriminación y proteger la privacidad de los empleados y en instituciones educativas para garantizar un entorno de aprendizaje seguro y respetuoso.
     
  • Sistemas de categorización biométrica, o sistemas que categorizan a las personas en función de datos biométricos, como rasgos faciales o patrones del habla. Esta categorización puede basarse en diversos criterios como género, edad, etnia, orientación sexual, creencias políticas o religiosas o estado de salud.
    La AI Act prohíbe estos sistemas porque representan un riesgo significativo para los derechos fundamentales y la dignidad humana. 
     

Sanciones establecidas

Aunque estas prohibiciones son ya aplicables, el régimen sancionador no comenzará a tener efecto hasta el 2 de agosto de 2025, pero conviene ir conociendo cómo está definido este régimen sancionador

Las infracciones de prácticas prohibidas (IA de riesgo inaceptable) como las que han entrado en vigor el pasado mes de febrero podrán ser sancionadas con hasta 35 millones de euros o el 7% del volumen de negocios anual de la empresa (la cifra mayor).

El incumplimiento de obligaciones de sistemas de IA de alto riesgo podrá ser sancionado con hasta 15 millones de euros o el 3% del volumen de negocios anual de la empresa (la cifra mayor).

El suministro de información incorrecta, incompleta o engañosa podrá ser sancionado con hasta 7,5 millones de euros o el 1% del volumen de negocios anual de la empresa (la cifra mayor).

Se han mencionado las sanciones máximas, pero para determinar qué sanción aplica influirán diferentes factores: gravedad de la infracción, duración de la infracción, intencionalidad de la infracción, tamaño y recursos de la empresa infractora y medidas adoptadas para mitigar los daños.

No hay que olvidar que los Estados miembros de la UE, como responsables de aplicar y hacer cumplir la AI Act, podrán establecer sanciones adicionales a nivel nacional y que, además, la AI Act también prevé la posibilidad de imponer medidas no pecuniarias, como la prohibición de comercializar o utilizar un sistema de IA.
 

Impacto de la AI Act en las empresas

Esto, lógicamente, va a impactar en las empresas y organizaciones en diferentes dimensiones:

  • Responsabilidad y transparencia: los sistemas de IA de alto riesgo tienen que ser transparentes y explicables, lo que implica documentar cómo funcionan y cómo se toman las decisiones. Las empresas deberán asumir una mayor responsabilidad por los posibles daños o discriminaciones que puedan causar sus sistemas de IA.
  • Costes de cumplimiento: adaptarse a la nueva normativa implicará costes adicionales para las empresas, como la realización de evaluaciones de riesgos, la implementación de medidas de seguridad y la contratación de expertos en ética de IA. 
  • Ventaja competitiva: las empresas que demuestren un compromiso con la IA ética y responsable podrán obtener una ventaja competitiva, ya que obtendrán una mayor confianza de sus clientes. 
  • Cambios en el desarrollo de IA:  la ley fomenta el desarrollo de una IA con el foco en el ser humano, lo que implica que las empresas tendrán que dar prioridad a la seguridad, la ética y los derechos fundamentales en el diseño e implementación de sus sistemas.
  • Riesgo de sanciones: el incumplimiento conllevará sanciones y ya hemos comentado que éstas pueden ser elevadas, lo que supone un riesgo financiero para las empresas.

Pero ¿cómo pueden prepararse las empresas para esta adaptación? Hay una serie de recomendaciones que, desde mi punto de vista, son primordiales:

  1. Realizar una evaluación de riesgos.
  2. Implementar medidas de seguridad técnicas y organizativas que garanticen la seguridad, la transparencia y la explicabilidad de los sistemas de IA.
  3. Establecer un marco ético mediante el desarrollo de políticas internas sobre el uso ético de IA, formando a los empleados en esta línea.
  4. Garantizar la transparencia informando a los usuarios sobre cómo funcionan los sistemas y cómo estos utilizan sus datos.
  5. Colaborar con expertos en ética de IA, derecho y seguridad para garantizar el cumplimiento de la normativa.
  6. Mantenerse actualizado, porque la ley de la IA, como he comentado al inicio del artículo está en continua evolución con una entrada en vigor escalonada. 

 

¿Quién vigila el cumplimiento de la AI Act?

La Comisión Europea será la encargada de supervisar la aplicación general de la ley, pero el papel principal recaerá en las autoridades nacionales que dispondrán de la potestad de investigar, sancionar y ordenar la retirada de los sistemas de IA que incumplan la normativa. 
Para ello dispondrán de mecanismos de control como evaluaciones de conformidad, creación de una base de datos europea donde se registrarán todos los sistemas de IA de alto riesgo que se comercialicen en la UE, establecimiento de un mecanismo de denuncia para ciudadanos y organizaciones y cooperación entre las autoridades nacionales y la Comisión Europea. 
Es importante tener en cuenta que la AI Act es una normativa compleja y en evolución, y que la forma exacta en que se llevará a cabo la supervisión y el cumplimiento dependerá de las decisiones que se tomen en los próximos meses y años. 

Estas primeras prohibiciones de la IA son solo el comienzo de un camino hacia una inteligencia artificial más ética y responsable. La Unión Europea ha sentado las bases para un futuro en el que la IA se utilice para el bien común, respetando los derechos fundamentales y generando oportunidades para todos. Si bien los retos son muchos, el potencial de la IA para transformar positivamente nuestra sociedad es aún mayor. 

Con un enfoque centrado en el ser humano, este camino también lleva hacia la transparencia y la confianza. Al exigir que los sistemas de IA de alto riesgo sean comprensibles y auditables, la normativa fomenta la confianza de los ciudadanos en esta tecnología. Las empresas que apuesten por la transparencia no solo cumplirán la ley, sino que también obtendrán una ventaja competitiva al generar confianza en sus clientes y socios. En un mundo cada vez más impulsado por la IA, la confianza será un factor determinante para el éxito. 
 

Más opciones:

Publicaciones relacionadas