www.nexotrans.com
Ley de Inteligencia Artificial de la UE: Cinco claves para poder entenderla

Ley de Inteligencia Artificial de la UE: Cinco claves para poder entenderla

Miquel Peguera, catedrático de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya, da algunas claves

martes 21 de mayo de 2024, 07:00h

La próxima Ley de Inteligencia Artificial (AI Act) de la UE busca abordar los riesgos y promover el desarrollo seguro de la IA. Se impondrán sanciones económicas a quienes violen el reglamento, incluso a proveedores externos. La regulación afectará a empresas, profesionales y estados en términos de uso de la IA en diversos ámbitos. Una jornada de la UOC profundizará en los cambios y retos futuros de esta ley.

Cinco claves de la nueva Ley de Inteligencia Artificial de la UE

Según Miquel Peguera, catedrático de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC), "la IA ha generado grandes expectativas en términos de crecimiento, eficiencia y mejora de las condiciones de vida, así como impulso a la investigación".

Para el experto, este nuevo reglamento tiene como claves principales las siguientes:

  1. Regula la comercialización y el uso de sistemas de IA en la Unión Europea.
  2. Busca promover la adopción y el desarrollo de la IA y, al mismo tiempo, mitigar los riesgos que un mal uso de esta tecnología puede suponer para la salud, la seguridad y los derechos fundamentales.
  3. Prohíbe determinadas prácticas que se consideran de riesgo inaceptable para los ciudadanos y para el conjunto de la sociedad. Por ejemplo, crear bases de datos de reconocimiento facial a partir de la extracción indiscriminada de imágenes de internet, evaluar o clasificar a las personas a lo largo del tiempo por su comportamiento social o sus características personales, o bien explotar las vulnerabilidades de una persona o grupo con la intención de causar daño.
  4. Centra la regulación en los sistemas de IA que considera de alto riesgo. Por ejemplo, en relación con el acceso a servicios esenciales (públicos o privados) o con la categorización biométrica de las personas, entre otros supuestos.
  5. Exige transparencia con respecto a los contenidos creados o manipulados con herramientas de IA o a los sistemas de reconocimiento de emociones.