Reglamento de inteligencia artificial


Manuel Castilleja Toscano     16/12/2023

EL CONSEJO Y EL PARLAMENTO EUROPEO LLEGAN A UN ACUERDO SOBRE LAS PRIMERAS NORMAS DEL MUNDO PARA LA INTELIGENCIA ARTIFICIAL

La Unión Europea, de nuevo marcando el camino y posiblemente la referencia regulatoria, cierra un acuerdo provisional para adoptar el Reglamento de inteligencia artificial (IA). Fue el pasado viernes 8 de diciembre.

Aunque no será de aplicación, de forma íntegra, hasta los 24 meses de su adopción formal y publicación en el Diario Oficial de la UE , lo que previsiblemente no será hasta 2026, adelanta la aplicación de ciertas obligaciones a 2024 y 2025:

  • Las prohibiciones de uso entrarán en aplicación a los 6 meses de la adopción del Reglamento (2024).
  • Las obligaciones de modelos fundacionales (transparencia y gobernanza) será de aplicación a los 12 meses (2025).
  • Las obligaciones aplicables a sistemas de IA de alto riesgo, será de aplicación a los 12 meses (2025).

Del Reglamento cabe destacar:

  • Definición de sistema de IA en línea con las definiciones propuestas por la OCDE.
  • Categoriza los niveles de riesgo y las restricciones que deben acompañar en función de la escala, lo que implica la prohibición en casos de riesgo no asumible, como:
    • Los sistemas de categorización biométrica.
    • La extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial.
    • El reconocimiento de emociones en entornos laborales y educativos.
    • Sistemas de puntuación social basados en comportamiento o características personales.
    • Sistemas que manipulan el comportamiento subliminal.
    • Sistemas que exploten vulnerabilidades de las personas.
  • También prevé excepciones que permitirán el uso de sistemas de vigilancia biométrica en espacios públicos, siempre que haya orden judicial previa y para una lista de delitos estrictamente definidos.
  • Nuevas obligaciones para sistemas de IA de uso general y para cuando dichos sistemas se integran posteriormente en otro sistema de IA que se califique como de alto riesgo.
  • Reglas específicas para los modelos fundacionales: de forma general, obligaciones de transparencia para todos los modelos y obligaciones reforzadas para aquellos de alto impacto.
  • Mejorar la protección de los derechos mediante la obligación de que los usuarios de sistemas de IA de alto riesgo lleven a cabo una evaluación de impacto sobre los derechos fundamentales antes de poner en funcionamiento un sistema de IA. El Parlamento Europeo destaca y especifica en su comunicado de prensa que esta obligación alcanza a entidades financieras y aseguradoras.
  • Derecho de los consumidores a presentar quejas y recibir explicaciones significativas
  • Multas que van desde un máximo de 35.000.000 € o el 7% del volumen de facturación anual, hasta el más bajo de 7.500.000 € o el 1,5% de la facturación, en función de la gravedad de la conducta y tamaño de la organización.
  • Medidas de apoyo a la innovación y a las pymes, destinadas a garantizar que las empresas, en particular las pymes, puedan desarrollar soluciones de IA sin una presión indebida por parte de los gigantes del sector. Con este fin, el acuerdo promueve los llamados sandboxes regulatorios y las pruebas del mundo real, establecidos por las autoridades nacionales para desarrollar y entrenar IA innovadora antes de su comercialización.

Mas información sobre el acuerdo en: