Os que violen o Regulamento de Intelixencia Artificial poderán serán multados desde este verán

O Regulamento de Intelixencia Artificial (RIA) da Unión Europea (Regulamento (#UE) 2024/1689), en vigor desde o 1 de agosto de 2024, establece un marco normativo harmonizado para o desenvolvemento e uso de sistemas de IA, con aplicación directa en España. As empresas que desenvolvan, implementen ou utilicen sistemas de IA deben cumprir unha serie de obrigacións, cuxa entrada en vigor é graduada.

 


|

Catalunyapress iafeines15ab25

O equipo de Laboral, Compensación e Beneficios de Pérez-Llorca celebrou unha nova edición do ciclo ‘Pérez-Llorca Laboral ao Día’ na sede do despacho en Barcelona, centrada esta vez nas implicacións laborais do novo marco normativo sobre Intelixencia Artificial. A xornada reuniu a expertos do despacho como Manel Hernàndez, Marc París e Raúl Rubio, quen analizaron os desafíos e oportunidades que expón a regulación europea da IA na contorna empresarial.

 

Tendencias laborais no horizonte: absentismo, aranceis e reindustrialización

O socio Manel Hernàndez abriu a sesión identificando algunhas das tendencias que marcarán a actualidade laboral nos próximos meses:

Repunte do absentismo laboral: un incremento do 10,5 % nas baixas por continxencias comúns obriga ás empresas a repensar as súas políticas preventivas, desde a revisión de complementos por incapacidade até o seguimento individualizado de casos, sempre respectando a legalidade e a privacidade das persoas traballadoras.

Impacto dos aranceis estadounidenses: sectores estratéxicos en España poderían verse afectados, o que esixirá un enfoque máis estratéxico na planificación laboral.

Novas esixencias en procesos de reindustrialización: o Proxecto de Lei de Industria introduce unha obrigación de preaviso de até nove meses en determinados escenarios de perda de capacidade industrial. “Unha medida que pode dificultar a flexibilidade empresarial”, advertiu Hernàndez.

 

Como xa é habitual no ciclo, o avogado Marc París ofreceu unha análise das sentenzas máis relevantes dos últimos meses. Entre elas, destacou a Sentenza do Tribunal Supremo do 5 de marzo de 2025, que reforza o artigo 44 do Estatuto dos Traballadores ao impedir que as empresas eviten a subrogación de persoal mediante despedimentos previos pactados.

“Esta sentenza pecha a porta a manobras que pretendan esquivar a protección legal en sucesións de contratas”, explicou París.

 

Intelixencia artificial: o que as empresas deben saber

A última parte do seminario estivo a cargo de Raúl Rubio, socio da área de Tecnoloxía do despacho, quen ofreceu unha panorámica sobre o Regulamento de Intelixencia Artificial e o seu impacto laboral. Entre os puntos crave:

Calendario de aplicación:

Febreiro 2025: entrada en vigor de prácticas prohibidas e disposicións xerais.

Agosto 2025: comezo do réxime sancionador.

Agosto 2027: plena aplicación a sistemas de alto risco.

Ámbito de aplicación extraterritorial: afecto a calquera empresa que opere no mercado da UE, mesmo se non ten sede en Europa.

 

Clasificación por niveis de risco: a normativa distingue entre sistemas prohibidos, de alto, medio e baixo risco.

“Inferir emocións na contorna laboral estará expresamente prohibido, salvo excepcións médicas ou de seguridade”, subliñou Rubio.

Ademais, fixo referencia ao Anteproxecto de Lei para o Bo Uso e a Gobernanza da IA que se tramita actualmente en España e que desenvolverá o réxime sancionador a nivel nacional.

 

1. Obrigacións xerais desde o 2 de febreiro de 2025

A partir do 2 de febreiro de 2025, as empresas deben cumprir coas seguintes disposicións do RIA, segundo o establecido no artigo 99 e o capítulo I e II do Regulamento:

a. Alfabetización en IA (Artigo 4 do RIA)

  • Que implica: Os provedores e responsables do despregamento de sistemas de IA (empresas que os desenvolven, comercializan ou utilizan) deben garantir que o seu persoal e as persoas que operen ou interactúen con estes sistemas reciban formación axeitada.
  • Obxectivo: Asegurar que os empregados comprendan o funcionamento dos sistemas de IA, as súas limitacións, riscos, oportunidades e posibles prexuízos, promovendo un uso responsable.
  • Exemplo práctico: Unha empresa que utiliza un chatbot para atención ao cliente debe capacitar aos seus empregados sobre como interactúa o sistema, os seus rumbos potenciais e como supervisalo.
  • Recomendación: Aínda que non é obrigatorio para sistemas de IA de uso xeral (como ChatGPT) en contornas sen implicacións legais ou de dereitos fundamentais, recoméndase ofrecer formación para minimizar riscos.

b. Prohibición de sistemas de IA de risco inaceptable (Artigo 5 do RIA)

  • Que implica: Prohíbense certos usos de IA considerados de "risco inaceptable" por vulnerar dereitos fundamentais ou os valores da UE.
  • Sistemas prohibidos:
    • Sistemas que utilicen técnicas subliminares, manipuladoras ou enganosas para distorsionar o comportamento e causar danos significativos.
    • Sistemas que exploten vulnerabilidades (idade, discapacidade, situación socioeconómica) para influír no comportamento.
    • Sistemas de puntuación social que clasifiquen a persoas segundo comportamento ou características persoais.
    • Sistemas de identificación biométrica en tempo real en espazos públicos (como recoñecemento facial) sen xustificación policial e autorización xudicial.
    • Sistemas de inferencia de emocións en contornas laborais ou educativas (excepto por motivos médicos ou de seguridade).
    • Sistemas de vixilancia predictiva baseados en perfís ou categorización biométrica por raza, relixión ou orientación sexual.
  • Exemplo práctico: Unha empresa non pode implementar un sistema de IA que analice emocións de empregados para avaliar o seu rendemento, salvo excepcións xustificadas.
  • Acción requirida: As empresas deben revisar os seus sistemas de IA para identificar e eliminar calquera uso prohibido antes do 2 de febreiro de 2025. A Comisión Europea publicará directrices sobre estas prohibicións antes desta data (artigo 96 do RIA).

 

 

2. Obrigacións a partir do 2 de agosto de 2025

Desde o 2 de agosto de 2025, entrarán en vigor novas obrigacións, especialmente para sistemas de IA de uso xeral e de alto risco, así como o réxime sancionador:

a. Obrigacións para provedores de modelos de IA de uso xeral (Artigo 53 do RIA)

  • Que implica: Os provedores de modelos de IA de uso xeral (como os de IA xenerativa: ChatGPT, Gemini, etc.) deben cumprir requisitos de transparencia e protección de dereitos.
  • Obrigacións específicas:
    • Publicar un resumo detallado do contido utilizado para adestrar o modelo, seguindo o modelo que proporcionará a Oficina Europea de IA.
    • Garantir o cumprimento da normativa da UE en materia de propiedade intelectual durante o adestramento e a xeración de contido.
    • Implementar medidas de xestión de riscos e transparencia.
  • Exemplo práctico: Unha empresa que desenvolva un modelo de IA xenerativa debe documentar e facer público o tipo de datos (textos, imaxes, etc.) utilizados para adestralo, asegurando que non infrinxe dereitos de autor.
  • Recomendación: Os provedores deben preparar para colaborar coa Oficina Europea de IA na elaboración do Código de Boas Prácticas, que estará listo en abril de 2025.

b. Gobernanza e supervisión

  • Designación de autoridades nacionais: En España, a Axencia Española de Supervisión de Intelixencia Artificial (AESIA), creada polo Real Decreto 729/2023, será a autoridade encargada de supervisar, inspeccionar e sancionar o cumprimento do RIA.
  • Obrigacións das empresas: Cooperar coa AESIA, proporcionar información precisa e someter a auditorías se é necesario.
  • Exemplo práctico: Unha empresa que implemente un sistema de IA debe estar preparada para presentar documentación técnica á AESIA se se lle solicita.

c. Réxime sancionador (Artigo 99 do RIA)

  • Que implica: A partir do 2 de agosto de 2025, o incumprimento do RIA pode carrexar sancións significativas, aplicadas pola AESIA ou outras autoridades nacionais.
  • Multas:
    • Até 35 millóns de euros ou o 7% da facturación anual global por incumprir as prohibicións do artigo 5 (sistemas de risco inaceptable).
    • Até 15 millóns de euros ou o 3% da facturación por incumprir outras obrigacións (xestión de riscos, documentación, transparencia, supervisión humana).
    • Até 7,5 millóns de euros ou o 1% da facturación por proporcionar información inexacta ou enganosa ás autoridades.
  • Outras medidas: Advertencias, medidas correctivas ou coercitivas non pecuniarias.
  • Exemplo práctico: Unha empresa que utilice un sistema de recoñecemento facial nun centro comercial sen autorización podería enfrontar multas de até o 7% da súa facturación global.
  • Recomendación: Implementar sistemas de cumprimento normativo (compliance) para evitar sancións.

 

 

3. Obrigacións para sistemas de IA de alto risco (aplicables plenamente a partir do 2 de agosto de 2026, con excepcións até 2027)

Os sistemas de IA de alto risco (HRAIS), definidos nos anexos I e III do RIA, inclúen aqueles que poidan afectar a saúde, seguridade ou dereitos fundamentais (por exemplo, sistemas de selección de persoal, avaliación crediticia, dispositivos médicos con IA). As empresas deben cumprir as seguintes obrigacións:

a. Requisitos técnicos e de conformidade

  • Xestión de riscos: Implementar un sistema de xestión de riscos ao longo do ciclo de vida do sistema de IA.
  • Calidade de datos: Utilizar conxuntos de datos de alta calidade para minimizar rumbos e garantir a fiabilidade.
  • Documentación técnica: Elaborar e manter documentación detallada sobre o deseño, implementación e funcionamento do sistema.
  • Transparencia e explicabilidad: Asegurar que as decisións automatizadas sexan comprensibles para os usuarios.
  • Supervisión humana: Garantir que os sistemas de IA de alto risco estean suxeitos a supervisión humana efectiva.
  • Avaliación de conformidade: Realizar unha avaliación previa ao lanzamento ao mercado, que pode incluír auditorías de terceiros para certos sistemas (anexo I).

b. Rexistro na base de datos da UE

  • Os sistemas de IA de alto risco e as entidades públicas que os utilicen deben rexistrar nunha base de datos da UE.
  • Exemplo práctico: Unha empresa que desenvolva un sistema de IA para avaliar solicitudes de emprego debe rexistralo e demostrar que cumpre cos requisitos de transparencia e non discriminación.

c. Avaliación de impacto en dereitos fundamentais

  • Antes de implementar un sistema de IA de alto risco, as entidades públicas ou privadas que presten servizos públicos deben avaliar o seu impacto nos dereitos fundamentais.
  • Exemplo práctico: Un hospital que use IA para diagnosticar enfermidades debe avaliar como o sistema afecta a privacidade e o dereito á saúde dos pacientes.

d. Obrigacións específicas para responsables do despregamento

  • Selección de provedores: Elixir provedores que cumpran co RIA.
  • Supervisión e control: Implementar mecanismos para garantir un uso seguro e responsable.
  • Capacitación: Formar aos empregados no uso axeitado dos sistemas de IA de alto risco.

e. Prazo ampliado para certos sistemas

  • Os sistemas de IA de alto risco integrados en produtos regulados (por exemplo, dispositivos médicos) teñen até o 2 de agosto de 2027 para cumprir con estas obrigacións, segundo o artigo 6 do RIA.

 

 

4. Obrigacións de transparencia para sistemas de risco limitado (a partir do 2 de agosto de 2025)

Os sistemas de IA de risco limitado, como chatbots ou ferramentas de IA xenerativa, deben cumprir requisitos específicos de transparencia:

  • Informar os usuarios: Indicar claramente que están interactuando cun sistema de IA (por exemplo, un chatbot debe identificar como tal).
  • Etiquetaxe de contido xerado: Marcar contido xerado por IA (imaxes, vídeos, textos) para evitar confusión ou ultrafalsificación.
  • Exemplo práctico: Unha empresa que use un chatbot no seu sitio web debe asegurar de que os usuarios saiban que están a falar cunha máquina.

 

 

5. Obrigacións adicionais para todas as empresas

Independentemente do nivel de risco, as empresas deben:

  • Cumprir co RGPD: Asegurar que o tratamento de datos persoais en sistemas de IA cumpre co Regulamento Xeral de Protección de Datos.
  • Protexer a propiedade intelectual: Respectar os dereitos de autor no adestramento e uso de modelos de IA, especialmente para IA xenerativa.
  • Realizar autoevaluaciones: Avaliar proactivamente os riscos dos seus sistemas de IA, mesmo se non están clasificados como de alto risco, para evitar responsabilidades legais en áreas como protección de datos, ciberseguridad ou dereitos dos consumidores.
  • Colaborar coa AESIA: Proporcionar información precisa e someter a inspeccións se é necesario.

 

 

6. Medidas de apoio ás empresas, especialmente pemes

  • Sandbox regulatorio: España estableceu unha contorna controlada de probas (Real Decreto 817/2023) para que as empresas, especialmente pemes, testen os seus sistemas de IA de alto risco ou de uso xeral e cumpran co RIA. Esta contorna proporciona guías preliminares e especificacións técnicas.
  • Pacto pola IA: A Comisión Europea ha lanzado unha iniciativa voluntaria para que as empresas se adhiran ás obrigacións do RIA antes da súa entrada en vigor, facilitando a transición.
  • Código de Boas Prácticas: A Oficina Europea de IA está a elaborar un código para provedores de IA de uso xeral, que estará dispoñible en abril de 2025 e servirá como referencia para demostrar cumprimento.

 

 

7. Recomendacións prácticas para as empresas

  1. Clasificar os sistemas de IA: Identificar si os sistemas utilizados son de risco inaceptable, alto, limitado ou mínimo, utilizando ferramentas como o Comprobador de Cumprimento da Lei de IA da UE.
  2. Elaborar un inventario dinámico: Manter un rexistro actualizado dos sistemas de IA en uso, a súa clasificación e estado de cumprimento.
  3. Implementar un programa de cumprimento: Establecer procesos internos de xestión de riscos, documentación, transparencia e supervisión humana.
  4. Capacitar ao persoal: Iniciar programas de formación en IA antes do 2 de febreiro de 2025, especialmente para sistemas de alto risco ou de uso xeral.
  5. Seleccionar provedores conforme: Asegurar de que os provedores de IA cumpren co RIA, especialmente para sistemas de alto risco.
  6. #Preparar para auditorías: Documentar todos os procesos relacionados co desenvolvemento e uso de IA para facilitar inspeccións da AESIA.
  7. Aproveitar incentivos: Explorar subvencións e programas de apoio para pemes, como o sandbox regulatorio ou o Pacto pola IA.

 

 

8. Consecuencias do incumprimento

O incumprimento do RIA pode resultar en:

  • Sancións económicas: Multas de até 35 millóns de euros ou o 7% da facturación global, dependendo da infracción.
  • Danos reputacionales: Perda de confianza de clientes e socios.
  • Medidas correctivas: Obrigación de retirar sistemas de IA do mercado ou implementar cambios.

A AESIA, como autoridade nacional, ten potestade para impor estas sancións, seguindo as directrices da Comisión Europea.

 

 

9. Contexto español

  • Axencia Española de Supervisión de Intelixencia Artificial (AESIA): Creada para supervisar o cumprimento do RIA, a AESIA ofrece guías operacionais e acompaña ás empresas na adaptación á normativa.
  • Sandbox regulatorio: España é pioneira na implementación dunha contorna controlada de probas para sistemas de IA, o que facilita ás pemes cumprir co RIA.
  • Estratexia Nacional de Intelixencia Artificial: Integrada no Plan de Recuperación, Transformación e Resiliencia, fomenta a innovación en IA responsable, aliñada co RIA.

 

 

 

Sen comentarios

Escribe o teu comentario




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.

Galiciapress
Praza da Quintana, 3; 15704 Santiago de Compostela
Tlf (34)678803735

redaccion@galiciapress.es o direccion@galiciapress.es
RESERVADOS TODOS OS DEREITOS. EDITADO POR POMBA PRESS,S.L.
Aviso legal - Política de Cookies - Política de Privacidade - Configuración de cookies - Consello editorial - Publicidade
Powered by Bigpress
CLABE