Multas de até 35 millóns de euros por facer mal uso da IA, advirte o director da AESIA

O director da AESIA, Ignasi Belda, subliñou que, para el, o desafío máis importantes "é a humanización da tecnoloxía". "Corremos lle risco de que estas tecnoloxías adopten un cariz propio e que ninguén as entenda", advertiu
 


|

Aesia
Ignasi Belda


 

O director xeral da Axencia Española de Supervisión da Intelixencia Artificial (Aesia), Ignasi Belda, advirte de que as sancións por usar a Intelixencia Artifical (IA) en "ámbitos prohibidos" poden alcanzar os 35 millóns de euros.

Nunha entrevista na Cadea Ser recollida por Europa Press, Belda remarcou que a comunidade galega é unha "privilexiada" en albergar a primeira axencia europea de supervisión da IA.

O uso da IA está prohibida en diferentes ámbitos, tal e como establece o Regulamento de Intelixencia Artificial que entrou en vigor en agosto de 2024 e cuxa aplicación se realiza "de forma escalda", por iso a Aesia encárgase de supervisar o uso nas "categorías de risco" marcadas pola lei.

Así, esa prohibición céntrase en oito contornas e algúns deles, segundo nomeou Belda, son: policía predictiva, non se pode usar para previr delitos; recoñecer emocións en postos de traballo ou centros educativos; e, entre outros, a manipulación subliminar.

O mal uso da IA terá como consecuencia diferentes sancións, pero "non entra en vigor" até agosto deste ano, polo que, actualmente, se detectan que algunha persoa utiliza a IA nun ámbito prohibido deben avisala.

As sancións van desde "contías pequenas" até os 35 millóns de euros para sancións "realmente graves". "A partir de agosto, se o que o está utilizando de forma fraudulenta persiste niso, pois entón teremos xa que tomar cartas no asunto. Pero de momento, digamos, as prohibicións están en vigor, pero non as sancións", explicou.

Ademais, a partir de agosto de 2026 as axencias teñen a obrigación de habilitar unha canle de denuncias para que calquera cidadán poida transmitir unha inquietude ou denunciar un sistema de intelixencia artificial que detecte que "potencialmente poida ser dos prohibidos ou dos de alto risco".

"TODA TECNOLOXÍA TEN EFECTOS POSITIVOS E NEGATIVOS"
O director da Aesia, consultado sobre os medos que trae consigo o desenvolvemento da IA, remarca que "toda tecnoloxía" ten os seus "efectos positivos e negativos", polo que incide en que se "debe ser conscientes" das oportunidades que ofrece a tecnolóxica e "limitar os seus riscos".

"As oportunidades no ámbito laboral son moitísimas e o que pretendemos, tamén desde o Goberno, é que as empresas abracen esta tecnoloxía e incorpórena nos seus procesos produtivos para ser máis produtivas e poder competir a escala global con novas ferramentas", indicou.

Ignasi Belda subliñou que, para el, o desafío máis importantes "é a humanización da tecnoloxía". "Corremos lle risco de que estas tecnoloxías adopten un cariz propio e que ninguén as entenda", advertiu.

Por iso, "hai que traballar" nunha materia que se chama intelixencia artificial autoexplicable, é dicir, que se poida traballar coa IA en "toda a súa potencia", pero cando se lle pida explicacións "póidaas dar".


 

Sen comentarios

Escribe o teu comentario




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.

Galiciapress
Praza da Quintana, 3; 15704 Santiago de Compostela
Tlf (34)678803735

redaccion@galiciapress.es o direccion@galiciapress.es
RESERVADOS TODOS OS DEREITOS. EDITADO POR POMBA PRESS,S.L.
Aviso legal - Política de Cookies - Política de Privacidade - Configuración de cookies - Consello editorial - Publicidade
Powered by Bigpress
CLABE