Cume mundial na Coruña sobre robots militares con IA capaces de matar

Os drones son xa a arma máis importante en guerras como a de Ucraína. A ninguén se lle escapa que pronto haberá tecnoloxía suficiente para que eles sós determinen cando e como matar os inimigos sen necesitar ordes dos seus controladores. Isto é un dos aspectos que se debaterá na próxima reunión de REAIM na Coruña, Galicia.


 


|

Dron militar chino
Dron militar chinés

 

A Coruña converterase os próximos 4 e 5 de febreiro no epicentro mundial do debate sobre o uso responsable da intelixencia artificial no ámbito militar, coa celebración do terceiro cume REAIM (Responsible Artificial Intelligence in the Military domain), unha cita que reunirá a gobernos, industria e sociedade civil para discutir como canalizar unha tecnoloxía que xa está a transformar a forma de facer a guerra. Nun contexto no que a IA deixou de ser unha promesa de futuro para converter nunha ferramenta real nos campos de batalla, a elección da cidade herculina sitúa a España na primeira liña dos esforzos internacionais por fixar regras, principios e límites ao seu emprego militar.

 

O cume, organizada polos Ministerios de Asuntos Exteriores e Defensa, en colaboración co Concello da Coruña e en coordinación cos gobernos de Países Baixos e a República de Corea, busca dar continuidade aos avances logrados nas anteriores edicións da Haia (2023) e Seúl. Sobre a mesa estarán os documentos ‘Call to Action’ e ‘Blueprint for Action’, que recollen os compromisos políticos e as follas de ruta técnicas acordadas polos países anfitrións para promover un uso responsable, seguro e transparente da intelixencia artificial en contornas militares. España aspira agora a traducir eses principios en medidas “realistas, concretas e progresivas”, unha mensaxe que o propio Ministerio de Exteriores quixo subliñar ao presentar a cita.

 

O encontro na Coruña reunirá a ministros de Exteriores e de Defensa, delegacións de gobernos de todo o mundo, representantes de organizacións rexionais e internacionais, empresas do sector industrial de defensa e tecnoloxía, expertos do mundo académico e voces da sociedade civil, reflectindo que o debate sobre a IA militar xa non é exclusivo dos estados maiores nin dos laboratorios. Segundo adiantou Exteriores, todos estes actores poderán propor actividades, paneis e eventos paralelos no marco do cume até o 14 de decembro, un mecanismo que busca abrir o proceso e facer de REAIM un foro de discusión plural, máis aló dos comunicados oficiais e as declaracións finais.

 

No transfondo do cume latexa a constatación de que a intelixencia artificial incorporouse de forma acelerada ao campo de batalla, desde sistemas de apoio á decisión e análise de datos até o control de drones, vixilancia e ciberdefensa. Desde o primeiro cume REAIM en 2023, os avances tecnolóxicos e a experiencia acumulada en conflitos recentes impulsaron a un número crecente de países a aprobar directrices e principios nacionais sobre o uso militar da IA, co obxectivo de mitigar riscos éticos, xurídicos e de seguridade sen renunciar ao potencial operativo destas ferramentas. A cita da Coruña chega, por tanto, nun momento clave para tentar harmonizar estándares e evitar unha carreira desregulada en sistemas cada vez máis autónomos.

 

A propia iniciativa REAIM consolidouse como o principal proceso internacional de referencia para falar de IA militar desde unha perspectiva de uso responsable. A súa filosofía pasa por fomentar o intercambio de ideas entre gobernos, organizacións internacionais, industria, universidade e sociedade civil, coa idea de que os principios que se definan non queden en declaracións xerais, senón que se integren nas doutrinas militares, os procesos de adquisición de armamento e os marcos regulatorios nacionais e internacionais. España, ao asumir o rol de país anfitrión, reforza o seu discurso de aliñamento cos esforzos globais para controlar os riscos da IA e sitúase como mediador entre as grandes potencias tecnolóxicas, os aliados europeos e aqueles estados que reclaman unha regulación máis estrita dos sistemas autónomos.

 

En clave interna, a organización de REAIM na Coruña serve tamén para proxectar o papel da Axencia Española para a Supervisión da Intelixencia Artificial (AESIA), dependente do Ministerio para a Transformación Dixital e da Función Pública, que colabora estreitamente nos preparativos.

 

Robots con IA en un desfile del eju00e9rcito popular de China
Robots con IA nun desfile do exército popular de China

Debe unha máquina determinar que soldado debe morrer?

O debate sobre o uso de intelixencia artificial (IA) no campo militar xira ao redor de se se debe permitir que as máquinas tomen decisións de vida ou morte, como garantir o control humano e a rendición de contas, e que límites legais e éticos deben impor aos sistemas autónomos de armas e de apoio á decisión. A isto súmase unha dimensión estratéxica: a carreira armamentística en IA, o risco de que baixe o limiar para iniciar unha guerra e a vulnerabilidade das sociedades a novos tipos de ciberataques e guerras híbridas. 

 

O punto máis controvertido é a creación de sistemas de armas letais autónomas (LAWS), capaces de seleccionar e atacar obxectivos sen intervención humana directa unha vez activados. Organismos como a ONU e o Comité Internacional da Cruz Vermella advirten de que delegar en algoritmos decisións de matar choca coa dignidade humana e dificulta cumprir principios básicos do dereito internacional humanitario, como a distinción entre civís e combatentes e a proporcionalidade no uso da forza 

Críticos como expertos en robótica e ética piden prohibir o “ataque autónomo letal”, sinalando que mesmo para un humano xa é difícil distinguir en tempo real quen combate e quen non, polo que unha IA adestrada con datos incompletos ou nesgados podería provocar máis baixas civís. No polo oposto, unha parte da comunidade militar e tecnolóxica sostén que robots e algoritmos ben deseñados poderían, en certas circunstancias, disparar con máis precisión e menos rumbos emocionais que os soldados humanos, reducindo erros por medo, esgotamento ou sede de vinganza. 

 

Un eixo central do debate é canto “control humano significativo” debe existir sobre sistemas militares impulsados por IA. A maioría dos Estados e organizacións humanitarias coinciden en que un algoritmo non pode ser o único responsable dunha decisión de lume, e que sempre debe haber unha persoa xurídica e moralmente identificable que responda polos danos causados 

Xorde ademais o problema dos sistemas de apoio á decisión militar, que non disparan, pero recomendan rutas, obxectivos ou niveis de forza sobre a base de grandes volumes de datos. Diversos especialistas alertan de que estes sistemas poden xerar rumbos de automatización, onde os mandos aceptan sen cuestionar as recomendacións da IA, o que erosiona a súa autonomía moral e profesional e complica a atribución de responsabilidade en caso de erros graves 

 

No plano xeopolítico, o debate intensifícase polo temor a unha nova carreira armamentística en IA militar, co risco de proliferación de sistemas difíciles de controlar e susceptibles de ser copiados por actores non estatais. A ONU alertou do perigo de que os sistemas autónomos baixen o limiar para ir á guerra, ao reducir o custo político dos conflitos para os gobernos que despregan menos tropas humanas sobre o terreo. 

Ao mesmo tempo, a IA multiplica as capacidades da guerra híbrida e os ciberataques, permitindo automatizar campañas de desinformación, ataques a infraestruturas críticas ou intrusiones masivas en redes militares e civís. En España e outros países europeos, altos mandos militares e servizos de intelixencia advirten de que internet se converteu nun campo de batalla permanente, e que é imprescindible aprender a usar a IA tanto para atacar como para defender no ciberespazo. 

 

Nos últimos conflitos, a IA introduciuse de forma crecente en drones, sistemas de vixilancia e plataformas de mando e control. En escenarios como Ucraína, utilizáronse enxames de drones con distintos graos de autonomía, capaces de identificar patróns, seguir obxectivos e coordinar entre si, aínda que a decisión final de disparar adoita seguir en mans humanas, polo menos de forma formal. 

Outro exemplo son os sistemas de apoio á decisión que integran datos de satélites, sensores en terra, comunicacións interceptadas e redes sociais para producir “paquetes” de intelixencia case en tempo real. Plataformas como a iniciativa española IndraMind, presentada como a primeira IA soberana para xestionar ameazas híbridas, buscan fusionar grandes volumes de datos e convertelos en ordes e alertas operativas máis rápidas, o que expón á vez vantaxes tácticas e dúbidas sobre a dependencia dos mandos respecto ao “consello” algorítmico. 

 

No ámbito diplomático, o debate vira ao redor de se fai falta un tratado específico sobre armas autónomas ou basta con aplicar o dereito internacional humanitario xa existente. En decembro de 2024, a Asemblea Xeral da ONU aprobou unha resolución sobre sistemas de armas letais autónomas, mostrando un amplo apoio á idea de fixar prohibicións e restricións claras, como vetar os sistemas que poidan seleccionar e atacar persoas sen intervención humana. 

Figuras como o secretario xeral da ONU e a presidenta do Comité Internacional da Cruz Vermella han reclamado que as negociacións para un novo tratado conclúan antes de 2026, subliñando que sen regras precisas, cada Estado interpretará á súa maneira que é aceptable, o que alimenta a inseguridade xurídica e política. Países como España, parte da Convención sobre Certas Armas Convencionais, apoian un instrumento xuridicamente vinculante que regule os sistemas autónomos de acordo co dereito internacional humanitario e dos dereitos humanos, mentres outras potencias se mostran máis remisas a limitar os seus programas de IA militar.

Sen comentarios

Escribe o teu comentario




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.

Galiciapress
Praza da Quintana, 3; 15704 Santiago de Compostela
Tlf (34)678803735

redaccion@galiciapress.es o direccion@galiciapress.es
RESERVADOS TODOS OS DEREITOS. EDITADO POR POMBA PRESS,S.L.
Aviso legal - Política de Cookies - Política de Privacidade - Configuración de cookies - Consello editorial - Publicidade
Powered by Bigpress
CLABE