Cume mundial na Coruña sobre robots militares con IA capaces de matar
Os drones son xa a arma máis importante en guerras como a de Ucraína. A ninguén se lle escapa que pronto haberá tecnoloxía suficiente para que eles sós determinen cando e como matar os inimigos sen necesitar ordes dos seus controladores. Isto é un dos aspectos que se debaterá na próxima reunión de REAIM na Coruña, Galicia.
A Coruña converterase os próximos 4 e 5 de febreiro no epicentro mundial do debate sobre o uso responsable da intelixencia artificial no ámbito militar, coa celebración do terceiro cume REAIM (Responsible Artificial Intelligence in the Military domain), unha cita que reunirá a gobernos, industria e sociedade civil para discutir como canalizar unha tecnoloxía que xa está a transformar a forma de facer a guerra. Nun contexto no que a IA deixou de ser unha promesa de futuro para converter nunha ferramenta real nos campos de batalla, a elección da cidade herculina sitúa a España na primeira liña dos esforzos internacionais por fixar regras, principios e límites ao seu emprego militar.
O cume, organizada polos Ministerios de Asuntos Exteriores e Defensa, en colaboración co Concello da Coruña e en coordinación cos gobernos de Países Baixos e a República de Corea, busca dar continuidade aos avances logrados nas anteriores edicións da Haia (2023) e Seúl. Sobre a mesa estarán os documentos ‘Call to Action’ e ‘Blueprint for Action’, que recollen os compromisos políticos e as follas de ruta técnicas acordadas polos países anfitrións para promover un uso responsable, seguro e transparente da intelixencia artificial en contornas militares. España aspira agora a traducir eses principios en medidas “realistas, concretas e progresivas”, unha mensaxe que o propio Ministerio de Exteriores quixo subliñar ao presentar a cita.
O encontro na Coruña reunirá a ministros de Exteriores e de Defensa, delegacións de gobernos de todo o mundo, representantes de organizacións rexionais e internacionais, empresas do sector industrial de defensa e tecnoloxía, expertos do mundo académico e voces da sociedade civil, reflectindo que o debate sobre a IA militar xa non é exclusivo dos estados maiores nin dos laboratorios. Segundo adiantou Exteriores, todos estes actores poderán propor actividades, paneis e eventos paralelos no marco do cume até o 14 de decembro, un mecanismo que busca abrir o proceso e facer de REAIM un foro de discusión plural, máis aló dos comunicados oficiais e as declaracións finais.
No transfondo do cume latexa a constatación de que a intelixencia artificial incorporouse de forma acelerada ao campo de batalla, desde sistemas de apoio á decisión e análise de datos até o control de drones, vixilancia e ciberdefensa. Desde o primeiro cume REAIM en 2023, os avances tecnolóxicos e a experiencia acumulada en conflitos recentes impulsaron a un número crecente de países a aprobar directrices e principios nacionais sobre o uso militar da IA, co obxectivo de mitigar riscos éticos, xurídicos e de seguridade sen renunciar ao potencial operativo destas ferramentas. A cita da Coruña chega, por tanto, nun momento clave para tentar harmonizar estándares e evitar unha carreira desregulada en sistemas cada vez máis autónomos.
A propia iniciativa REAIM consolidouse como o principal proceso internacional de referencia para falar de IA militar desde unha perspectiva de uso responsable. A súa filosofía pasa por fomentar o intercambio de ideas entre gobernos, organizacións internacionais, industria, universidade e sociedade civil, coa idea de que os principios que se definan non queden en declaracións xerais, senón que se integren nas doutrinas militares, os procesos de adquisición de armamento e os marcos regulatorios nacionais e internacionais. España, ao asumir o rol de país anfitrión, reforza o seu discurso de aliñamento cos esforzos globais para controlar os riscos da IA e sitúase como mediador entre as grandes potencias tecnolóxicas, os aliados europeos e aqueles estados que reclaman unha regulación máis estrita dos sistemas autónomos.
En clave interna, a organización de REAIM na Coruña serve tamén para proxectar o papel da Axencia Española para a Supervisión da Intelixencia Artificial (AESIA), dependente do Ministerio para a Transformación Dixital e da Función Pública, que colabora estreitamente nos preparativos.
Debe unha máquina determinar que soldado debe morrer?
O debate sobre o uso de intelixencia artificial (IA) no campo militar xira ao redor de se se debe permitir que as máquinas tomen decisións de vida ou morte, como garantir o control humano e a rendición de contas, e que límites legais e éticos deben impor aos sistemas autónomos de armas e de apoio á decisión. A isto súmase unha dimensión estratéxica: a carreira armamentística en IA, o risco de que baixe o limiar para iniciar unha guerra e a vulnerabilidade das sociedades a novos tipos de ciberataques e guerras híbridas.
O punto máis controvertido é a creación de sistemas de armas letais autónomas (LAWS), capaces de seleccionar e atacar obxectivos sen intervención humana directa unha vez activados. Organismos como a ONU e o Comité Internacional da Cruz Vermella advirten de que delegar en algoritmos decisións de matar choca coa dignidade humana e dificulta cumprir principios básicos do dereito internacional humanitario, como a distinción entre civís e combatentes e a proporcionalidade no uso da forza
Críticos como expertos en robótica e ética piden prohibir o “ataque autónomo letal”, sinalando que mesmo para un humano xa é difícil distinguir en tempo real quen combate e quen non, polo que unha IA adestrada con datos incompletos ou nesgados podería provocar máis baixas civís. No polo oposto, unha parte da comunidade militar e tecnolóxica sostén que robots e algoritmos ben deseñados poderían, en certas circunstancias, disparar con máis precisión e menos rumbos emocionais que os soldados humanos, reducindo erros por medo, esgotamento ou sede de vinganza.
Un eixo central do debate é canto “control humano significativo” debe existir sobre sistemas militares impulsados por IA. A maioría dos Estados e organizacións humanitarias coinciden en que un algoritmo non pode ser o único responsable dunha decisión de lume, e que sempre debe haber unha persoa xurídica e moralmente identificable que responda polos danos causados
Xorde ademais o problema dos sistemas de apoio á decisión militar, que non disparan, pero recomendan rutas, obxectivos ou niveis de forza sobre a base de grandes volumes de datos. Diversos especialistas alertan de que estes sistemas poden xerar rumbos de automatización, onde os mandos aceptan sen cuestionar as recomendacións da IA, o que erosiona a súa autonomía moral e profesional e complica a atribución de responsabilidade en caso de erros graves
No plano xeopolítico, o debate intensifícase polo temor a unha nova carreira armamentística en IA militar, co risco de proliferación de sistemas difíciles de controlar e susceptibles de ser copiados por actores non estatais. A ONU alertou do perigo de que os sistemas autónomos baixen o limiar para ir á guerra, ao reducir o custo político dos conflitos para os gobernos que despregan menos tropas humanas sobre o terreo.
Ao mesmo tempo, a IA multiplica as capacidades da guerra híbrida e os ciberataques, permitindo automatizar campañas de desinformación, ataques a infraestruturas críticas ou intrusiones masivas en redes militares e civís. En España e outros países europeos, altos mandos militares e servizos de intelixencia advirten de que internet se converteu nun campo de batalla permanente, e que é imprescindible aprender a usar a IA tanto para atacar como para defender no ciberespazo.
Nos últimos conflitos, a IA introduciuse de forma crecente en drones, sistemas de vixilancia e plataformas de mando e control. En escenarios como Ucraína, utilizáronse enxames de drones con distintos graos de autonomía, capaces de identificar patróns, seguir obxectivos e coordinar entre si, aínda que a decisión final de disparar adoita seguir en mans humanas, polo menos de forma formal.
Outro exemplo son os sistemas de apoio á decisión que integran datos de satélites, sensores en terra, comunicacións interceptadas e redes sociais para producir “paquetes” de intelixencia case en tempo real. Plataformas como a iniciativa española IndraMind, presentada como a primeira IA soberana para xestionar ameazas híbridas, buscan fusionar grandes volumes de datos e convertelos en ordes e alertas operativas máis rápidas, o que expón á vez vantaxes tácticas e dúbidas sobre a dependencia dos mandos respecto ao “consello” algorítmico.
No ámbito diplomático, o debate vira ao redor de se fai falta un tratado específico sobre armas autónomas ou basta con aplicar o dereito internacional humanitario xa existente. En decembro de 2024, a Asemblea Xeral da ONU aprobou unha resolución sobre sistemas de armas letais autónomas, mostrando un amplo apoio á idea de fixar prohibicións e restricións claras, como vetar os sistemas que poidan seleccionar e atacar persoas sen intervención humana.
Figuras como o secretario xeral da ONU e a presidenta do Comité Internacional da Cruz Vermella han reclamado que as negociacións para un novo tratado conclúan antes de 2026, subliñando que sen regras precisas, cada Estado interpretará á súa maneira que é aceptable, o que alimenta a inseguridade xurídica e política. Países como España, parte da Convención sobre Certas Armas Convencionais, apoian un instrumento xuridicamente vinculante que regule os sistemas autónomos de acordo co dereito internacional humanitario e dos dereitos humanos, mentres outras potencias se mostran máis remisas a limitar os seus programas de IA militar.
Escribe o teu comentario