La inteligencia artificial es una realidad tan latente que muchos ya hacen uso de ella en su foto de perfil en las redes sociales. Tampoco se pueden pasar por alto las herramientas lanzadas recientemente al mercado que asombran a muchos por los resultados precisos que ofrecen, destacando el ya famoso ChatGPT. Pero, ¿qué riesgo implica entregar tanta información a estos sistemas informáticos avanzados? La vulnerabilidad podría ser muy alta, y si los Estados comienzan a usarla, el peligro será aún mayor. Es por ello que Estados Unidos ha desarrollado un marco de recomendaciones para el uso militar «responsable» de la inteligencia artificial (IA).

«El objetivo de la Declaración es construir un consenso internacional sobre cómo los ejércitos pueden incorporar de manera responsable la IA y la autonomía en sus operaciones. Además, ayudar a guiar el desarrollo, despliegue y uso de esta tecnología por parte de los Estados con fines de defensa para garantizar que promueva el respeto por el derecho internacional, seguridad y estabilidad», dijo la oficina del portavoz del Departamento de Estado.
Mantener el control humano sobre las decisiones
Las declaraciones se llevaron a cabo en una cumbre celebrada en los Países Bajos. Alrededor de 2000 personas de 100 países asistieron a la conferencia, entre ellos representantes gubernamentales. Si bien las pautas no son legalmente vinculantes, es un inicio para resaltar la importancia de abordar los problemas del futuro. La ética es un fenómeno humano. Y si la inteligencia artificial va a ser cada día más cotidiana, su uso militar debe ser transparentado.

Para comenzar, Estados Unidos deja un precedente y espera que otras naciones adopten prácticas similares. El gobierno estadounidense emitió una serie de recomendaciones de la letra «A» a la «L» (12). Entre las más destacadas se encuentra mantener el control humano sobre las decisiones relacionadas con las armas nucleares. Que dichas personas estén capacitadas para decidir. Tener altos funcionarios para los operativos en el extranjero, si están a cargo de sistemas de armas que usen inteligencia artificial. Garantizar que la tecnología militar de IA tenga una documentación clara. Que la tecnología de IA tenga un propósito claro y poner salvaguardas en la tecnología de IA para evitar un gran desastre si la tecnología falla.
Un pedido a todas las naciones, no solo aliadas
Por último, EE. UU. recomienda mantener un diálogo permanente respecto al uso militar de la inteligencia artificial. El Departamento de Estado espera que todas las naciones, no solo los aliados clave de EE. UU., expresen su apoyo a las pautas.
“Nos gustaría expandir eso para llegar a un conjunto mucho más amplio de países y comenzar a obtener la aceptación internacional, no solo la aceptación de la OTAN, sino también en Asia, la aceptación de países de América Latina”, dijo un representante del Departamento de Estado al portal Defense One.

“Estamos buscando países de todo el mundo para comenzar a discutir esto. Para que entiendan las implicaciones del desarrollo y el uso militar de la inteligencia artificial. Muchos de ellos pensarán ‘Oh, esto es solo un gran problema de competencia de poder’, cuando en realidad hay implicaciones para toda la comunidad internacional”, agregó.
Preocupación por el desarrollo de IA en China y Rusia
Las pautas surgen cuando los funcionarios estadounidenses han expresado su preocupación por el uso y desarrollo de la inteligencia artificial por parte de China y Rusia, siendo este último país excluido de la conferencia en el marco de las sanciones por la guerra en Ucrania, mientras que sí estuvo presente el embajador chino en los Países Bajos.

“Creemos que tenemos la oportunidad de salir adelante y establecer normas sólidas de comportamiento responsable ahora”, dijo el asesor de Seguridad Nacional, Jake Sullivan. «Ni China ni Rusia han declarado públicamente qué procedimientos están implementando para garantizar que sus sistemas militares de inteligencia artificial funcionen de manera segura, responsable y según lo previsto».
La Guerra Fría dejó un precedente donde las grandes potencias no se enfrentaban entre sí sino que lo hacían a través de sus aliados entrenados por estos. Ahora que hay tensión nuevamente entre Estados Unidos y Rusia y su aliado China es menester incorporar el uso militar de la inteligencia artificial en los códigos de guerra para reducir el riego de las vidas humanas en los conflictos. También está sobre la mesa el cuidado del planeta, en vista de la contaminación que produce la tecnología nuclear con fines bélicos.

Mamela Fiallo Flor es profesora universitaria, traductora, columnista y firme amante de la libertad