La IA se ha convertido en uno de los avances más importantes de la humanidad, y tanto empresas como gobiernos coinciden en que esta tecnología está llamada a cambiar por completo aspectos muy importantes de nuestra vida y de nuestra convivencia. Su enorme campo de aplicación, y sus casi infinitas posibilidades, dan fe de ello, pero por desgracia no todas esas aplicaciones podrían tener un impacto positivo en nuestra sociedad.

Uno de los ámbitos que más dudas y miedos plantea es la industria bélica. Aplicar la IA a la guerra, en sentido amplio, podría tener consecuencias catastróficas. Podría poner muchos ejemplos, pero incluso los más sencillos ya deberían producirnos auténtico pavor. Pensad, por ejemplo, en lo que sucedería si un avión ligero de pequeño tamaño basado en IA que transporta armas nucleares perdiese el control y las lanzase a lo loco en diferentes regiones del mundo.

Para afrontar el peligro que la IA podría representar cuando se aplica al mundo de la industria bélica, se ha celebrado la primera Cumbre mundial sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM), que llevó a los países que participaron a firmar un acuerdo para dar prioridad al uso responsable de la IA en sus agendas políticas.

En dicha cubre participaron representantes políticos de más de 60 países, entre los que se encontraban gigantes como China. Rusia no fue invitada por razones evidentes, y Ucrania no asistió al evento, algo totalmente comprensible teniendo en cuenta la situación en la que se encuentra el país debido a la guerra que está libando tras la invasión de Rusia.

Los países que firmaron el acuerdo se comprometieron a desarrollar y utilizar la IA aplicada al campo militar siguiendo, en todo momento, las obligaciones legales internacionales establecidas, y de una manera que no produzca menoscavo alguno en la seguridad, la estabilidad y la responsabilidad internacionales. Esto equivale, en resumen, a hacer un uso responsable de la IA, como ya os hemos comentado anteriormente, aunque las voces críticas han destacado que este acuerdo no es legalmente vinculante, y que se deja cosas importantes «en el tintero».

Durante la cumple se acordó abordar otros temas que incluyen la fiabilidad de la IA, las consecuencias no deseadas de su utilización con fines militares, el escalado de riesgos y la forma en la que los humanos deben participar en la toma de decisiones. Algunos de los asistentes también destacaron las ventajas de utilizar esta tecnología en un conflicto armado y citaron como ejemplo a Ucrania, un país que se ha apoyado en el aprendizaje profundo y la tecnología en general para repeler a un agresor «más grande y fuerte».

Fuente info
Autor: Isidro Ros