"Imaginen tener un sistema de predicción [basado] en inteligencia artificial en un sistema de mando y control nuclear que se dispararía con ciertos parámetros. Esa es una perspectiva mucho, mucho, muchísimo más alarmante que cualquier cosa que se pueda pensar parecida a un arma en concreto", alertó Work.
El exvicesecretario de Defensa estadounidense defendió que es más peligroso otorgar ese control a la inteligencia artificial que crear un arma basada en ella. Según Work, la inteligencia artificial es necesaria, pero no se debe sobredimensionar su papel en los conflictos armados venideros.
"Si los sistemas automatizados empiezan a pelear entre sí, puede que no seamos capaces de detenerlos antes de que sea demasiado tarde. Por lo tanto, no debemos permitir que se relaje el control humano", añadió Gubrud.
El experto aboga por un tratado fuerte que convierta en algo obligatorio el control humano de todas las armas para que la inteligencia artificial detrás de ciertos sistemas de guerra no actúe sin supervisión. Lamenta que los países que lideran el desafrollo de armas autónomas movidas por IA —entre ellos Estados Unidos, China y Rusia—, se hayan resistido a fundar un tratado de este tipo.
¿Cómo es de realista un escenario en el que la IA esté conectada al arsenal nuclear de un país? Gubrud cree que es poco probable que EEUU o cualquier otra nación permita que una computadora dispare armas nucleares sin una decisión humana detrás. Recuerda que se dice que Rusia posee un sistema automatizado que puede reaccionar si un primer ataque destruye a la cúpula política del país y que algunos autores estadounidenses ahora están solicitando a EEUU que desarrolle un sistema similar. Espera, en el caso del sistema ruso, que haya un humano detrás.
¿Cómo sería de fiable una inteligencia artificial nuclear?
El fundamental problema de la disuasión nuclear está en que solo se activa si puede fracasar, es decir, si la guerra nuclear sigue siendo una posibilidad y, por tanto, no se consigue disuadir a una tercera nación, analiza.
Los humanos también se pueden equivocar, reconoce. Pero cuando se trata de personas, subraya, "dedican a su trabajo toda su inteligencia y toda su comprensión" y saben lo que está en juego en caso de que aprieten el botón. "Siempre comprobarán una y otra vez que no se trata de un error" y que efectivamente se aproxima un ataque nuclear. En cualquier caso, el control humano es esencial, pero no suficiente, concluye: la única seguridad verdadera "es acabar con la carrera armamentista y con las armas nucleares".