El Pentágono inventó internet con su sector DARPA y participó en la creación del hierático Consejo de Innovación de Defensa. Ya había advertido que "los políticos de Washington temen ser desplazados por el GAFAT —Google, Apple, Facebook, Amazon y Twitter—, que goza del padrinazgo del Pentágono mediante su segmento del DIB". ¿Será que también el mismo Pentágono teme a su propia creación?
En medio de los angustiantes temores por la militarización de la IA que ya había iniciado el Pentágono, el DIB publicó una extensa serie de principios y recomendaciones para su "uso ético" (sic). El DIB teme el ascenso de China, quien ha anunciado que será el "líder global en IA en 2030", rubro en el que invierte abundantemente.
El DIB agrega que "de la misma forma, Rusia invierte fuertemente en las aplicaciones (sic) de la IA y experimenta tales sistemas en "escenarios vivientes de combates". El DIB reconoce que las "características y fragilidades (sic) únicas de la IA requieren nuevas maneras de vislumbrar sus posibles consecuencias negativas e indeseables". El Consejo "reafirma que el uso de la IA debe tener lugar en el contexto de la estructura ética existente en el Pentágono". Perturba que el DIB soslaye la barbárica conducta del Pentágono en sus guerras recientes desde Vietnam hasta Libia, pasando por Libia.
Son cinco los principios de ética en IA por los que aboga el Pentágono:
- Responsable: ejercer niveles apropiados de juicio y permanecer responsables por el desarrollo, despliegue, uso y resultados de los sistemas de la IA.
- Equitativo: el Pentágono debe tomar pasos deliberados para evitar el sesgo involuntario en el desarrollo y despliegue de los sistemas de IA en el combate y en el no combate que en involuntariamente causaría daño a las personas.
- Rastreable: la disciplina en ingeniería en IA debe ser lo suficientemente avanzada para que los expertos técnicos posean una comprensión apropiada de la tecnología, de los procesos de desarrollo y los métodos operativos de sus sistemas de IA, que incluyan metodologías transparentes y auditables, fuentes de datos y diseño de procedimiento y documentación.
- Confiable: los sistemas de IA deberán tener un explícito y bien definido dominio de uso, y la seguridad y robustez de tales sistemas deberán ser experimentadas y garantizadas durante su ciclo entero de vida.
- Gobernable: deberán ser diseñadas y logradas para llenar el objetivo de su función mientras posee la capacidad para detectar y evitar daño involuntario o perturbación, y para la retirada humana o automática o la desactivación de los sistemas desplegados que demuestren una escalada involuntaria u otro tipo de conducta.
Luego el DIB propone 12 "recomendaciones" con el fin de articular e implementar sus polémicos principios, entre las que destacan: formalizar los principios éticos a través de canales oficiales del Pentágono, específicamente el recién creado Centro Conjunto AI (JAIC, por sus siglas en inglés), establecer un amplio comité de IA, cultivar y acrecentar el campo de la ingeniería de IA, al unísono de la Oficina del Subsecretario de Investigación e Ingeniería y los Laboratorios de Servicio.
✒️ @AlfredoJalifeR_ EEUU compite con Rusia y China en inteligencia artificial https://t.co/1gP3Mj2EiU
— Sputnik Mundo (@SputnikMundo) February 18, 2019
Lo real es que los principios del DIB dejan mucho que desear: no son vinculantes y omiten escudriñar la militarización en curso de la IA por el Pentágono desde los tanques hasta los misiles, cuando sus algoritmos respectivos definirán el curso de la batalla con su preprogramación.
Con la ayuda de la IA, la toma de decisiones para sincronizar una batalla con tanques —que hoy toma 96 horas— pasaría a solamente 96 segundos.
En 2018, 116 expertos en robótica e IA enviaron una Carta Abierta a la Convención de la ONU sobre ciertas armas convencionales, con el fin de prohibir la utilización de "Sistemas de Armas Letales Autónomas" que "amenazan con convertirse en la tercera revolución de armas tecnológicas" y que "una vez desarrolladas, permitirán conflictos armados librados a una mayor escala a la conocida y en una escala de tiempo mucho más veloz que los humanos puedan entender".
Un grupo de empleados de Google han renunciado con el fin de protestar por el incesto del Pentágono con Silicon Valley, específicamente en el Proyecto Maven que emplea la IA de Google para montar los drones del ejército de EU. Shanahan festeja la militarización de la salud predictiva que usará la IA para el análisis de las historias clínicas, la clasificación de la imagenología o scanning médicos, la mitigación del síndrome de estrés postraumático y la prevención (sic) del suicidio.
"Un nuevo orden mundial está naciendo" https://t.co/uYWKYetWmp
— Sputnik Mundo (@SputnikMundo) January 4, 2018
La militarización —abierta o subrepticia— de la IA es antiética de entrada. La temática sobre la bioética de la IA es motivo del debate en China y en la Cámara de los Lores en Gran Bretaña. En Gran Bretaña el Comité Selecto de la Cámara de los Lores de la IA publicó un reporte donde no aborda en forma explícita la militarización de la IA, pero alerta a "nunca conceder el poder autónomo para dañar, destruir o engañar (sic) a los humanos".
Los gigantes de Silicon Valley se pliegan finalmente a las exigencias del Pentágono sobre la estrategia de inteligencia artificial del Departamento de Defensa. ¿De qué herramientas, de cualquier índole, dispone el género humano para su preservación como especie viviente de la biósfera ante la ominosa militarización de la IA por el nada confiable Pentágono?