Una atención especial se prestó a la prevención del uso malévolo de la IA por los terroristas. Los resultados de la investigación se publicaron en la revista Russia in Global Affairs.
Peligro del uso malévolo de la IA
Un peligro hipotético de la inteligencia artificial para la humanidad se planteó en reiteradas ocasiones en obras de arte y es hoy uno de los asuntos más discutidos del desarrollo científico y tecnológico. Aunque una IA fuerte, capaz de pensar de manera autónoma, no se ha creado todavía, varias versiones avanzadas de la IA débil cumplen tareas especiales, lo que hace unos 10 años parecía imposible.
Los investigadores de varios países estudian las amenazas del uso malévolo de la IA para la sociedad, en general, y para varias áreas de la actividad humana: sea la política, la economía, el arte militar, etc. Las amenazas directas para la seguridad psicológica de la información no se han estudiado independientemente todavía. Mientras, el uso de la IA para desestabilizar las relaciones internacionales mediante un impacto psicológico en seres humanos con el uso de la información y alta tecnología representa evidentemente una seria amenaza.
"Un nuevo orden mundial está naciendo" https://t.co/uYWKYetWmp
— Sputnik Mundo (@SputnikMundo) January 4, 2018
Los autores de la investigación propusieron tipificar las amenazas del uso malévolo de la inteligencia artificial a partir de varios criterios que incluyen el territorio, la velocidad y la forma de propagación. El uso de esta clasificación ayudará a encontrar métodos para contrarrestar a esto y elaborar medidas de respuesta.
No te lo pierdas: Putin: el que logre el monopolio de la inteligencia artificial será dueño del mundo
"El futuro abaratamiento de las tecnologías de la IA puede crear amenazas de atentados terroristas absolutamente nuevas. No se puede excluir el uso de un asistente virtual para construir un comunicado sobre un evento falso y convencer a las víctimas hipotéticas a asistir a este. Con fines preventivos merece la pena informar a la gente sobre nuevas amenazas y advertir que es necesario manifestar cautela al contactar a distancia con las personas a que no conocen personalmente", señaló a Sputnik la profesora titular del departamento de Seguridad Internacional y Política Exterior de Rusia de la Academia Rusa de Economía y Administración Pública, Daria Bazárkina.
"Una posible solución podría ser la certificación de los eventos públicos para confirmar que los anuncios publicados son reales. En este caso, la tarea de especialistas técnicos será proteger las bases de datos sobre el evento y el mecanismo de su certificación", agregó Bazárkina.
El nivel actual de tecnologías y posibilidades de la IA permite tipificar varias amenazas absolutamente nuevas a la seguridad psicológica de la información de los seres humanos.
Uso de las tecnologías de 'personas falsas' y 'deepfake' para provocaciones a nivel internacional
La empresa tecnológica de EEUU NVIDIA difundió hace poco los resultados de funcionamiento de una red generativa antagónica capaz de generar independientemente imágenes de personas falsas ('fakе people'). La red neuronal crea en varios segundos imágenes de gran resolución de personas que no existen y puede agregar cualesquiera rasgos culturales y étnicos, emociones, ánimo. Está basada en una colección infinita de imágenes de rostros reales.
"La tecnología 'deepfake' puede sintetizar la imagen y la voz humana. Ya empezó a usarse para crear videos de los líderes mundiales, incluido el presidente de EEUU, Donald Trump, y el presidente de Rusia, Vladímir Putin. Los vídeos 'deepfake' pueden influir en la conducta de grandes grupos meta y pueden usarse en la lucha psicológica con el uso de la información para provocar un pánico financiero y una guerra", dijo a Sputnik Evgueni Páshentsev, empleado del Instituto de Problemas Internacionales de la Academia Diplomática del MAE de Rusia y profesor titular de la Universidad Estatal de Moscú.
Mensajes apocalípticos y robots incontrolables: ¿cómo la 'inteligencia artificial' amenaza a la humanidad? https://t.co/wqiV8tVZ5h pic.twitter.com/EZqUO67OEx
— Sputnik Mundo (@SputnikMundo) August 9, 2018
El análisis del tono es una clase de métodos de análisis del contenido en la lingüística digital para encontrar en los textos de modo automático vocablos que transmiten las emociones y la evaluación emocional de autores. El análisis del tono se realiza a partir de una amplia gama de fuentes: blogs, artículos, foros, encuestas, etc.
Esto puede ser una herramienta eficaz en la lucha psicológica con el uso de la información, lo que se confirma por ejemplo por un alto interés actual hacia tales investigaciones por parte de los altos mandos del Comando de Operaciones Especiales de EEUU (SOCOM).
Armas previsibles: se puede pronosticar la conducta de seres humanos a partir de los datos publicados en las redes sociales
En 2012, en el marco del proyecto de EEUU Agencia de Proyectos de Investigación Avanzada de Inteligencia (IARPA), se lanzó el programa Reconocimiento Temprano de Eventos Basado en Modelos con el uso de Sustitutos (EMBERS). El objetivo de este proyecto fue pronosticar desórdenes públicos con el uso de la IA determinando la fecha, el lugar y el grupo de población que participa en manifestaciones de protesta.
Según los autores de la investigación, los propios organismos nacionales y supranacionales pueden usar los mencionados pronósticos para reaccionar y prevenir la tensión social. Es decir, tomar oportunamente las medidas sociales, económicas y políticas dirigidas a conseguir la estabilidad a largo plazo.
Más: Un físico teórico advierte del peligro de crear "al próximo Adolf Hitler"
Además, los grupos terroristas pueden perjudicar la reputación con el uso de bots durante las campañas políticas y para atraer a nuevos partidarios u organizar asesinatos de políticos.
Secuestro de aviones no tripulados y objetos de infraestructura robotizados
Los sistemas de transporte autónomos que se operan con la IA pueden ser objetos apropiados para perpetrar atentados terroristas con el uso de alta tecnología. Si los terroristas toman el control del sistema de gestión del transporte en una megápolis esto puede conllevar a numerosas víctimas.
Los investigadores de la Academia Rusa de Economía y Administración Pública de Rusia y de la Academia Diplomática del MAE de Rusia partieron del análisis sistémico del papel que desempeña la IA en el ámbito de seguridad, el método de análisis de escenario, analogías históricas y el análisis de cada caso concreto. Junto con su colega de la Universidad de Uppsala (Suecia), Greg Simons, los autores de la investigación son coeditores del libro 'Terrorismo y tecnologías avanzadas en la lucha psicológica con el uso de la información: nuevos riesgos, nuevas posibilidades de contrarrestar a la amenaza terrorista' con la participación de investigadores de 11 países.
También: Inteligencia artificial para la protección y defensa de las fronteras de Rusia
Por iniciativa de los investigadores rusos, el problema de la IA en el contexto de amenazas a la seguridad psicológica de la información se aborda y seguirá abordándose en las conferencias internacionales y talleres internacionales autónomos de investigación.
En un futuro se celebrará el IV Foro Iberoamericano en San Petersburgo (del 1 al 3 de octubre de 2019), la Conferencia Europea sobre la influencia de la inteligencia artificial y robótica (del 31 de octubre al 1 de noviembre de 2019) en Oxford. Los autores de investigaciones pronunciaron discursos en Argentina, Uruguay, Brasil, Sudáfrica e Italia.
Tema relacionado: Sistemas de inteligencia artificial, entre los principales temas de la feria Army 2019
Según los expertos de la Academia Rusa de Economía y Administración Pública, en Rusia es muy importante organizar la formación de programas a largo plazo con fines específicos, porque el problema de la IA y de seguridad internacional psicológica es el problema del futuro próximo.