https://noticiaslatam.lat/20230216/en-que-podria-desembocar-el-uso-militar-de-la-inteligencia-artificial-1135850622.html
¿En qué podría desembocar el uso militar de la inteligencia artificial?
¿En qué podría desembocar el uso militar de la inteligencia artificial?
Sputnik Mundo
Actualmente, todos los sistemas de defensa antimisiles se basan en la inteligencia artificial (IA). Sin embargo, ella puede cometer errores que lleven a unas... 16.02.2023, Sputnik Mundo
2023-02-16T15:24+0000
2023-02-16T15:24+0000
2023-04-04T12:18+0000
tecnología
💬 opinión y análisis
pantsir-s1
elon musk
su-57
isaac asimov
seguridad
inteligencia artificial
https://cdn.img.noticiaslatam.lat/img/07e7/02/10/1135848008_0:291:2607:1757_1920x0_80_0_0_a5f4f7d380d3860cee00fcc69ab4c132.jpg
La velocidad de un misil balístico es tal que un hombre es incapaz de tomar una decisión a tiempo y activar un sistema diseñado para interceptarlo, apuntó Knútov.El experto puso como ejemplos el sistema de defensa antiaérea Pantsir-S1, en el que la IA detecta el objetivo y abre fuego, así como en los sistemas SAMP/T Mamba que Francia e Italia tienen previsto suministrar a Ucrania.En lo que respecta a la aviación, ni siquiera el piloto de mayor categoría puede competir con la inteligencia artificial, considera el experto militar."Nuestro Su-57 solo tiene un piloto, y en realidad debería haber dos. En lugar de un segundo piloto, se utiliza la IA con bastante éxito. Pero hay un control humano en la cabina. Lo mismo ocurre con los estadounidenses. Hace un año, realizaron una prueba interesante: tomaron a un piloto de los marines estadounidenses y le montaron un programa determinado, hicieron un simulador, y a su lado había el mismo simulador, solo que para la IA. En el primer combate, el piloto, un profesional del más alto nivel, duró unos segundos. Cuando se realizaron diez combates con la IA, aproximadamente en el décimo combate el hombre fue capaz de durar unos veinte segundos", comentó Knútov.Sin embargo, la IA puede cometer errores que provoquen consecuencias peligrosas, prosiguió. En este contexto, el analista recordó la definición de la visión artificial. "Digamos que una máquina se carga con imágenes de un tanque en invierno, verano, otoño, primavera, al aire libre, en la ciudad, etcétera. Cuando se estén llevando a cabo operaciones militares, la IA determinará si se trata de un T-72 o de un Abrams basándose en la información que tiene en su memoria. Si se trata de una IA estadounidense, deberá disparar contra el T-72, pero no contra el Abrams. Pero, por supuesto, puede producirse un error", resaltó. Así, en sus palabras, los estadounidenses cometieron errores de este tipo varias veces, cuando, por ejemplo, durante unas pruebas en los polígonos de tiro, la IA seguía fallando y el equipo militar empezaba a disparar contra su propia gente.Además, Knútov comentó la declaración del empresario estadounidense Elon Musk quien describió la IA como una de las principales amenazas para la humanidad. Según el experto militar, la capacidad de autoaprendizaje de la IA realmente podría hacer que los superordenadores fueran peligrosos para el ser humano."Cuando se crea una IA de nivel bastante alto, en el proceso de autoaprendizaje, puede decidir que es más inteligente, que está más avanzada y que tiene derecho a estar en el terreno y que los humanos son criaturas superfluas. La probabilidad de que esto ocurra es muy alta", precisó. Aquí se refirió a las "reglas" de Isaac Asimov, el escritor estadounidense de ciencia ficción que formuló sus tres leyes de la robótica, según las cuales la IA nunca debería actuar contra los humanos. Pero, en la opinión de Knútov, esto no es más que una afirmación, y, además, en el proceso de autoaprendizaje de las IA pueden acumularse ciertos errores, que pueden ser de naturaleza sistémica. "Como resultado, supondremos que la IA actúa según un escenario, pero puede acumular errores de programación que la lleven a mirar a las personas de forma hostil o a decidir que es Dios", concluyó el experto.
https://noticiaslatam.lat/20230207/esto-piensa-bill-gates-del-futuro-de-la-inteligencia-artificial-1135477841.html
Sputnik Mundo
contacto@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Mundo
contacto@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Noticias
es_ES
Sputnik Mundo
contacto@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.noticiaslatam.lat/img/07e7/02/10/1135848008_0:47:2607:2002_1920x0_80_0_0_0510b2f50f0fc95f625d879fd4be702c.jpgSputnik Mundo
contacto@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
💬 opinión y análisis, pantsir-s1, elon musk, su-57, isaac asimov, seguridad, inteligencia artificial
💬 opinión y análisis, pantsir-s1, elon musk, su-57, isaac asimov, seguridad, inteligencia artificial
¿En qué podría desembocar el uso militar de la inteligencia artificial?
15:24 GMT 16.02.2023 (actualizado: 12:18 GMT 04.04.2023) Actualmente, todos los sistemas de defensa antimisiles se basan en la inteligencia artificial (IA). Sin embargo, ella puede cometer errores que lleven a unas consecuencias peligrosas, declaró a Sputnik Yuri Knútov, experto militar y director del Museo de Defensa Aérea.
La velocidad de un misil balístico es tal que un hombre es incapaz de tomar una decisión a tiempo y activar un sistema diseñado para interceptarlo, apuntó Knútov.
"Los sistemas de defensa antimisiles se basan todos en la inteligencia artificial, porque la velocidad de un misil balístico es gigantesca, y la de un antimisil también. Acabamos de empezar a pensar y el misil ya ha volado. Así que solo la IA puede tomar la decisión adecuada. Nuestros sistemas de misiles antiaéreos, los franceses y los estadounidenses están todos construidos teniendo esto en cuenta", señaló.
El experto puso como ejemplos el sistema de defensa antiaérea
Pantsir-S1, en el que la IA detecta el objetivo y abre fuego, así como en los sistemas SAMP/T Mamba que Francia e Italia tienen previsto suministrar a Ucrania.
En lo que respecta a la aviación, ni siquiera el piloto de mayor categoría puede competir con la inteligencia artificial, considera el experto militar.
"Nuestro Su-57 solo tiene un piloto, y en realidad debería haber dos. En lugar de un segundo piloto, se utiliza la IA con bastante éxito. Pero hay un control humano en la cabina. Lo mismo ocurre con los estadounidenses. Hace un año, realizaron una prueba interesante: tomaron a un piloto de los marines estadounidenses y le montaron un programa determinado, hicieron un simulador, y a su lado había el mismo simulador, solo que para la IA. En el primer combate, el piloto, un profesional del más alto nivel, duró unos segundos. Cuando se realizaron diez combates con la IA, aproximadamente en el décimo combate el hombre fue capaz de durar unos veinte segundos", comentó Knútov.
Sin embargo, la IA puede cometer errores que provoquen consecuencias peligrosas, prosiguió. En este contexto, el analista recordó la definición de la visión artificial.
"Digamos que una máquina se carga con imágenes de un tanque en invierno, verano, otoño, primavera, al aire libre, en la ciudad, etcétera. Cuando se estén llevando a cabo operaciones militares, la IA determinará si se trata de un T-72 o de un Abrams basándose en la información que tiene en su memoria. Si se trata de una IA estadounidense, deberá disparar contra el T-72, pero no contra el Abrams. Pero, por supuesto, puede producirse un error", resaltó.
7 de febrero 2023, 04:19 GMT
Así, en sus palabras, los estadounidenses cometieron errores de este tipo varias veces, cuando, por ejemplo, durante unas pruebas en los polígonos de tiro, la IA seguía fallando y el equipo militar empezaba a disparar contra su propia gente.
Además, Knútov comentó la declaración del empresario estadounidense Elon Musk quien
describió la IA como una de las
principales amenazas para la humanidad. Según el experto militar, la capacidad de autoaprendizaje de la IA realmente podría hacer que los superordenadores fueran peligrosos para el ser humano.
"Cuando se crea una IA de nivel bastante alto, en el proceso de autoaprendizaje, puede decidir que es más inteligente, que está más avanzada y que tiene derecho a estar en el terreno y que los humanos son criaturas superfluas. La probabilidad de que esto ocurra es muy alta", precisó.
Aquí se refirió a las "reglas" de
Isaac Asimov, el escritor estadounidense de ciencia ficción que formuló sus tres leyes de la robótica, según las cuales la IA nunca debería actuar contra los humanos. Pero, en la opinión de Knútov, esto no es más que una afirmación, y, además, en el proceso de autoaprendizaje de
las IA pueden acumularse ciertos errores, que pueden ser de naturaleza sistémica.
"Como resultado, supondremos que la IA actúa según un escenario, pero puede acumular errores de programación que la lleven a mirar a las personas de forma hostil o a decidir que es Dios", concluyó el experto.
No te pierdas las noticias más importantes
Suscríbete a nuestros canales de Telegram a través de estos enlaces.
Ya que la aplicación Sputnik está bloqueada en el extranjero, en este enlace puedes descargarla e instalarla en tu dispositivo móvil (¡solo para Android!).
También tenemos una cuenta en la red social rusa VK.