El mexicano, nacionalizado alemán, indica que es precisamente esto lo que diferenciará siempre a la inteligencia humana de la artificial y también la razón por la que no parece una buena idea abandonar a los robots y a los drones militares a sus anchas sin la supervisión de un humano.
Sin embargo, durante la conferencia —patrocinada por la ONU—, en la que los representantes de los gobiernos de varios países y diversos especialistas discutieron sobre la posible prohibición de este tipo de máquinas, no se logró llegar a ningún acuerdo.
Guerras sin responsables
"La verdad es que la frontera entre [este tipo de armas] y sistemas como son los misiles, que mediante GPS localizan a su objetivo, no está clara", dice a Sputnik, y arguye que esta es la razón por la que en la conferencia de Ginebra no se ha llegado a ningún acuerdo sobre la prohibición de este tipo de armas. Una prohibición de estas características afectaría a demasiados tipos de armamento.
Según el experto mexicano, el objetivo de las nuevas tecnologías militares es, en primer lugar, "mantener a las personas lejos de las zonas conflictivas en toda una serie de escenarios de guerra" pero a ese primer objetivo se le añade otro: el de que esa distancia entre las personas y el conflicto sea, además, psicológica. De manera que el tema de la responsabilidad por los actos cometidos queda relegada a un segundo plano.
Decisiones erróneas
Para Rojas, el principal peligro de los robots es que acaben tomando decisiones equivocadas, algo que puede suceder sobre todo en el caso de los drones. Una persona, explica, siempre puede confiar en su intuición y en su conocimiento de la situación.
Lea más: Drones rusos e inteligencia artificial, una combinación destinada al éxito
"Los robots, por el contrario, no tienen intuición", se limita a responder el investigador. "El robot está programado para poder responder a situaciones básicas. Es imposible programar todos los escenarios posibles".
A la pregunta de si con el tiempo todas estas limitaciones podrán ser solucionadas, el investigador mexicano vuelve a mostrarse escéptico. En su opinión, "es imposible" pedir a los drones y a los robots militares que aprendan a diferenciar entre 'enemigos' y ‘no enemigos'. Algo que resulta especialmente difícil, apunta, cuando quienes están implicados en el conflicto no llevan uniforme. "¿En base a qué señales se supone que van a diferenciarlos?", se pregunta el experto, que añade:
"Sería necesario que este tipo de armas contasen con inteligencia humana. Y eso, en mi opinión, es imposible".
Tampoco tendrán moral
"Creo que no se puede implementar la ética en las máquinas", dice Rojas. ¿Cómo se iba a comportar un robot asesino frente a un grupo de terroristas entre población civil? Los actos en este tipo de escenarios requieren, para el académico, un análisis racional de la situación y empatía. Cualidades todas ellas lejos del alcance de los robots.
Lea más: Elon Musk fusionará ordenadores con cerebros humanos a través de la "telepatía consensual"
Rojas se muestra cauto y cree que las máquinas no deberían tomar decisiones cuyos resultados pueden ser letales sin el consentimiento o la aprobación previa de un humano. "Alguien debería hacerse responsable de la situación y no echarle la culpa a las máquinas".