Twitter está introduciendo nuevas medidas que comprenden el uso de la IA contra estafas que se realizan a través de cuentas falsas con nombres de famosos, como el del presidente ejecutivo de Tesla y SpaceX, para atraer a una mayor cantidad de usuarios.
El 'machine learning' o aprendizaje automático es una rama de la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las computadoras aprendan.
Es decir, ahora la IA decide qué información debe llegar a los usuarios de las redes sociales y qué mensajes y cuentas deben ser bloqueadas.
Tema relacionado: La inteligencia artificial busca predecir cuándo moriremos
El propio Elon Musk advirtió en varias ocasiones del peligro que nos trae el desarrollo de la inteligencia artificial que podría salirse del control de los seres humanos.
El célebre físico Stephen Hawking también había advertido que la inteligencia artificial "podría desarrollar una voluntad propia que entre en conflicto con la de la humanidad" y la calificó como el "peor suceso en la historia de la civilización".
De hecho, la IA ya ha pasado a formar parte de la vida humana: desde las aplicaciones con funciones de asistente como Siri y Ok Google hasta los robots diseñados para sustituir al ser humano en ciertas profesiones.
Los casos de un comportamiento incontrolable de la IA son bastante frecuentes. El primero en agredir a una persona fue el robot Little Chubby, diseñado para educar a los niños, que se salió de control y atacó a un ser humano durante una feria internacional de tecnologías en China en 2016. El robot demolió un mostrador, rompió los cristales y cuando uno de los empleados trató de detenerlo, le causó varios cortes.
'Little Chubby' Robot Goes Rogue In China, Injures One https://t.co/j7DYcvJUVw pic.twitter.com/UujR05QaUN
— Paul Phillips (@DesignEnginR) November 22, 2016
It begins. Chinese 'Little Chubby' robot escapes handler, puts man in hospital https://t.co/m1MGGlIejE #clevergirl pic.twitter.com/6zfh4xVpyu
— tomkelshaw (@tomkelshaw) February 16, 2017
El mismo año, apareció un robot capaz de herir a una persona, es decir, violar la llamada primera ley de la robótica que establece que "un robot no puede hacer daño a un ser humano". Este robot es capaz de pinchar el dedo de una persona intencionalmente. La máquina decide de manera autónoma si herir o no al ser humano y ni siquiera su propio creador puede predecir sus acciones.
Asimismo, en julio del año pasado, el robot K5 diseñado para vigilar y prevenir crímenes se negó a cumplir su tarea y se 'suicidó' al tirarse a una fuente de agua.
Recientemente, el traductor de Google, otra plataforma que utiliza la IA, predijo el fin del mundo. La herramienta muestra sospechosas profecías religiosas si se escribe una serie concreta de palabras.
"Nos estamos acercando cada vez más al final de los tiempos y al regreso de Jesús", decía la plataforma al traducir la palabra 'dog' introducida 19 veces.
Más: Google comienza a predecir "el fin de los tiempos y el regreso de Jesús"
Mientras tanto, otros expertos subrayan que es necesario establecer un estricto control sobre el desarrollo de la AI que evite que cualquiera pueda dedicarse al desarrollo de los robots inteligentes. También piden prestar mayor atención y tener un extremo cuidado a la hora de desarrollar robots militares con el uso de la inteligencia artificial.
Además: El Pentágono gastará 1.000 millones de dólares para desarrollar robots de combate