"Desenmascarar la desinformación es cada vez más difícil, y los deepfakes todavía no pueden ser detectados fácilmente por otros algoritmos. A medida que mejoran, se hace más difícil saber si algo es o no real", subraya Eline Chivot, analista de políticas tecnológicas de la Unión Europea en el Center for Data Innovation.
La analista de políticas tecnológicas considera, sin embargo, que la implementación de leyes para regular el uso de los deepfakes tal vez no sea la mejor solución, ya que sería necesario que los legisladores tuvieran un profundo conocimiento del tema en cuestión. Chivot insiste en que se prioricen políticas destinadas a atraer más inversiones para el desarrollo de nuevas tecnologías antiultrafalsificación.
"Es necesario desarrollar las colaboraciones con la industria, incluidas las empresas de redes sociales, por ejemplo, con investigadores universitarios, innovadores, científicos, nuevas empresas y otros para lograr una mejor detección de la manipulación [de vídeos] y garantizar que estos sistemas se integren en plataformas en línea", dice.
"Potencialmente, creo que hay una serie de estatutos que ya hablan sobre el contenido y la capacidad de las redes sociales para tener supervisión editorial sobre ellos, pero esa podría ser una forma de hacerlo", dice Allibhai.
Aunque señala que los vídeos ultrafalsos podrían usarse para buenos propósitos, como crear nuevas películas con estrellas de cine ya fallecidas, el experto admite que la tecnología puede explotarse de forma a fomentar la agitación política. Allibhai señala que los videos falsos, así como las noticias falsas, se pueden usar para realmente alejar cada vez más a los miembros de la sociedad.
Para Fong Choong Fook, director general de la empresa de ciberseguridad LGMS, las ultrafalsificaciones de políticos, cuyas imágenes se pueden falsear fácilmente, ya que hay muchas imágenes de ellos en Internet, podrían conducir al caos internacional.
"Imagine que surja un vídeo falso ampliamente difundido por internet, donde un ministro de Defensa declara la guerra a otro país. Esto podría conducir al caos internacional", señala.
Fong Choong Fook pone de relieve que aunque todavía tenemos que confiar en nuestros ojos para detectar videomontajes, esta herramienta natural no puede identificar fácilmente las fallas en un vídeo bien hecho.
"Por lo tanto, es muy difícil para un humano luchar contra una máquina en esta situación. ¿Y si solo una máquina pudiera derrotar a otra máquina?", concluye el emprendedor tecnológico.