<
>

Por qué la ‘geografía deepfake’ presenta riesgos significativos y cómo los están detectando los investigadores

Por qué la 'geografía deepfake' presenta riesgos significativos y cómo los están detectando los investigadores 11

Por qué la 'geografía deepfake' presenta riesgos significativos y cómo los están detectando los investigadores 12
Lo que puede parecer una imagen de Tacoma Wash., Es, de hecho, una simulación, creada al transferir patrones visuales de Beijing a un mapa de un vecindario real de Tacoma. (Imagen a través de Zhao et al., 2021, Cartografía y ciencia de la información geográfica)

«Ver es creer.» Es un aforismo que solía ser mucho más cierto de lo que es hoy, ahora que las computadoras pueden producir fácilmente todo tipo de imágenes falsas y grabaciones alteradas. Muchos de nosotros hemos visto fotos de celebridades que no existen y videos de políticos que hacen sincronización de labios. Estos «deepfakes» han suscitado preocupaciones reales sobre lo que es y no es cierto en nuestras fuentes de noticias y otros medios.

Por qué la 'geografía deepfake' presenta riesgos significativos y cómo los están detectando los investigadores 13
Bo Zhao. (Foto de UW)

Este problema se extiende incluso a los mapas e imágenes de satélite que representan nuestro mundo. Técnicas como la «falsificación de ubicación» y la geografía deepfake presentan riesgos importantes para nuestra sociedad cada vez más conectada.

Debido a esto, un equipo de investigadores de la Universidad de Washington está trabajando para identificar formas de detectar estas falsificaciones, además de proponer la creación de un sistema de verificación de datos geográficos.

Dirigido por Bo Zhao, profesor asistente de geografía en la Universidad de Washington, el estudio se centró en cómo se podrían detectar imágenes y mapas de satélite profundamente falsos. Aunque estos deepfakes pueden parecer futuristas, de hecho ya existen y son una preocupación creciente para los funcionarios de seguridad nacional.

“Las técnicas ya están ahí”, dijo Zhao. «Solo estamos tratando de exponer la posibilidad de utilizar las mismas técnicas y la necesidad de desarrollar una estrategia de afrontamiento».

Sin embargo, debido a la naturaleza a menudo sensible de las imágenes de satélite deepfake, los investigadores no pudieron acceder a imágenes existentes adecuadas para su estudio. Entonces, era necesario comenzar creando los suyos.

Para hacer esto, los investigadores utilizaron una red generativa de adversarios, o GAN, una forma de IA que se usa con frecuencia para crear deepfakes. Tales GAN utilizan dos redes neuronales que «compiten» entre sí. Uno, el discriminador, intenta detectar qué imágenes son falsas. El otro utiliza la información que permitió la detección para generar falsificaciones aún mejores. Los dos módulos mejoran gradualmente hasta que los resultados son tan realistas que a menudo son indetectables para el ojo inexperto.

Para este estudio, la GAN trabajó con mapas base e imágenes de satélite de Seattle, Tacoma, Washington y Beijing. En última instancia, el equipo construyó un conjunto de datos de detección de deepfake que contiene 8.064 imágenes de satélite. La mitad de ellos eran imágenes auténticas de las tres ciudades. El resto eran deepfakes de Tacoma, con la mitad en el patrón visual de Seattle y la mitad en el patrón visual de Beijing. El proceso fue similar a cómo se puede usar cierto software para mapear características del rostro de una persona a otra.

Por qué la 'geografía deepfake' presenta riesgos significativos y cómo los están detectando los investigadores 14
(Imagen a través de Zhao et al., 2021, Cartografía y ciencia de la información geográfica)

Aunque el problema de los mapas falsos y alterados ha existido durante siglos, con el desarrollo de las GAN, los desafíos han aumentado considerablemente. Muchas imágenes de satélite generadas por computadora pueden engañar incluso a los ojos de los expertos, lo que genera preocupaciones sobre su uso para la propaganda y la desinformación. Esta es una preocupación considerable para el gobierno y el ejército, donde estas técnicas se consideran una amenaza potencial para la seguridad nacional. Una advertencia del FBI en marzo destaca esto: «Es casi seguro que los actores maliciosos aprovecharán el contenido sintético [including deepfakes] para operaciones de influencia extranjera y cibernética en los próximos 12 a 18 meses «.

Pero las motivaciones para crear mapas e imágenes de satélite falsas no tienen por qué basarse únicamente en el espionaje o la propaganda. A medida que los dispositivos móviles se han vuelto cada vez más capaces de detectar e informar sobre dónde estamos, la «falsificación de ubicación», es decir, formas de falsificar nuestro paradero, se ha vuelto cada vez más común. Por ejemplo, ya existen varias aplicaciones móviles para este propósito.

«Los motivos pueden ser bastante diversos cuando se trata de suplantación de ubicación», dijo Zhao. “La gente cambia de ubicación como una forma de mostrar sus vacaciones falsas. O en Pokémon Go, la gente a veces cambia su ubicación para obtener premios de juego «.

Si bien se han logrado algunos avances en la detección de otros tipos de imágenes y grabaciones fraudulentas, según el estudio, la detección de imágenes de satélite deepfake no se había explorado previamente. Con su conjunto de datos deepfake establecido, los investigadores probaron diferentes métodos para automatizar la detección, utilizando herramientas de inteligencia artificial como las redes neuronales convolucionales.

«Utilizamos tanto métodos tradicionales como algunos de los últimos algoritmos de detección de GAN para tratar de encontrar algunas pistas en términos de cómo podemos detectar los deepfakes», dijo Zhao.

Los investigadores analizaron 26 características en los dominios espacial, histograma y de frecuencia para desarrollar sus estrategias de detección. Individualmente, las características produjeron diferentes niveles de precisión, pero cuando se combinaron los modelos de detección, el rendimiento se elevó a sus niveles más altos.

El plan de los investigadores es lanzar herramientas que el público y los profesionales puedan utilizar para identificar posibles falsificaciones. Zhao dijo, «si alguien encuentra una imagen sospechosa, puede subirla a un sitio web similar a Factcheck.org para confirmar si la imagen tiene inconsistencias».

Zhao señaló que son cautelosos acerca de que las herramientas de detección reporten una imagen como definitivamente falsa o genuina. «Desde una perspectiva social, descubrimos que si algo se describe como definitivamente falso, la gente lo interpreta de manera muy negativa», dijo Zhao. «Por lo tanto, preferimos decirles a los usuarios que encontramos posibles inconsistencias y luego dejar que el usuario llegue a su propia conclusión sobre lo que eso significa en contexto».

Sin embargo, agregó que en los casos en que la determinación es estadísticamente concluyente y la imagen tiene consecuencias sociales significativas, entonces el estado de su autenticidad debe establecerse claramente.

Si bien las GAN que generan deepfake han recibido mucha atención en los últimos años, Zhao agregó que los algoritmos basados ​​en GAN no son necesariamente algo malo y que tales métodos tienen muchos usos beneficiosos. Por ejemplo, se pueden usar para completar los datos que faltan en un conjunto de registros o corregir el desenfoque de movimiento en las fotos.

Reconocer lo que es y lo que no es cierto en nuestro mundo sigue siendo un desafío creciente. Investigaciones como esta pueden ayudar a trazar nuestro camino hacia la construcción de un futuro más auténtico.

_______________________________

Los coautores del estudio fueron Yifan Sun, un estudiante de posgrado en el Departamento de Geografía de la Universidad de Washington; Shaozeng Zhang y Chunxue Xu de la Universidad Estatal de Oregon; y Chengbin Deng de la Universidad de Binghamton. “¿Geografía falsa profunda? Cuando los datos geoespaciales se encuentran con la inteligencia artificial ”se publicó el 21 de abril de 2021 en Cartography and Geographic Information Science.

Etiquetas

Siguiente

Deja tu comentario