11.4 C
London
miércoles, septiembre 22, 2021

Preocupación por la «geografía deepfake»

- Advertisement -spot_imgspot_img
- Advertisement -spot_imgspot_img

Los investigadores ruegan que repasemos nuestra alfabetización en datos, advirtiendo que las imágenes satelitales falsas podrían convertirse en un modo común y peligroso de desinformación.

El término “deepfake” ha penetrado en la lengua vernácula del siglo XXI, principalmente en relación con videos que reemplazan de manera convincente la semejanza de una persona con la de otra. Estos a menudo insertan celebridades en la pornografía o representan a líderes mundiales diciendo cosas que en realidad nunca dijeron .

Pero cualquier persona con los conocimientos técnicos también puede utilizar estrategias de inteligencia artificial similares para fabricar imágenes de satélite, una práctica conocida como «geografía deepfake». Los investigadores advierten que tal uso indebido podría generar nuevos canales de desinformación e incluso amenazar la seguridad nacional.

Un estudio reciente dirigido por investigadores de la Universidad de Washington es probablemente el primero en investigar cómo se pueden crear y eventualmente detectar estas fotos manipuladas. Esto es diferente al photoshopping tradicional, pero es algo mucho más sofisticado, dice el autor principal y geógrafo Bo Zhao. «El enfoque es totalmente diferente», dice. “Hace que la imagen sea más realista” y, por lo tanto, más problemática.

¿Ver es creer?

La manipulación geográfica no es nada nuevo, señalan los investigadores. De hecho, argumentan que el engaño es inherente a todo mapa. «Uno de los prejuicios sobre un mapa es que es la representación auténtica del territorio», dice Zhao. «Pero un mapa es un argumento subjetivo que el cartógrafo está tratando de hacer». Piense en los colonos estadounidenses que empujan su frontera hacia el oeste (tanto en el papel como a través de la violencia de la vida real), incluso cuando los nativos continuaron haciendo valer su derecho a la tierra.

Los mapas también pueden mentir de formas más evidentes. Es un viejo truco para los cartógrafos colocar sitios imaginarios, llamados «ciudades de papel», dentro de mapas para protegerse contra la infracción de derechos de autor. Si un falsificador incluye involuntariamente las ciudades falsas, o calles, puentes, ríos, etc., entonces el verdadero creador puede demostrar que es un juego sucio. Y a lo largo de los siglos, las naciones han utilizado con frecuencia los mapas como una herramienta más de propaganda .

Si bien la gente ha manipulado durante mucho tiempo la información sobre nuestro entorno, la geografía deepfake viene con un problema único: su asombroso realismo. Al igual que el conjunto reciente de videos de suplantación de Tom Cruise , puede ser casi imposible detectar impostores digitales, especialmente a simple vista y sin entrenamiento.

Para comprender mejor estas fotos falsas pero convincentes, Zhao y sus colegas idearon una red generativa de adversarios, o GAN, un tipo de modelo informático de aprendizaje automático que se utiliza a menudo para crear deepfakes. Es esencialmente un par de redes neuronales que están diseñadas para competir en un juego de ingenio. Uno de ellos, conocido como generador, produce imágenes de satélite falsas basadas en su experiencia con miles de imágenes reales. El otro, el discriminador, intenta detectar los fraudes analizando una larga lista de criterios como el color, la textura y la nitidez. Después de algunas de esas batallas, el resultado final parece casi indistinguible de la realidad.

Zhao y sus colegas comenzaron con un mapa de Tacoma, Washington, luego transfirieron los patrones visuales de Seattle y Beijing a él. Los híbridos no existen en ningún lugar del mundo, por supuesto, pero el espectador podría ser perdonado por asumir que sí, parecen tan legítimos como las auténticas imágenes de satélite de las que se derivaron.

Lo que puede parecer una imagen de Tacoma es, de hecho, una simulación, creada al transferir patrones visuales de Beijing a un mapa de un vecindario real de Tacoma. (Crédito: Zhao et al./Cartografía y ciencia de la información geográfica)

Este ejercicio puede parecer inofensivo, pero la geografía falsa se puede aprovechar para propósitos más nefastos (y probablemente ya lo haya hecho, aunque esta información generalmente se clasifica). Por lo tanto, rápidamente llamó la atención de los funcionarios de seguridad: en 2019, Todd Myers, líder de automatización de la Dirección de Tecnología de CIO en la Agencia Nacional de Inteligencia Geoespacial, reconoció la amenaza incipiente en una cumbre de inteligencia artificial.

Por ejemplo, dice, un enemigo geopolítico podría alterar los datos satelitales para engañar a los analistas militares para que vean un puente en el lugar equivocado. «Entonces, desde una perspectiva táctica o la planificación de la misión, entrena a sus fuerzas para ir por una ruta determinada, hacia un puente, pero no está allí», dijo Myers en ese momento. «Entonces hay una gran sorpresa esperándote».

Y es fácil imaginar otros esquemas deepfake maliciosos. La técnica podría usarse para difundir todo tipo de noticias falsas, como provocar el pánico sobre desastres naturales imaginarios y desacreditar informes reales basados ​​en imágenes de satélite.

Para combatir estas posibilidades distópicas, Zhao sostiene que la sociedad en su conjunto debe cultivar la alfabetización de datos: aprender cuándo, cómo y por qué confiar en lo que ve en línea. En el caso de las imágenes de satélite, el primer paso es reconocer que cualquier foto específica que encuentre puede tener un origen poco confiable, a diferencia de las fuentes confiables como las agencias gubernamentales. «Queremos desmitificar la objetividad de las imágenes de satélite», dice.

Es fundamental abordar estas imágenes con escepticismo, así como recopilar información de fuentes fiables. Pero como herramienta adicional, Zhao ahora considera el desarrollo de una plataforma en la que la persona promedio podría ayudar a verificar la autenticidad de las imágenes de satélite, similar a los servicios de verificación de datos de fuentes múltiples existentes.

La tecnología detrás de los deepfakes tampoco debería verse simplemente como malvada. Zhao señala que las mismas tácticas de aprendizaje automático pueden mejorar la resolución de la imagen, llenar los vacíos en una serie de fotos necesarias para modelar el cambio climático o agilizar el proceso de creación de mapas, que aún requiere mucha supervisión humana. “Mi investigación está motivada por el potencial uso malicioso”, dice. “Pero también se puede utilizar para buenos propósitos. Preferiría que la gente desarrolle una comprensión más crítica sobre los deepfakes «.

- Advertisement -spot_imgspot_img
Latest news
- Advertisement -spot_img
Related news
- Advertisement -spot_img