El caso para los medios verificados
Fotografía real, historia falsa.
Desde la invención de la cámara, los seres humanos han aprovechado el hecho de que respondemos de manera visceral a los medios. Dicho de forma simple: las imágenes, o no ocurrió. (Con lo que queremos decir, si hay imágenes, entonces definitivamente SÍ ocurrió). No solo una imagen vale mil palabras, sino que nuestros cerebros están programados para confiar en nuestros propios sentidos. (Más importante aún, no pueden ser convencidos de lo contrario, incluso cuando SABEMOS que fuimos engañados).
El poder de la computadora, especialmente desde la introducción de las cámaras digitales ubicuas y el surgimiento de Adobe Photoshop, nos ha permitido subvertir esa confianza implícita. Primero fueron los efectos prácticos y luego el CGI en las películas; más recientemente ha sido el auge del deepfake.
Los medios sintéticos son ahora un elemento básico tanto del crimen como de la guerra en todo el mundo: fraude de seguros, robo de identidad, campañas de desinformación, pornografía de venganza, difamación y más: el arma subyacente es la capacidad de convencernos mutuamente de que algo falso no lo es. Más insidioso aún, cada nuevo deepfake causa un segundo daño: erosiona nuestra confianza en la evidencia de nuestros sentidos. Esto se llama el "Dividendo del mentiroso", y arma a déspotas y dictadores con una carta para salir de la cárcel gratis. "Eso nunca fui yo en ese video", claman. "Debe ser falso."

Los esfuerzos actuales en la lucha contra los medios sintéticos se centran en el problema de la detección: ¿podemos analizar una foto o video y determinar si es genuino? Este enfoque nos ha servido bien hasta ahora, pero a medida que los deepfakes se convierten en el enfoque predominante para producir medios sintéticos, la detección ya no es suficiente.
En primer lugar, la detección nunca será 100% precisa. DARPA ha financiado decenas de millones de dólares en trabajo en esta área, sin embargo, cada generación de tecnología de detección se vuelve menos fiable con el tiempo. Los métodos de detección no pueden seguir el ritmo de los avances en los enfoques de generación, lo que lleva a dos problemas diferentes: falsos negativos y falsos positivos.
¿Cuál es peor: falso positivo o falso negativo?
Los falsos positivos son un problema administrativo para plataformas de medios como YouTube, Instagram o WhatsApp, y un problema de recursos para las fuerzas del orden. En los peores casos, los medios etiquetados erróneamente como falsos pueden desencadenar una avalancha de reclamaciones de censura y teorías de conspiración del "Estado Profundo". Incluso en el mejor caso, un sistema con una alta tasa de falsos positivos será ignorado rápidamente. (Piense en una compañía de seguros donde entre el 5 y el 10% de las fotos de accidentes de automóvil se marcan erróneamente como "sintéticas").
Pero los falsos negativos son aún peores. Imagínese lo que hubiera ocurrido si el video deepfake de la rendición de Zelensky ante Putin fuera marcado erróneamente como "No falso".
Dado cómo se generan realmente los deepfakes, existe un tercer problema con la detección: cualquier sistema construido para detectar deepfakes puede ser inmediatamente utilizado como arma para CREAR deepfakes que eviten ese sistema. (La tecnología subyacente se llama GAN, y es una de las formas más poderosas de inteligencia artificial desarrollada en los últimos años).
Podemos evitar este tercer problema manteniendo en secreto los mecanismos subyacentes de detección; aunque DARPA cometió el error de publicar su trabajo de detección anterior como código abierto, la mayoría de las empresas comerciales de detección toman este enfoque, lo cual les merece crédito. Pero esto introduce un problema adicional: los escépticos no confiarán en un mecanismo de detección que no esté expuesto al escrutinio público, y volvemos al Dividendo del mentiroso nuevamente.
La solución a este problema es simple de definir y difícil de lograr: necesitamos un estándar global para los medios "auténticos". Esa autenticidad debe establecerse en el momento de la captura, el clic del obturador proverbial. Y debe ser a prueba de manipulaciones, basada en matemáticas, no en socios de confianza.
¿Quiere ver Polyguard en acción?
Experimente la verificación de identidad en tiempo real para la seguridad de sus comunicaciones.