La experiencia de monitoreo completa para tu teléfono
¡Obtenga XNSPY y comience a rastrear llamadas, mensajes de texto, multimedia, ubicaciones y más en cualquier teléfono!
Empezar ahora Demostración en vivoLas aplicaciones de cámara y de edición de fotografías nos permiten editar imágenes. Nos podemos poner más guapos, tapar ese horrible grano, eliminar marcas y ojeras e incluso añadir orejas y una nariz de animal. Pero esta tecnología cada vez más avanzada ha hecho que las personas creen videos falsos que parecen reales. Demasiado reales.
A esta tecnología se le llama deepfake. El último informe de transparencia de Facebook ha dado a conocer que 2.2 mil millones de cuentas falsas de Facebook fueron eliminadas desde enero de 2019 hasta marzo de 2019 por un aumento en los ataques con cifrado automáticos. La amenaza de las imágenes y vídeos falsos es cada vez mayor. Una persona normal no puede identificar el 40% de los vídeos deepfakes. Y alrededor de las 3.6 billones de visitas en YouTube, cada año, vienen de fuentes de vídeo falsas.
Qué es el deepfake
Los deepfakes son vídeos o imágenes falsos que utilizan una refinada inteligencia artificial. Esto permite crear imágenes y sonidos que parezcan reales. Los deepfakes se van perfeccionando cada vez más y cada vez son más accesibles.
La técnica del deepfake es superponer una imagen manipulada encima de la imagen de la fuente original y crear un modelo falso. Se puede hacer pasar por cualquier persona y decir lo que quiera. Los deepfakes se crean utilizando métodos de inteligencia artificial y aprendizaje automático. Por eso son tan difíciles de identificar. Los deepfakes se están extendiendo muy rápido y hacen creer al público que son reales y alteran su objetividad a través de información incorrecta.
¿Cómo funciona el deepfake?
Los deepfakes utilizan un sistema de aprendizaje profundo capaz de producir una imagen falsa convincente estudiando con detenimiento los vídeos y fotografías de la persona objetivo desde diferentes ángulos, y después imitan su forma de hablar, sus gestos y comportamiento.
La tecnología deepfake funciona con dos componentes del sistema de IA GAN: un discriminador y un generador. El generador es responsable de crear un vídeo falso y después lo envía al discriminador para identificar si el vídeo es real o falso. Después de producir un vídeo básico falso, el GAN (red adversarial generativa) lo convierte en verdadero para la audiencia. La GAN encuentra fallas en la falsificación y se encarga de las mejoras y solución de estas.
El generador y el discriminador van de la mano y están en constante batalla el uno contra el otro. El discriminador se encarga de distinguir el video falso. Por otro lado, el generador es responsable de crear el vídeo que el discriminador no puede distinguir como falso. Un vídeo deepfake se considera completo después de someterse varias veces a la detección y mejora.
Según un informe de tecnología del MIT, el dispositivo que prepara deepfakes podría ser un arma perfecto para difundir noticias falsas que quieran influenciar cualquier cosa, como unas elecciones o los precios del mercado.
Detectar videos deepfake
Aunque la IA tiene un papel importante en crear los deepfakes, se podría usar la IA para detectarlos. La tecnología es fácilmente accesible para todos. Por ello, cada vez más investigadores se centran en detectar deepfakes y buscar soluciones para detener su difusión.
Hay pequeños aspectos visuales que destacan si los miras con mucha atención. Cualquier cosa desde los ojos o las orejas, el borde de la cara o una piel demasiado lisa podría ayudarte a detectar deepfakes. Encontrar esos signos reveladores es cada vez más complicado debido al avance y realismo tecnológico.
Los grandes de la industria, como Facebook y Microsoft, van un paso por delante en la detección y eliminación de vídeos deepfake. Hace unas semanas, Google sacó miles de vídeos deepfake que van a ayudar a los investigadores a crear herramientas mediante la inteligencia artificial para detectar vídeos falsos. Estos vídeos podrían resultar en ciberacoso, sabotaje contra empresas e información incorrecta sobre política. La tecnología ayudará a detectar los deepfakes igual que los filtros de spam detectan el spam en los emails.
Pero la tecnología formará parte de la solución porque, guste o no, se espera que los deepfakes mejoren mucho más rápido que los métodos de detección. Tanto la experiencia y la inteligencia humana son necesarias para detectar los futuros deepfakes. Los investigadores también buscan una solución para detectar deepfakes con técnicas automatizadas para identificar vídeos manipulados con inteligencia humana y artificial. Estas herramientas de detección dependen en gran medida del aprendizaje automático y de grandes cantidades de datos de capacitación.
El grupo de estudio del departamento de defensa, Darpa, cuenta con un programa que ofrece fondos a los investigadores centrados en las herramientas automáticas de identificación de falsificaciones para identificar deepfakes.
Facebook y Google hicieron público este año que van a crear una gran base de datos de vídeos falsos para investigar, asociándose con las mejores universidades de Estados Unidos. Las empresas planean sacar a la luz esta base de datos para los investigadores de IA en una conferencia de diciembre. Esto demuestra que los gigantes tecnológicos también buscan formas de encontrar una solución técnica para este problema de los deepfakes.
Tecnología deepfake: Los peligros
Según los expertos en seguridad, los peligros y amenazas de la tecnología deepfake son reales y podrían provocar efectos devastadores. Algunas pistas indican una difusión de información incorrecta sobre política y que podría arruinar también algunos negocios.
Los ataques digitales son cada vez más fáciles y baratos. Y como la calidad del contenido falso cada vez es mejor, diferenciar lo real de lo falso es cada vez más difícil. La tecnología deepfake es peligrosa y supone una amenaza para la educación, medios, el mundo del espectáculo, la política y otros sectores.
La peor amenaza en relación con los deepfakes es su integración en los vídeos pornográficos. Un enemigo podría superponer la cara de un famoso o de cualquier otra persona en el cuerpo de una estrella del porno. Esto podría desatar un enorme lío político y afectar a la reputación de la persona.
Los deepfakes también pueden mostrar una figura pública borracho o haciendo algo inmoral. Los deepfakes utilizan una técnica simple. La velocidad del vídeo real se modifica en un 75% de su velocidad natural. El tono de la voz suele ser más aguda para darle veracidad. Si se baja la velocidad del vídeo, da la impresión de que la persona que sale en el vídeo está borracha.
Los deepfakes con personas famosas podrían ser de gran impacto también. Mira el ejemplo del vídeo deepfake de Mark Zuckerberg en el que anuncia el control que va a ejercer con la información robada de las personas. Se extendió como la pólvora. Las noticias falsas, los estudios falsos, los resultados de investigaciones científicas falsos y las estadísticas falsas podrían afectar en gran medida la salud mental de las personas. También podría arruinar y poner en deshonra a académicos, investigadores, políticos y personalidades famosas. Los videos deepfake podría ser la manera definitiva para vengarse de alguien.
Tecnología deepfake: Oportunidades
Aparte de utilizarlo para dañar la reputación de alguien y difundir mentiras, los deepfakes podrían utilizarse para fines educativos, científicos y sociales. Las GAN fabrican rostros con personalidades imaginarias foto-realísticas. La misma tecnología podría utilizarse para hacer ediciones increíbles como mejorar fotografías borrosas o añadir color a las fotografías en blanco y negro.
Los científicos también podrían utilizar esta tecnología con moléculas virtuales para investigaciones químicas, que podrían agilizar los descubrimientos científicos y médicos. Los científicos pueden observar el comportamiento de las moléculas mientras se generan otras nuevas.
Reflexión final
Para resumir, la tecnología deepfake tiene más inconvenientes que ventajas. Tanto el gobierno de Estados Unidos como el de Gran Bretaña han tomado iniciativas para vigilar todo lo que esté relacionado con el uso de las GAN. También es muy importante la educación y la concienciación para frenar y combatir las consecuencias negativas de este modelo. El pensamiento crítico y la cultura digital debería formar parte del temario del colegio, para que los jóvenes puedan aprender a diferenciar una imagen o vídeo real de un deepfake.