Cómo detectar un video de intercambio de rostros "falso profundo"

Tabla de contenido:

Video: Cómo detectar un video de intercambio de rostros "falso profundo"

Video: Cómo detectar un video de intercambio de rostros "falso profundo"
Video: ✔️Cómo Utilizar AUTORUNS Para OPTIMIZAR WINDOWS 10 / 8 / 7 | Autoruns Windows Sysinternals [2020] 2024, Marcha
Cómo detectar un video de intercambio de rostros "falso profundo"
Cómo detectar un video de intercambio de rostros "falso profundo"
Anonim
Recientemente, Reddit ha estado haciendo noticias de nuevo con un subreddit en el cual las personas usan una herramienta de aprendizaje automático llamada "Deep Fake" para reemplazar automáticamente la cara de una persona con otra en un video. Obviamente, dado que este es el Internet, la gente lo está utilizando para dos cosas: el falso porno de celebridades y la inserción de Nicolas Cage en películas aleatorias.
Recientemente, Reddit ha estado haciendo noticias de nuevo con un subreddit en el cual las personas usan una herramienta de aprendizaje automático llamada "Deep Fake" para reemplazar automáticamente la cara de una persona con otra en un video. Obviamente, dado que este es el Internet, la gente lo está utilizando para dos cosas: el falso porno de celebridades y la inserción de Nicolas Cage en películas aleatorias.

Aunque intercambiar la cara de alguien en una fotografía siempre ha sido relativamente fácil, intercambiar la cara de alguien en un video solía llevar mucho tiempo y era difícil. Hasta ahora, los estudios VFX lo han hecho principalmente para películas de gran presupuesto de Hollywood, donde la cara de un actor se cambia a su doble. Pero ahora, con Deep Fake, cualquier persona con una computadora puede hacerlo rápida y automáticamente.

Antes de continuar, necesitas saber cómo es un Deep Fake. Mira el video de SFW a continuación, que es una compilación de diferentes intercambios de caras de celebridades, que involucran principalmente a Nic Cage.

El software Deep Fake funciona utilizando el aprendizaje automático. Se entrena primero con una cara de objetivo. Las imágenes distorsionadas del objetivo se ejecutan a través del algoritmo y aprende cómo corregirlas para asemejarse a la cara del blanco inalterada. Cuando el algoritmo recibe imágenes de otra persona, asume que son imágenes distorsionadas del objetivo e intenta corregirlas. Para obtener video, el software Deep Fake opera en cada cuadro individualmente.

La razón por la que Deep Fakes ha involucrado actores en gran medida es que hay muchas imágenes disponibles desde diferentes ángulos, lo que hace que la capacitación sea más efectiva (Nicolas Cage tiene 91 créditos de actuación en IMDB). Sin embargo, dada la cantidad de fotos y videos que las personas publican en línea y que realmente solo necesitas unas 500 imágenes para entrenar el algoritmo, no hay ninguna razón para que las personas comunes no puedan ser atacadas, aunque probablemente con un poco menos de éxito.

Cómo detectar un falso profundo

En este momento, los Deep Fakes son bastante fáciles de detectar, pero se volverán más difíciles a medida que la tecnología mejore. Éstos son algunos de los regalos

Caras de aspecto extraño. En muchas de las Fakes profundas, las caras se ven extrañas. Las características no se alinean perfectamente y todo parece un poco ceroso como en la imagen de abajo. Si todo lo demás se ve normal, pero la cara parece extraña, es probable que sea una falsificación profunda.

Image
Image

Parpadeo. Una característica común de los videos falsos de Deep Fake es que la cara parece parpadear y las características originales aparecen ocasionalmente a la vista. Normalmente es más obvio en los bordes de la cara o cuando algo pasa delante de ella. Si ocurre un parpadeo extraño, estás mirando un Fake Profundo.

Diferentes cuerpos. Las falsificaciones profundas son solo intercambios de caras. La mayoría de las personas intentan conseguir una buena combinación corporal, pero no siempre es posible. Si la persona parece ser notablemente más pesada, más liviana, más alta, más baja, o tiene tatuajes que no tiene en la vida real (o no tiene tatuajes que tiene en la vida real), es muy probable que sea falso. Puedes ver un ejemplo realmente obvio a continuación, donde la cara de Patrick Stewart ha sido intercambiada con J.K. Simmons en una escena de la película Whiplash. Simmons es significativamente más pequeño que Stewart, por lo que parece extraño.

Image
Image

Clips cortos. En este momento, incluso cuando el software Deep Fake funciona a la perfección y crea un intercambio de caras casi indistinguible, solo puede hacerlo durante un corto período de tiempo. En poco tiempo, uno de los problemas anteriores comenzará a suceder. Es por eso que la mayoría de los clips de Deep Fake que la gente comparte solo duran unos segundos, el resto de las imágenes no se pueden utilizar. Si te muestran un clip muy corto de una celebridad haciendo algo, y no hay una buena razón para que sea tan breve, es una pista de que es un falso falso.

Sin sonido o mala sincronización de labios. El software Deep Fake solo ajusta las características faciales; no hace mágicamente que una persona suene como otra. Si no hay sonido con el clip, y no hay razón para que no suene, es otra pista que estás viendo en un Deep Fake. De manera similar, incluso si hay sonido, si las palabras habladas no coinciden correctamente con los labios en movimiento (o los labios se ven extraños mientras la persona habla como en el clip a continuación), es posible que tenga un Falso Profundo.

Clips increíbles. Este tipo de cosas no hace falta decirlo, pero si se te muestra un video realmente increíble, es muy probable que no lo creas. Nicolas Cage nunca ha interpretado a Loki en una película de Marvel. Eso sería genial, sin embargo.

Fuentes dudosas. Al igual que con las fotos falsas, de donde supuestamente proviene el video es a menudo una gran pista en cuanto a su autenticidad. Si el New York Times está publicando una historia sobre él, es mucho más probable que sea cierto que algo que descubres en un rincón aleatorio de Reddit.

Por el momento, Deep Fakes es más una curiosidad espantosa que un problema importante. Los resultados son fáciles de detectar y, si bien es imposible aprobar lo que se está haciendo, nadie intenta pasar Deep Fakes como videos genuinos.

Sin embargo, a medida que la tecnología mejora, es probable que sean un problema mucho más grande. Por ejemplo, convencer a imágenes falsas de Kim Jong Un declarando la guerra a los Estados Unidos podría causar un gran pánico.

Recomendado: