Globedia.com

×
×

Error de autenticación

Ha habido un problema a la hora de conectarse a la red social. Por favor intentalo de nuevo

Si el problema persiste, nos lo puedes decir AQUÍ

×
×
Recibir alertas

¿Quieres recibir una notificación por email cada vez que Imprints09 escriba una noticia?

Vídeos pornográficos de tipo Deepfake han sido eliminados de Twitter

21
- +
08/02/2018 20:53 0 Comentarios Lectura: ( palabras)

Twitter es la primera plataforma en eliminar este nuevo tipo de videos pornográficos que remplaza las caras de los actores originales con las de otra persona. Los videos, conocidos como Deepfake, usualmente utilizan actrices de televisión, grandes celebridades y cantantes de pop

Twitter es la primera plataforma en eliminar este nuevo tipo de videos pornográficos que remplaza las caras de los actores originales con las de otra persona.

Los videos, conocidos como Deepfake, usualmente utilizan actrices de televisión, grandes celebridades y cantantes de pop.

A diferencia de algunas redes sociales, Twitter permite pornografía explicita en la plataforma.

deepfake

Expertos en seguridad informática del Instituto Internacional de Seguridad Cibernética comentaron que el Deepfake rompe las reglas de privacidad ya que presentan este tema sin el consentimiento de la persona.

La base de la compañía Twitter en San Francisco actuó seis horas después de que una cuenta que comenzó a dedicarse a publicar videos de tipo Deepfake fue publicada en Reddit forum.

El sitio de noticias Motherboard fue el primero en reportar este comportamiento.

“Suspenderemos cualquier cuenta que sea identificada como el publicador original de imágenes intimas que sean producidas o distribuidas sin el consentimiento de la persona, ” dijo Twitter a Motherboard.

La empresa comento que según las bases de seguridad informática el Deepfake cae sólidamente en el tipo de videos prohibidos por la política de privacidad de medios.

El tema fue seguido por un anuncio de Pornhub donde se dijo que eliminaran los videos de Deepfake que llamaran la atención.

Hasta ahora, el sitio de adultos ha sido una fuente popular del material, con algunos videos de tipo Deepfake que atraen miles de visitas.

El servidor de video Gfycat y el servidor de chat Discord tomaron acciones similares.

Software simple

Los videos de tipo Deepfake involucran el uso de software de Inteligencia artificial para generar una versión computarizada de cara del sujeto para que encaje con las expresiones originales de la otra persona en el video.

Para lograr esto, el algoritmo requiere de la selección de fotografías de la cara del sujeto tomadas de diferentes ángulos.

En el caso donde las personas tienen tipos de cuerpo similar, los resultados pueden llegar a ser muy convincentes.

Estas prácticas comenzaron el año pasado, pero se popularizaron en el mes de enero seguido por el lanzamiento de la aplicación FakeApp, una herramienta que automatiza este proceso.

“Suspenderemos cualquier cuenta que sea identificada como el publicador original de imágenes intimas que sean producidas o distribuidas sin el consentimiento de la persona, ” dijo Twitter

Estudios en seguridad informática recomiendan, a partir de esto, limitar las publicaciones de fotografías personales.

One Reddit Group, la compañía dedicada a compartir y comentar acerca del proceso ahora tiene más de 91, 000 suscriptores.

Abuso infantil

No todos los videos producidos son de naturaleza pornográfica, muchos cuentan con parodias como el del presidente de los Estados Unidos Donald Trump, además un usuario se ha especializado en remplazar la cara de su esposa en escenas de películas de Hollywood.

Estudios realizados por la empresa de seguridad informática WebImprints mostro que la mayor parte del material generado a la fecha es muy explicito y de tipo pornográfico.

Mientras la mayor parte de estos videos presenta celebridades, algunos usuarios han comenzado en los últimos días a generar videos usando la cara de personalidades de YouTube, esto es algo que ha generado controversia en algunas personas.

Además, ha habido una reacción violenta frente a los reportes una compañía de seguridad informática ya que algunas personas han creado contenido ilegal de abuso infantil al usar imágenes de personas menores de 16 años.

“yo vi uno… de una pequeña niña de un show de televisión y pedí al publicador original que lo quitara, ” reporto un miembro de One Reddit.

Los usuarios también han sido advertidos por una compañía de seguridad informática de no tratar de comprar o vender  videos especialmente comisionados de tipo Deepfake entre ellos.

Motherboard saco un aviso para dicho servicio a principios de la semana, señalando que cualquier actividad comercial puede poner a los involucrados en riesgo de ser procesados.

Más realista

Algunos de los vídeos ya creados son rivales cuanto a calidad de “cambio de cara” en efectos especiales usados en películas, incluidos Rogue One y Blade Runner 2049.

Y se están haciendo esfuerzos para hacer mas mejoras.

El sitio Github revelo que está trabajando para crear movimientos del ojo ocular “más realistas y consistentes” con los de la persona que aparece en el rodaje original.

Además, hay intentos para crear:

  • Evitar efectos irregulares en algunos videos
  • Prevenir la aparición de artefactos gráficos en donde la computadora genera el cambio de cara con el cuerpo original
  • Producir tonos de piel más naturales

Algunos usuarios han comenzado a explorar con el uso de Amazon Web Services y Google Cloud Platform como alternativa para generar videos en sus propias computadoras.

Estos movimientos tienen el riesgo potencial de que las personas hagan mal uso al generar videos más largos sin tener que esperar días, dijo una empresa de seguridad informática, pero esto también podría involucrar el pago de los servicios por el esfuerzo de procesamiento.


Sobre esta noticia

Autor:
Imprints09 (19 noticias)
Visitas:
183
Tipo:
Reportaje
Licencia:
Distribución gratuita
¿Problemas con esta noticia?
×
Denunciar esta noticia por

Denunciar

Etiquetas
    Empresas

    Comentarios

    Aún no hay comentarios en esta noticia.