• ID de revisión 4618 REVISIÓN
  • 2018-12-20 14:19:40
  • por Diana Juárez Torres
  • Nota:
  • ID de revisión 4619 PUBLICADO
  • 2018-12-20 14:19:44
  • por Diana Juárez Torres
  • Nota: corrección de estilo
 
   
Title Title
¿Qué son los Deepfakes? ¿Qué son los Deepfakes?
Summary Summary
Esta técnica para realizar videos “simulados” o “falsos” supone un gran problema que alimenta la desinformación Esta técnica para realizar videos “simulados” o “falsos” supone un gran problema que alimenta la desinformación
Highlights Highlights
Content Content
La inteligencia artificial ha llegado a convertirse en una amenaza para la veracidad de los hechos y el “<a href="https://en.wikipedia.org/wiki/Deepfake">Deepfake</a>” consta de una técnica capaz de combinar imágenes y videos existentes en imágenes o videos originales. La inteligencia artificial ha llegado a convertirse en una amenaza para la veracidad de los hechos y el “<a href="https://en.wikipedia.org/wiki/Deepfake">Deepfake</a>” consta de una técnica capaz de combinar imágenes y videos existentes en imágenes o videos originales.
Esta técnica para realizar videos “simulados” o “falsos” supone un gran problema que alimenta la desinformación y un desafío para el periodismo en lo que respecta a la verificación de los hechos. Esta técnica para realizar videos “simulados” o “falsos” supone un gran problema que alimenta la desinformación y un desafío para el periodismo en lo que respecta a la verificación de los hechos.
La mayoría de Deedfakes se basa en una técnica de aprendizaje automático denominada “<a href="https://arxiv.org/abs/1406.2661">redes de confrontación generativa</a>”  o GAN con el cual se pueden intercambiar las caras de dos personas y gracias a un algoritmo los individuos muestran expresiones similares con el posicionamiento facial, haciéndolas coincidir casi perfectamente. La mayoría de Deedfakes se basa en una técnica de aprendizaje automático denominada “<a href="https://arxiv.org/abs/1406.2661">redes de confrontación generativa</a>”  o GAN con el cual se pueden intercambiar las caras de dos personas y gracias a un algoritmo los individuos muestran expresiones similares con el posicionamiento facial, haciéndolas coincidir casi perfectamente.
En un principio los Deepfakes se hicieron populares y se viralizaron en la industria del <a href="https://www.bbc.com/mundo/noticias-43975322">porno</a> protagonizado por famosas, sin embargo poco tiempo después abrieron la puerta rumbo a las noticias falsas, pues fue utilizado para difundir mensajes montados por personajes reconocidos (de política, economía o socialmente), que nunca los pronunciaron. En un principio los Deepfakes se hicieron populares y se viralizaron en la industria del <a href="https://www.bbc.com/mundo/noticias-43975322">porno</a> protagonizado por famosas, sin embargo poco tiempo después abrieron la puerta rumbo a las noticias falsas, pues fue utilizado para difundir mensajes montados por personajes reconocidos (de política, economía o socialmente), que nunca los pronunciaron.
Los creadores de Deepfakes pueden utilizar una gran variedades de algoritmos y técnicas como las siguientes: Los creadores de Deepfakes pueden utilizar una gran variedades de algoritmos y técnicas como las siguientes:
a) FACESWAP: Este algoritmo es capaz de <a href="https://arxiv.org/pdf/1611.09577.pdf">insertar la cara de una persona</a> en un video y ha sido usada para poner en situaciones incómodas a varios actores y personajes que nunca estuvieron involucradas. a) FACESWAP: Este algoritmo es capaz de <a href="https://arxiv.org/pdf/1611.09577.pdf">insertar la cara de una persona</a> en un video y ha sido usada para poner en situaciones incómodas a varios actores y personajes que nunca estuvieron involucradas.
b) SINCRONIZACIÓN DE LABIOS: Con esta herramienta se puede<a href="http://grail.cs.washington.edu/projects/AudioToObama/"> insertar una boca</a> en la cara de otra personas, combinando los materiales para que parezca que la víctima este diciendo cosas que no son. b) SINCRONIZACIÓN DE LABIOS: Con esta herramienta se puede<a href="http://grail.cs.washington.edu/projects/AudioToObama/"> insertar una boca</a> en la cara de otra personas, combinando los materiales para que parezca que la víctima este diciendo cosas que no son.
c) RECREACIÓN FACIAL: Los falsificadores también pueden transferir <a href="https://www.youtube.com/watch?v=ohmajJTcpNk">expresiones faciales</a> de una persona a otro video y jugar con la apariencia de quien estén manipulando. c) RECREACIÓN FACIAL: Los falsificadores también pueden transferir <a href="https://www.youtube.com/watch?v=ohmajJTcpNk">expresiones faciales</a> de una persona a otro video y jugar con la apariencia de quien estén manipulando.
d) TRANSFERENCIA DE MOVIMIENTO: Se pueden <a href="https://arxiv.org/pdf/1808.07371.pdf">vincular movimientos corporales</a> de una persona en un video de origen a una persona en un video objetivo. Por ejemplo capturando los movimientos de Bruno Mars y hacer que el mismo Barack Obama termine bailando de esa manera. d) TRANSFERENCIA DE MOVIMIENTO: Se pueden <a href="https://arxiv.org/pdf/1808.07371.pdf">vincular movimientos corporales</a> de una persona en un video de origen a una persona en un video objetivo. Por ejemplo capturando los movimientos de Bruno Mars y hacer que el mismo Barack Obama termine bailando de esa manera.
&nbsp; &nbsp;
El Center for a New American Security (CNAS) publicó un <a href="https://www.cnas.org/publications/reports/artificial-intelligence-and-international-security">estudio sobre usos de la Inteligencia Artificial</a> relacionados con la seguridad nacional, donde se expuso la posibilidad de que en menos de cinco años se pueda engañar “a oídos y ojos no entrenados para difundir contenido falso, engañoso o hiperpartidista” así como la preocupación en el efecto que esto podría causar política y gubernamentalmente en todos los países. El Center for a New American Security (CNAS) publicó un <a href="https://www.cnas.org/publications/reports/artificial-intelligence-and-international-security">estudio sobre usos de la Inteligencia Artificial</a> relacionados con la seguridad nacional, donde se expuso la posibilidad de que en menos de cinco años se pueda engañar “a oídos y ojos no entrenados para difundir contenido falso, engañoso o hiperpartidista” así como la preocupación en el efecto que esto podría causar política y gubernamentalmente en todos los países.
&nbsp; &nbsp;
¿Cómo se pueden detectar Deepfakes? ¿Cómo se pueden detectar Deepfakes?
<strong>-Examina la fuente </strong> <strong>-Examina la fuente </strong>
<a href="https://twitter.com/nataliavosipova">Natalia V. Osipova</a>, periodista de video senior en <a href="https://www.wsj.com/">The Wall Street Journal</a> mencionó que existen algunas técnicas para verificar si un archivo visual ha sido modificado, como es analizarlo fotograma por fotograma en programas de edición o realizar una búsqueda de imagen inversa. Sin embargo, reconoció que la mejor opción es siempre comunicarse directamente con la fuente, el tema y usar el criterio editorial. <a href="https://twitter.com/nataliavosipova">Natalia V. Osipova</a>, periodista de video senior en <a href="https://www.wsj.com/">The Wall Street Journal</a> mencionó que existen algunas técnicas para verificar si un archivo visual ha sido modificado, como es analizarlo fotograma por fotograma en programas de edición o realizar una búsqueda de imagen inversa. Sin embargo, reconoció que la mejor opción es siempre comunicarse directamente con la fuente, el tema y usar el criterio editorial.
Si se reciben archivos sospechosos lo mejor es preguntarse: ¿Cómo lo obtuvieron? ¿Dónde y cuándo fue filmado?, obtener la mayor cantidad de información posible y solicitar una prueba adicional, así como <strong>verificar</strong>. Si se reciben archivos sospechosos lo mejor es preguntarse: ¿Cómo lo obtuvieron? ¿Dónde y cuándo fue filmado?, obtener la mayor cantidad de información posible y solicitar una prueba adicional, así como <strong>verificar</strong>.
Pero si el material se cargó únicamente en línea y se desconoce el autor, se podrían responder las siguientes interrogantes: ¿Quién supuestamente filmó el video? ¿Quién lo publicó y lo compartió, y con quién?. Pero si el material se cargó únicamente en línea y se desconoce el autor, se podrían responder las siguientes interrogantes: ¿Quién supuestamente filmó el video? ¿Quién lo publicó y lo compartió, y con quién?.
Las agencias y medios de noticias han considerado que la mejor forma de combatir las Deepfakes es involucrar a las personas con herramientas de inteligencia artificial, por ello <a href="https://www.wsj.com/">The Wall Street Journal</a> está trabajando junto con otras organizaciones para capacitar a sus periodistas para la autenticación y reconocimiento de contenido que brinde sospechas o alteraciones. Las agencias y medios de noticias han considerado que la mejor forma de combatir las Deepfakes es involucrar a las personas con herramientas de inteligencia artificial, por ello <a href="https://www.wsj.com/">The Wall Street Journal</a> está trabajando junto con otras organizaciones para capacitar a sus periodistas para la autenticación y reconocimiento de contenido que brinde sospechas o alteraciones.
<strong>-Encontrar versiones anteriores</strong> <strong>-Encontrar versiones anteriores</strong>
Por lo general los Deepfakes se basan en imágenes que se encuentran disponibles en línea, para encontrar las versiones anteriores herramientas como <a href="https://tineye.com/">Tineye</a> o <a href="https://www.labnol.org/internet/mobile-reverse-image-search/29014/">Google Image Search</a> son muy útiles. Por lo general los Deepfakes se basan en imágenes que se encuentran disponibles en línea, para encontrar las versiones anteriores herramientas como <a href="https://tineye.com/">Tineye</a> o <a href="https://www.labnol.org/internet/mobile-reverse-image-search/29014/">Google Image Search</a> son muy útiles.
<strong>-Examinar las imágenes</strong> <strong>-Examinar las imágenes</strong>
Programas de edición como Final Cut nos permite ir fotograma por fotograma, reducir la velocidad de las tomas y acercar la imagen, ayudando a revelar algunas fallas como destellos y falta de claridad alrededor de la boca, cara, luces, movimientos no naturales y diferencias entre los tonos de piel que revelan de inmediato la falsificación. Programas de edición como Final Cut nos permite ir fotograma por fotograma, reducir la velocidad de las tomas y acercar la imagen, ayudando a revelar algunas fallas como destellos y falta de claridad alrededor de la boca, cara, luces, movimientos no naturales y diferencias entre los tonos de piel que revelan de inmediato la falsificación.
En el audio también se pueden detectar fallas con la entonación no natural, la respiración irregular y las voces con sonido metálico. En el audio también se pueden detectar fallas con la entonación no natural, la respiración irregular y las voces con sonido metálico.
Para verificar este tipo de contenido se necesita tener ojos y oídos bien entrenados, realizar mucha investigación, capacitarnos, comenzar a familiarizarnos con algunas herramientas de edición de imágenes y videos, así como sus diferentes vertientes que siguen y seguirán contribuyendo a las noticias falsas. Para verificar este tipo de contenido se necesita tener ojos y oídos bien entrenados, realizar mucha investigación, capacitarnos, comenzar a familiarizarnos con algunas herramientas de edición de imágenes y videos, así como sus diferentes vertientes que siguen y seguirán contribuyendo a las noticias falsas.
&nbsp; &nbsp;
Categories Categories
  Ciencia y Tecnología
Article type Article type
report report
Tags Tags
Deepfake, Fake News, Inteligencia Artificial Deepfake, Fake News, Inteligencia Artificial
Author byline Author byline
Yes Yes
Has hero Has hero
Yes Yes
Hero Alignment Hero Alignment
full full
Hero Image URL Hero Image URL
https://s3-us-west-1.amazonaws.com/wikitribune-uploads-es-master/2018/12/20124649/deepfakes-150x150.jpg https://s3-us-west-1.amazonaws.com/wikitribune-uploads-es-master/2018/12/20124649/deepfakes-150x150.jpg
Featured Image URL Featured Image URL
  https://s3-us-west-1.amazonaws.com/wikitribune-uploads-es-master/2018/12/20124649/deepfakes.jpg
Sources Sources
<p><a href="https://www.cnas.org/publications/reports/artificial-intelligence-and-international-security" rel="nofollow">https://www.cnas.org/publications/reports/artificial-intelligence-and-international-security</a></p> <p><a href="https://www.cnas.org/publications/reports/artificial-intelligence-and-international-security" rel="nofollow">https://www.cnas.org/publications/reports/artificial-intelligence-and-international-security</a></p>
<p><a href="http://www.niemanlab.org/2018/11/how-the-wall-street-journal-is-preparing-its-journalists-to-detect-deepfakes/" rel="nofollow">http://www.niemanlab.org/2018/11/how-the-wall-street-journal-is-preparing-its-journalists-to-detect-deepfakes/</a></p> <p><a href="http://www.niemanlab.org/2018/11/how-the-wall-street-journal-is-preparing-its-journalists-to-detect-deepfakes/" rel="nofollow">http://www.niemanlab.org/2018/11/how-the-wall-street-journal-is-preparing-its-journalists-to-detect-deepfakes/</a></p>
<p><a href="https://www.cronista.com/columnistas/Que-son-y-como-combatir-deepfakes-20181029-0091.html" rel="nofollow">https://www.cronista.com/columnistas/Que-son-y-como-combatir-deepfakes-20181029-0091.html</a></p> <p><a href="https://www.cronista.com/columnistas/Que-son-y-como-combatir-deepfakes-20181029-0091.html" rel="nofollow">https://www.cronista.com/columnistas/Que-son-y-como-combatir-deepfakes-20181029-0091.html</a></p>
<p><a href="https://www.xataka.com/robotica-e-ia/deepfakes-tendremos-problema-verdad-videos-serviran-como-pruebas" rel="nofollow">https://www.xataka.com/robotica-e-ia/deepfakes-tendremos-problema-verdad-videos-serviran-como-pruebas</a></p> <p><a href="https://www.xataka.com/robotica-e-ia/deepfakes-tendremos-problema-verdad-videos-serviran-como-pruebas" rel="nofollow">https://www.xataka.com/robotica-e-ia/deepfakes-tendremos-problema-verdad-videos-serviran-como-pruebas</a></p>
<p>&nbsp;</p> <p>&nbsp;</p>

Suscríbete a nuestro boletín

Para recibir noticias, alertas y actualizaciones

WikiTribune Abrir Menú Cerrar Buscar Me gusta Regresar Siguiente Abrir Menú Cerrar Menú Play video RSS Feed Compartir en Facebook Compartir Twitter Compartir Reddit Síguenos en Instagram Síguenos en YouTube Conéctate con nosotros en LinkedIn Connect with us on Discord Envíanos un correo electrónico