InvestigateTV -
Escucha este artículo en Español aqui:
La tecnología utilizada para crear vídeos realistas de un actor internacionalmente famoso, un expresidente de los Estados Unidos e incluso un líder mundial en medio de un conflicto violento se está utilizando contra los Americanos.
La razón: El uso de su rostro amigable puede atrapar fácilmente a personas conocidas en una estafa.
Estas terroríficas falsificaciones se crean con la informática más avanzada, diseñada para imitar el cerebro humano.
En el mundo de la inteligencia artificial (IA), los vídeos se llaman “deepfakes” (profundamente falsos). El término se utiliza para imágenes, audio y vídeos que han sido manipulados para que parezcan reales.
Los deepfakes utilizan una forma llamada “Deep learning” (a prendimiento profundo) , una tecnología que intenta copiar cómo piensan y aprenden los humanos. De ahí deriva la palabra “deep” de los deepfakes.
Recientemente, el usuario de Tiktok Chris Ume se hizo viral con su deepfake del actor Tom Cruise. En el 2018, el director Jordan Peele y Buzzfeed hicieron circular un deepfake del expresidente Barack Obama para advertir a la gente de los avances de la tecnología y de cómo podría difundir información mediante un mal uso.
Cuando se trata de rastrear estos videos potencialmente problemáticos, una de las pocas organizaciones con datos sobre deepfakes es Sensity, una empresa con sede en Ámsterdam que emplea tecnologías de aprendizaje profundo y computación para detectar deepfakes.
Según Sensity, los deepfakes surgieron a finales del 2017 y los números de deepfakes han aumentado rápidamente. En el 2018, la empresa rastreó más de 7,000 vídeos deepfake en línea. En diciembre del 2020, su informe muestra que el número se disparó a más de 85,000 deepfakes en línea.
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/gray/7NHHZAP7N5BH5JRKXCUUQCZ5GE.png)
Los datos de Sensity solo rastrean incidentes que involucran a figuras públicas, no incluye incidentes que involucran a personas privadas. Sin embargo, los hackers no solo falsifican a famosos y políticos.
Hackeado y deepfaked
Kyle Hawkins conoce ese sentimiento muy bien. Sin saberlo, entró en el mundo de los deepfakes cuando sus cuentas de redes sociales fueron hackeadas en febrero del 2022.
Hawkins es un agente de seguros especializado en Medicare y planificación de la jubilación en Richmond, Virginia. Un día, abrió Instagram y dijo que vio un mensaje de un viejo amigo. Hawkins pensó que el amigo lo estaba contactando con sus servicios y buscando ayuda.
“Recibí un mensaje a través de Instagram de alguien de quien era amigo allí y supuse que le había pasado lo mismo, pero no lo sabía”, dijo Hawkins.
Resulta que ese amigo había sido hackeado. Cuando Hawkins hizo clic en un enlace del mensaje, dijo que rápidamente perdió el control de su cuenta.
“No pensaba en nada al respecto”, dijo Hawkins. “Y entonces fui capaz de conseguir Instagram esa mañana y luego, cuando traté de nuevo, era la hora del almuerzo, todo estaba apagado”.
Hawkins dijo que tanto su Instagram como su cuenta vinculada de Facebook fueron hackeadas, abriendo a sus seguidores a ataques similares.
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/gray/73CERWSOORGN3GSTDL34LQYXBY.png)
Ahí es donde dijo que comenzó el deepfake. Hawkins dijo que un video deepfake de 16 segundos fue enviado a sus amigos y seguidores animándolos a invertir en la minería de Bitcoin. Hawkins confirmó que el video se ve y suena igual que él.
“Parece real, pero lo están enviando a la gente. Creo que han hecho otros”, dijo Hawkins.
El dijo que el video ha sido publicado en “Instagram Stories” todos los días desde el hackeo inicial. En él, dijo que el “Hawkins falso” comparte cuánto dinero ha ganado a través de Bitcoin. La cuestión es que Hawkins dijo que nunca ha invertido en criptomoneda.
“No tengo ningún Bitcoin, así que no lo he hecho”, dijo Hawkins.
Hawkins dijo que se ha puesto en contacto con ambas compañías de medios sociales con la esperanza de cerrar su cuenta, pero tanto su cuenta de Instagram como la de Facebook siguen activadas.
Expansión y regulaciones de deepfakes
Ben Coleman, director general de Reality Defender, trabaja con organizaciones y agencias gubernamentales para escanear imágenes, audio y vídeo con la meta de proteger la privacidad de las personas, así como combatir el fraude y contenidos inapropiados, y buscar una solución al crecimiento de los deepfakes.
“Los filtros son deepfakes”, dijo Coleman. “Algunos son divertidos y otros se utilizan para fraude.”
Coleman dijo que los vídeos también pueden ser potencialmente peligrosos.
En el 16 de marzo, durante la acción militar de Rusia en Ucrania, apareció en las redes sociales un deepfake del presidente ucraniano Volodymyr Zelensky. El vídeo mostraba a Zelensky dando un discurso. Sin embargo, estaba pixelado y tenía una voz más profunda. Una vez que el vídeo fue calificado como deepfake, Meta - la empresa matriz de Facebook, se apresuró a retirar el vídeo de todas sus plataformas y emitió el siguiente comunicado.
No era la primera vez que Meta se preocupaba de los deepfakes. En víspera de las elecciones presidenciales del 2020, la empresa prohibió los deepfakes y otros vídeos manipulados alegando tácticas peligrosas que podrían confundir al público. En un comunicado de prensa de Facebook del 2020, la compañía dijo que está trabajando con el tema y “reforzando su políza hacia los vídeos manipulados engañosos.” La póliza de medios manipulados de Facebook establece que se eliminarán los vídeos no paródicos o satíricos editados para engañar a la gente, o los vídeos que utilicen IA para parecer auténticos.
No hay cifras públicas sobre cuántos vídeos deepfake ha eliminado Facebook, pero en un comunicado la compañía dijo que está “trabajando con otros en esta área para encontrar soluciones con impacto real.”
En Septiembre del 2019, la compañía creó un “Deep Fake Detection Challenge” que pidió a los expertos en el campo que ayudaran a crear herramientas de código abierto para detectar deepfakes.
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/gray/ZM445EN4SBDL7FHSMKDREGBYJQ.png)
HAGA CLIC AQUÍ PARA VER EL VÍDEO DEL DESAFÍO
Meta también se asoció con medios de comunicación como Reuters, para ayudar a identificar deepfakes y proporcionar capacitación gratuita en línea sobre cómo identificar visuales manipulados.
Ben Coleman dijo que, aunque las empresas y organizaciones de medios sociales están tratando de combatir el problema, hay obstáculos importantes que permanecen.
“Muchas veces estas empresas tienen grandes desafíos porque tienen moderadores humanos y los moderadores humanos ya no pueden distinguir entre [contenido] real o falso”, dijo Coleman.
El año pasado, el senador Rob Portman (republicano de Ohio) presentó un proyecto de ley en el Congreso para exigir al Departamento de Seguridad Nacional y a la Oficina de Política Científica y Tecnológica de la Casa Blanca que establezcan un Grupo de Trabajo Nacional de Procedencia de Deep Fakes temporal.
El proyecto de ley ha sido remitido a la Comisión de Seguridad Interior y Asuntos Gubernamentales y se ha “ordenado que se informe sin enmiendas de forma favorable”.
Coleman dijo que no hay políticas actuales en los Estados Unidos que requieran que las empresas marquen los medios sintéticos y falsos de la misma manera que actualmente marcan la desnudez y la violencia de menores.
“En mayor parte, [las empresas] piden a los usuarios que marquen esas cosas”, dijo Coleman. “Esperan que los usuarios sean expertos y que, si ven algo, lo digan y lo envíen a un equipo de moderadores humanos”.
Soluciones públicas y privadas para los deepfakes
Según Coleman, Reality Defender está trabajando actualmente en la creación de una extensión web y un sitio web para ayudar a los consumidores a detectar los deepfakes desde su ordenador personal.
Pero Reality Defender no está solo en la lucha contra los deepfakes. En la Universidad de Virginia, un equipo de estudiantes de tercer año está desarrollando un sitio web para el público, en el que un día los consumidores podrán subir vídeos y fotos dudosos para comprobar si en realidad son falsos.
Ahmed Hussain y Sax Buxbaum estudian informática y física. Ellos ganaron el primer premio del concurso Innovative Discovery Science Platform (iDISPLA). Su propuesta, dirigida a combatir los deepfakes mediante usando IA, surgió después de que el dúo viera un aumento de los vídeos de deepfake que aparecen en el Internet.
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/gray/JS4ZKYF7UBH75CLC3LQ3CR3MGA.png)
“Es muy posible que en los próximos cinco años los deepfakes sean casi indistinguibles de las personas reales en algunos casos”, dijo Hussain. “Están llegando a un punto en el que es bastante difícil hacerlo”.
Hussain dijo que cree que no se trata de combatir fuego contra fuego, sino de utilizar “blockchain”, un sistema que registra la información y dificulta el hackeo o la trampa del sistema.
Buxbaum dijo que su sitio web permitiría a la gente subir un vídeo y el algoritmo indicaría si el vídeo es falso.
“Algunas de las cosas que son diferentes entre un deepfake y un vídeo real sólo son detectables para un ordenador, pero aun así te hacen sentir raro cuando lo ves”, dijo Buxbaum.
Proteger tu cuenta y detectar deepfakes
Mientras las soluciones en línea y los legisladores se ponen al día con la tecnología, Coleman sugirió varios pasos para ayudar a evitar que un hacker utilice tus fotos y vídeos para crear deepfakes:
- Asegura todas tus cuentas sociales y ten una contraseña diferente para cada una
- Activar la autenticación de dos factores
- Si un vídeo parece estar fuera de lugar, márcalo en la plataforma que estés utilizando y llama a la persona
A la hora de detectar deepfakes, los investigadores del Instituto Tecnológico de Massachusetts sugieren fijarse en los rasgos faciales del vídeo:
- Observa cómo se mueven los ojos y los labios.
- ¿La piel es demasiado suave o está arrugada?
- Busque sombras anormales en el vídeo o la foto
- No hagas clic en ningún enlace asociado a un vídeo que te resulte desconocido
Kyle Hawkins dijo que su experiencia le hizo desconfiar de las redes sociales y de este nuevo estilo de ciberestafa.
“Sólo hay que ser muy precavido hoy en día con cualquier cosa que pongas ahí, publiques ahí, o respondas o hagas clic”.
Editado por Vanesa Olvera
Copyright 2022 Gray Media Group, Inc. All rights reserved.