Hace unos años la gente se familiarizó con el concepto de “fake news”, aquella información falsa que circula, generalmente, por redes sociales. Actualmente, el público online está entrando en contacto con las denominadas “deep news” o deepfakes, que nacen a partir de la edición de vídeos pornográficos y de la superposición de una cara famosa en la de un personaje. Estos productos se vuelven virales por la Red y dificultan discernir entre el contenido real y el falso.
El cambio fundamental es que las deepfakes son la creación de un ordenador, no proceden de la acción humana. A partir del aprendizaje profundo (deep learning) la máquina hace el montaje de los rostros en el vídeo. Es así que
la industria de la información afronta un gran reto debido a esta amenaza, pero ¿qué es lo que hay dentro del negocio viral de las Deepfakes? ¿Cómo se puede contrarrestar?
Discernir entre realidad y ficción
Saber separar entre el contenido fabricado y el real es fundamental para ser individuos en sociedad y hoy en día, la regulación de las "fake news" ha llegado hasta al congreso en Andalucia como ya se comentó anteriormente
en esta noticia. El objetivo es claro: luchar contra las noticias falsas a partir del fomento de una actitud crítica para detectar aquello que puede ser ofrecido como hecho cuando en el fondo es una mentira bien hilada.
No obstante, lo que tuviese sus comienzos en las fake news ha generado otro producto aún más peligroso por su efecto manipulativo, viral, y por ello conviene leer
esta extensa definición de deepfakes para familiarizarse con el concepto y sus técnicas. ¿Cómo se ha producido este salto a generar videos falsos? ¿cómo se produce el intercambio facial?
El ordenador genera la imagen falsa a partir de un algoritmo con unas 300 imágenes, la cifra mínima para conseguir un resultado convincente,
de un rostro específico desde distintos ángulos. La red neuronal sabe distinguir así el rostro de la persona para generarlo de forma autosuficiente y emular sus gestos.
A mayores, la máquina emplea un autoencoder (autocodificado) para saber distinguir entre la “información importante”, el rostro objetivo, de la que no lo es, el resto de “información” de la fuente original y crear modelos generativos.
Distinguir y localizar los errores habituales
No obstante, el algoritmo presenta deficiencias y, con un poco de conocimiento y capacidad crítica, el espectador puede
detectar anomalías en el vídeo fabricado. Los errores habituales suelen ser los
movimientos rápidos e imprevistos, pues impiden una correcta recreación de la imagen. A mayores, se puede saber cuando el ordenador carecía de la suficiente información en el caso de fotogramas borrosos.
Actualmente también existen muestras de vídeo que se preocupan por mostrar y señalar los errores de este tipo de vídeos,
estos son algunos ejemplos que alertan sobre los peligros de la IA y el deep learning con estas aplicaciones. Y es que si a partir de un modelo generativo es posible crear un vídeo fabricado desde cero, es importante saber detectar las anomalías habituales.
El objetivo de este contenido falso suele ser de carácter económico o tener una contrapartida en forma de beneficio político o de control. El tráfico y los clicks originados por un deepfake viral son una fuente muy productiva de generar dinero a través de publicidad.
En este link se puede obtener más información sobre el negocio de obtener beneficios económicos a partir de la información falsa y el contenido viralizado desde la mentira.