Así es como puedes detectar un video tipo ‘deepfake’

25 junio, 2019 • Estados Unidos
Así es como puedes detectar un video tipo ‘deepfake’

Una de las principales herramientas para identificar videos ‘deepfake’ (ultrafalsos) creados mediante inteligencia artificial es ser capaz de detectar las señales delatoras de la fisiología humana que las máquinas aún no han aprendido a reproducir, explicó un experto en este campo.

Ante la alarma generalizada por estos videos en los que se modifican imágenes de forma sintética para, por ejemplo, poner en boca de un político algo que este jamás ha dicho, el director de Ética y Gobierno en la Iniciativa de Inteligencia Artificial de Harvard-MIT, Tim Hwang, recetó recurrir a las señales delatoras.

Por ejemplo, las caras en los videos deepfake pestañean con menor frecuencia que en el mundo real», dijo Hwang.

Aunque alertó de que ni las técnicas de detección ni las que buscan engañar «serán siempre perfectas», por lo que en su opinión la lucha contra los ‘deepfake’ será «una carrera armamentística en permanente cambio».

Uno de los escenarios hipotéticos que más alarma ha generado es el de que estos videos manipulados sean usados para propagar desinformación en la previsiblemente crispada campaña de las elecciones presidenciales en Estados Unidos el año que viene, especialmente tras las injerencias por parte de hackers rusos en la de 2016.

Al planteársele esta posibilidad, el director de Ética y Gobierno del proyecto impulsado por las universidades de Harvard y el MIT (Massachusetts Institute of Technology) indicó que, en su opinión, se ha sobredimensionado este riesgo, ya que quienes se dedican a propagar información falsa son «gente pragmática» cuyo objetivo es crear la mayor cantidad de contenidos con el menor esfuerzo.

Eso se puede hacer, por ejemplo, escribiendo mensajes de texto o manipulado imágenes con Photoshop. Todavía resulta mucho más fácil crear información falsa que no requiera aprendizaje automatizado como en el caso de los deepfake. Por eso creo que veremos mucho más estas técnicas en lugar de los exóticos ultrafalsos», apuntó.

Durante los últimos meses se han popularizado en internet videos manipulados con esta técnica de figuras públicas de toda índole: desde políticos como Trump, Obama y la exsecretaria de Estado Hillary Clinton, hasta actores como Nicolas Cage y empresarios de la industria tecnológica como Elon Musk (Tesla) y Mark Zuckerberg (Facebook), entre otros.

Creo que las personas seguirán siendo las responsables en última instancia de determinar qué es real y qué no lo es, pero las plataformas tecnológicas deberían ponérselo fácil», dijo el experto ante la posibilidad de que los ‘deepfake’ ganen cada vez más presencia online.

Para ello, sugirió que las compañías de internet como Facebook, Twitter o Google «den el primer paso» y expliquen al internauta que, con base a los análisis de sus sistemas y a otros casos detectados, un contenido determinado es susceptible de haber sido generado sintéticamente, aunque la decisión final de compartir o no ese contenido recaerá sobre el usuario.

Los deepfake son muy buenos creando mejores marionetas, pero no necesariamente mejores marionetistas. Se puede hacer que Trump diga algo de forma muy creíble, pero ningún sistema de aprendizaje automatizado puede determinar qué es lo que Trump debe decir para que el contenido suene creíble», remachó el experto.

 

Comentarios