La foto es impactante. Una niña con un chaleco salvavidas llora desconsolada mientras abraza a un pequeño cachorro a bordo de un bote. Alrededor tiene lo que parece una riada causada por algún desastre natural.
Parece una imagen real, pero no lo es. Es una imagen generada por inteligencia artificial.
Dicha imagen, como indican en Garbage Day, se hizo viral en Facebook, y a partir de ahí se acabó haciendo viral también en otras redes sociales como X o YouTube. Entre los que la difundieron estaban partidarios de Donald Trump.
Están usando la devastación provocada por el huracán Helene para sacar rédito político, criticando los esfuerzos de la FEMA (Federal Emergency Management Agency) y propapagando todo tipo de imágenes y noticias falsas para menoscabar dichas labores de rescate y auxilio a los afectados por la tragedia.
Encontrar el origen de esta y otras imágenes es prácticamente imposible, y luchar contra la difusión de esta información falsa está demostrando ser casi imposible. En Facebook han añadido etiquetas a esta y otras imágenes indicando que son "fotos alteradas" y que deberíamos comprobar que son reales antes de confiar en ellas.
Sin embargo, las imágenes se han difundido por ejemplo en páginas con la etiqueta #NorthCarolina —Carolina del Norte, uno de los estados afectados por el huracán— que servían para dar información útil y legítima sobre el desastre.
Esa página, que probablemente muchos afectados están consultando, está ahora llenándose de teorías de la conspiración. Por ejemplo esta en la que se indica que las inundaciones no las causó el huracán, sino la acción humana debido a algún tema relacionado con los depósitos de litio y las empresas de desarrollo de IA. O esta otra que acusa al gobierno.
Lo preocupante no es solo eso: es que a pesar de todas esas advertencias, la gente sigue compartiendo las imágenes aunque sepan que pueden no ser reales. Lo hizo por ejemplo Amy Kremer, del RNC (Republican National Committee).
Su post en X se actualizó con una nota de la comunidad indicando que era un deepfake, pero ella mantuvo la imagen alegando que eso no importaba y que "es emblemática del trauma y dolor que la gente está sufriendo ahora mismo".
No es la primera vez que ocurre esto en redes sociales, y desde luego no será la última. El problema es precisamente ese: que probablemente toda esta generación interesada de contenidos falsos será cada vez más creíble, y Facebook no parece estar pudiendo hacer mucho por vetarla o controlarla. Tampoco X puede luchar demasiado contra el problema, aunque ciertamente las notas de la comunidad ayudan.
Y sin embargo, esas advertencias pueden llegar demasiado tarde. Los deepfakes efectivamente se sitúan como una poderosa arma para influir en la opinión pública, y las plataformas en las que se difunden no están preparadas de momento para luchar contra ese problema.
En Xataka | Hay más desinformación que nunca. Unos investigadores de Madrid creen tener la solución: un algoritmo
Ver 5 comentarios