Deepfake: més enllà de la desinformació

El deepfake, la tècnica d’intel·ligència artificial que permet simular situacions i persones, no para d’evolucionar per ser més ràpida, fàcil de fer servir, i realista. Cada vegada serà més fàcil falsejar vídeos, creant una sensació de desinformació general. Però podem trobar-li altres usos al deepfake, que no siguin necessàriament negatius?

El deepfake és una tècnica de síntesi d’imatges basada en la intel·ligència artificial. A través de la manipulació de fotografiesvídeos i sons, es simula, amb gran realisme, l’existència de persones, objectes o situacions inventades. Amb aquesta tècnica es poden fer dir coses a persones que mai les han dit, i pe tant és molt fàcil crear i difondre fake news utilitzant aquesta eina. 

En un moment en què les fake news son més nombroses que mai, tecnologia com la del deepfake pot fer que la nostra confiança en els mitjans de comunicació, i en la informació en general, disminueixi.  A mida que la tecnologia avança, els programes son cada vegada més eficients, pràctics i fàcils d’usar, per la qual cosa cada vegada es crearan més continguts, que seran més realistes, i que a més seran més difícils de controlar. Per això és important contrastar la veracitat de la informació que rebem a través de les xarxes o veiem a internet. Els humans som capaços de detectar un deepfake si ens fixem en el parpelleig o els canvi de to de la pell en un vídeo, però aquesta identificació requereix atenció, per una banda, i la consciència que vivim envoltats de notícies falses i que per tant cal estar atents. 

El deepfake, però, també pot ser utilitzat com a crítica i advertència sobre el risc de la proliferació, precisament, de vídeos fets amb aquesta tècnica. Al 2018, l’actor i cineasta nord americà Jordan Peele intentava advertir-nos dels perills del deepfake i de la necessitat de pantejar-nos l’autenticitat del que veiem a internet. En un vídeo creat amb intel·ligència artificial, Peele s’apoderava de la imatge d’Obama i el feia parlar, mostrant-nos com de fàcil és enganyar l’usuari amb la tècnica del deepfake

Per la seva banda, els artistes Bill Posters i Daniel Howe van utilitzar aquesta tècnica per fer una crítica de la utilització de les nostres dades per a obtenir poder, i a la manca de seguretat de les mateixes en l’era del Big Data. El 2019 van crear, utilitzant deepfake, un vídeo on Mark Zuckerberg, propietari de Facebook, explicava quant de poder tenia gràcies a les dades robades als usuaris.

Aquest vídeo formava part del projecte Big Dadauna intervenció digital a Instagram per hackejar i subvertir el poder dels influencers famosos, qüestionant la ètica de poder del seu discurs i de les noves formes de propaganda computacional a les xarxes socials. Els artistes van penjar a Instagram diferents vídeos de deepfakes de personatges com Kim Kardashian, i el projecte de seguida es va fer viral, provocant fins i tot respostes de Facebook, Youtube i Instagram, que van veure com la seva pròpia ètica es veia qüestionada.

Però no només es fan crítiques. El deepfake també s’aplica al món de l’audiovisual o de l’art. Aquest 2020 Disney ha anunciat que ha aconseguit que el model passi a una resolució de 1024×1024 píxels, un augment considerable tenint en compte que l’utilitzat fins ara era de 256×256 píxels. El nou model de deepfake reduirà temps i costos de producció -ara, per a fer deepfakes al cinema s’utiltzen costosos processos d’efectes digitals (com la rèplica virtual de la Princesa Leia a Star Wars: Rogue One). Aquesta nova tecnologia permet substituir la cara d’un actor o actriu en cas que hagi envellit o traspassat, o posar-li la cara a un especialista o doble de cos de manera més ràpida i eficient.

En el món de l’art, el primer museu en utilitzar la tècnica del deepfake va ser el Dalí Museum a St. Petersburg, Florida. Allà van crear “Dali Lives”, una experiència única on els visitants es trobaven amb una instal·lació interactiva de la figura de Dalí, a tamany real que parlava, reaccionava als gestos i amb la qual es podien fer un selfie, com si Dalí encara fos viu.

Per crear aquesta figura, es van utilitzar més de 6000 fotogrames de Dalí (entrevistesaparicions públiques, etc) per entrenar un algoritme de machine learning i crear una gran base de dades dels moviments, tics i trets més característics de l’artista. Tot això es va aplicar sobre el cos d’un actor real, amb un físic semblant al de Dalí i que imitava els seus moviments per fer-ho tot més real. A més, per a aquesta instal·lació interactiva es van crear 45 minuts de metratge, amb 125 vídeos interactius que permetien una certa interacció i fins i tot comentaris sobre el temps per part de Dalí. Al final de l’experiència, aquest es girava per fer-se un selfie amb els visitants. 

L’artista alemany Mario Klingemann, conegut pels seus treballs amb codi, algoritmes i xarxes neuronals, utilitza la intel·ligència artificial i les instal·lacions interactives en la majoria de les seves obres. Una d’elles, la instal·lació “Uncanny Mirror”, és una mena de deepfake a temps real: consisteix en una pantalla i una càmera, a mode de mirall, que transforma l’espectador que s’hi mira en una representació estranya d’ell mateix, basada en totes les cares que prèviament s’han mirat en aquest mateix mirall. Aquesta imatge es crea gràcies a la combinació de les dades biomètriques que treu la càmera amb la intel·ligència artificial, que és capaç d’interpretar aquests trets facials per convertir-los en “retrats” de la persona que s’hi mira.

A Moscou, els investigadors del Centre d’Intel·igència Artificial de Samsung, conjuntament amb els de l’Institut de Ciència i Tecnologia Skolkovo han desenvolupat una tecnologia d’intel·ligència artificial que permet convetir imatges fixes en un vídeo: mostrant diverses expressions facials i moviments d’una persona, es pot fer parlar una imatge, i fins i tot un quadre. 

El fet que es pugui crear un vídeo a partir d’una imatge fixa accelera el procés de creació i per tant facilita la creació de materials falsos. Per això aquesta tecnologia té tants admiradors com detractors, ja que mal utilitzada pot ser perillosa per a la credibilitat al món digital.

 

Adriana Todó

 

Leave a Reply