Si llegeixes sovint aquest blog segur que has vist Blade Runner. Recordes quan Deckard comença a explorar aquelles fotografies, amb zooms inacabables i canvis de punts de vista? El que llavors semblava impossible, ara està molt a prop. Se’n diu fotografia computacional i a que no saps qui l’està desenvolupant? Sí, ells…
Efectivament, tant Google com Apple estan invertint molts esforços en la fotografia computacional des de fa temps, i ara comencen a recollir-ne els fruits. Però abans de parlar d’aquests resultats potser que deixem clar què és exactament la fotografia computacional.
La fotografia fins ara s’ha basat en una lent (l’objectiu) que dirigeix la llum cap a un sensor (el rodet, en la fotografia analògica) on queda enregistrada una imatge. Fàcil, oi? Aquesta imatge es forma gràcies al processat que es fa a la càmera de la informació de cada petit punt del sensor. El processat, però, permet l’aplicació de variants de tota mena, per exemple afegir-hi tonalitats, com ara els filtres d’Instagram. Fins aquí arriba la fotografia digital convencional.
Però ja que estem processant… perquè no anem més enllà de la fotografia òptica? Perquè no deixem de treballar amb les dades d’una sola foto i treballem amb diferents fotos i les combinem? Fotos separades només per mil·lèsimes de segon? O més exposades (per veure bé les ombres) i menys exposades (per veure bé les parts més lluminoses)?
I si en comptes de combinar tres imatges en combinem 8 o 10? I si fem que la càmera calculi la distància de l’objecte central (una cara) i del fons (uns arbres) i apliquem un desenfocat al fons, com si fos una càmera professional? I si posem dues càmeres, una amb un gran angular, una amb un tele, i fem tot l’anterior multiplicat per dos i ho tornem a barrejar? I si…?
Això és la fotografia computacional, la captació d’imatges i el processat combinat amb múltiples sistemes per aconseguir resultats nous, impossibles d’obtenir amb només una captura.
Com us podeu imaginar les variants són potencialment infinites. I algú n’ha tret profit? Alguns ho han intentat i altres ho han aconseguit. Els primers que van saltar a la fama, primer per la seva ambició i després pel seu fracàs, van ser la gent de Light. La L16 és una càmera visionaria. Una mena de rajola de xocolata amb 16 objectius que prometia resultats de càmera professional dins d’un cos molt compacte.
I funciona? Doncs sí, la càmera combina les fotos dels seus diferents objectius i aconsegueix imatges d’altíssima resolució des d’angulars fins a tele. Quin és el problema? Que ho fa malament. Les fotos estan plenes de defectes, es veuen les costures. Fotos amb sectors molt nítids i d’altres que no, errades en la interpretació del que és fons i el que és la persona fotografiada, un software deficient… Un petit desastre que alguns no han tingut problema en disseccionar.
Però Light no eren els únics. En els últims mesos els dos gegants, Google i Apple, han presentat productes que, més enllà de les grans etiquetes afegides per les perverses ments de màrqueting (intel·ligència artificial, machine learning, xarxes neuronals, bla, bla, bla…), realment estan fent coses noves. Google ha presentat el Pixel 3. Apple el Iphone XS. Tots dos utilitzen la tècnica computacional fins el punt en que moltes vegades les fotos que fan ja no responen fidelment al model fotografiat. Són fotos artificials. Precioses, això sí, però més properes al que volem veure que al que realment veiem. Cap novetat, les fotografies sempre han estat una creació, no la realitat.
El Pixel 3 combina fins a 15 imatges per millorar la nitidesa, per permetre més zoom, per crear fotos amb flash quan no has disparat el flash, i com sempre, per aconseguir el desenfocat de fons en retrats, que tant afavoreix la imatge. Si voleu una anàlisi amb detall, aquí podeu trobar-la.
I l’Iphone XS posa molt d’esforç a mantenir els detalls tant de les zones fosques com de les més clares (HDR) amb un èxit evident. Respecte al mode retrat, un pas més: pots escollir, amb la foto ja feta, si vols el fons molt desenfocat o poc, com si variessis el diafragma en una càmera rèflex. Una càmera totalment nova.
Això és només el començament. De fet, fins ara tota aquesta potència de computació s’ha dedicat a imitar els resultats de les càmeres rèflex. Però aviat deixaran de copiar i començaran a crear coses realment noves. Per exemple: si podem diferenciar la persona retratada del fons perquè no canviar el fons?
I les fotos navegables de Blade Runner? No són tan lluny. En aquests moments hi ha molta gent investigant el que es coneix com Light Fields, una tecnologia que capta les imatges, sigui fotografia o vídeo, no des d’un punt, sinó des d’una “zona” a partir de múltiples càmeres que fan milers de fotos des de punts molt propers. Els pioners van ser Lytro, una start-up que va aconseguir 200 milions de dòlars de finançament però que no van ser capaços de crear un producte viable comercialment. Fa 7 mesos van tancar i les seves patents van ser comprades per una gran empresa que fa unes setmanes ha presentat els seus avenços en Light Fields. A que no endevineu qui són?
Increïble resultat de la captura amb el mètode lightfield. Són les fotos de Blade Runner en les que et pots moure per dins… @gregdowning #digidoc2018 pic.twitter.com/T3bEbAs4C5
— Albert Sierra (@albertsierra_re) October 11, 2018
Un pas més a prop de tenir-ho directament al teu telèfon.