La fotografia computazionale è un campo in via di sviluppo che combina gli elementi della fotografia tradizionale con ulteriori elaborazioni computerizzate. Sta spingendo i limiti di ciò che significa la parola fotografia. Nuovi processi possono superare i limiti di una telecamera, codificare più informazioni in un singolo file rispetto a prima, o persino creare nuovi modi di comprendere le immagini. In questo articolo imparerai a conoscere i tre principali campi emergenti della fotografia computazionale.
Ciò che pensiamo come "fotografia digitale" ha dominato il campo della fotografia negli ultimi dieci anni. In essa, la fotocamera tenta di emulare come funziona una cinepresa. Questo è ciò a cui mi riferirò come tradizionale fotografia digitale.
Ad ogni livello, la fotografia digitale tradizionale attinge dal suo predecessore cinematografico; dagli evidenti segni esteriori come il design fisico della fotocamera - un'idea che viene ora sfidata solo da fotocamere con obiettivo intercambiabile senza specchio - alle ipotesi e ai concetti sottostanti di come un'immagine viene catturata.
Nella fotografia cinematografica, la luce penetra attraverso una lente e viene proiettata, in base all'ottica e alla messa a fuoco specifica dell'obiettivo, sul film. Le particelle sensibili alla luce del film reagiscono a qualunque fotone cadano su di esse, catturando le informazioni il più vicino possibile alle loro proprietà fisiche. La fotocamera non cattura ciò che vede il fotografo, cattura ciò che vede la telecamera, anche se se tutto va bene queste due visioni dovrebbero corrispondere relativamente strettamente.
C'è sempre qualche dato perso o corrotto dal processo fotografico. Se l'obiettivo è focalizzato in modo errato o se un obiettivo grandangolare introduce la distorsione, tutti questi tratti ottici verranno catturati dal film. Una cinepresa cattura solo un piccolo campione delle informazioni disponibili.
La fotografia digitale tradizionale sostituisce semplicemente il film con un sensore digitale. I siti foto sensibili alla luce sostituiscono le particelle sensibili alla luce. La fotocamera reagisce allo stesso modo, catturando linearmente la scena nel modo più fedele possibile. I fotoni cadono sul sensore digitale e, in base alle specifiche dell'obiettivo, l'informazione viene catturata in base alla sua risoluzione. Ci sono alcune elaborazioni fatte con le informazioni dai siti fotografici per sviluppare l'immagine finale in una fotografia che si adatta alla nostra esperienza visiva, ma è progettata per rendere le cose più fedeli a ciò che la fotocamera ha catturato il più possibile. La fotocamera non tenta di rendere l'immagine più di ciò che ha visto.
"eye ball grandad", un ritratto elaborato da Deep Lewis di Mark Lewis. CC BY-SA 2.0Mentre ci sono ovvie ragioni storiche, tecnologiche e artistiche che la fotografia digitale tradizionale imita la fotografia cinematografica, negli ultimi anni le cose hanno iniziato a cambiare. Il presupposto che una fotocamera dovrebbero catturare una scena il più vicino possibile ha iniziato a essere sfidata. Invece, sono stati sviluppati metodi fotografici che utilizzano l'immagine catturata o le immagini come punto di partenza da cui è stata elaborata o creata l'immagine finale..
Ramesh Raskar e Jack Tumblin, ricercatori della fotografia computazionale al Massachusetts Institute of Technology, hanno identificato tre fasi per lo sviluppo del campo: la fotografia epsilon, che sviluppa processi attraverso i quali le telecamere possono superare i loro limiti intrinseci, la fotografia codificata, dove l'immagine viene catturata è modificabile dopo il fatto, e la fotografia essenza, dove viene sfidato il concetto stesso di ciò che rende un'immagine.
A differenza della fotografia codificata o di essenze, le immagini acquisite con le tecniche di fotografia epsilon spesso appaiono, in superficie, come normali fotografie digitali. Vengono eseguiti più scatti e uno o più parametri della fotocamera tradizionali: messa a fuoco, lunghezza focale, velocità dell'otturatore, apertura, ISO e simili, vengono modificati di una piccola quantità tra ogni scatto. Gli scatti vengono quindi combinati algoritmicamente in un'unica immagine in modo tale da estendere le capacità della fotocamera.
Prendiamo ad esempio la fotografia High Dynamic Range (HDR), che è la forma più popolare di fotografia epsilon. Scatti multipli vengono catturati di una singola scena, ciascuno con un diverso valore di esposizione. Variando l'esposizione, la gamma dinamica della serie di immagini supera di gran lunga quella della telecamera. Gli scatti sottoesposti hanno più dettagli evidenziati e gli scatti sovraesposti più dettagli di ombre di quelli che la fotocamera potrebbe catturare in un singolo fotogramma.
Quando gli scatti sono combinati, l'immagine finale riflette la gamma dinamica della serie, non la fotocamera. Oltre a ciò, appare come una normale foto digitale.
L'HDR non è l'unica tecnica di fotografia epsilon. Qualsiasi altro parametro può essere variato per creare "immagini impossibili" che abbiano, ad esempio, una maggiore profondità di campo di quanto qualsiasi telecamera possa registrare.
Mentre la fotografia epsilon mira ad estendere il modo in cui la fotocamera è in grado di rappresentare una scena, la fotografia codificata tenta di codificare la maggior parte delle informazioni disponibili in una singola fotografia. È con la fotografia in codice che il linguaggio tradizionale della fotografia inizia a diventare inadeguato. Una fotografia codificata contiene molte più informazioni di quante possano essere rappresentate con una singola immagine, invece, può essere decodificata per ricreare la scena in modi diversi. In altre parole, l'unica fotografia contiene più di una possibile immagine.
La fotografia in campo chiaro è un'area di fotografia in codice che è stata esplorata commercialmente negli ultimi anni. Una fotocamera a campo chiaro, come quella di Lytro, cattura la scena da più punti di vista, ognuno con diversi piani di messa a fuoco utilizzando una serie di piccoli obiettivi. Le informazioni dalle acquisizioni risultanti sono codificate in un singolo file di fotografia.
Un'immagine scattata con una fotocamera Lytro che combina più piani focali. Immagine: Lytro.In fase di post-produzione, le informazioni del file possono essere decodificate in un numero qualsiasi di immagini possibili. Quando viene registrato un campione significativo di tutti i possibili piani di messa a fuoco, è possibile modificare il punto focale apparente dell'immagine. Allo stesso modo, con un'elaborazione più avanzata, poiché la posizione relativa di ogni oggetto nella fotografia può essere triangolata, il primo piano, il centro e lo sfondo possono essere estratti in modo intelligente da diversi scatti. Il soggetto della foto può sembrare essere stato catturato af / 16 mentre lo sfondo è ridotto al tipo di bokeh che si otterrebbe se fosse stato girato a f / 1.8.
Fotocamera Microsoft Kinect che rileva la posizione delle mani. Immagine fissa tratta dal video "Kinect Depth Change Threshold Test" di Charles Hutchins. CC BY 2.0Un altro tipo di fotografia codificata utilizza esposizioni multiple, di un soggetto a intervalli noti o con più telecamere, per confrontare o combinare le immagini e per interpolare nuove informazioni. Ad esempio, con un soggetto in movimento e una fotocamera statica, è possibile calcolare la velocità relativa del soggetto nelle immagini e rimuovere tutti i motion blur dalla foto risultante. Con un soggetto statico e una telecamera in movimento (o più telecamere sincronizzate), è possibile calcolare una scansione tridimensionale del soggetto. È così che la testa del tuo eroe sportivo preferito si trasforma in un corpo digitale nei videogiochi. La fotocamera Microsoft Kinect e Google Maps sono due progetti di fotografia in codice ad alto profilo.
Le tecniche di fotografia codificata hanno la buffa abitudine di piegare, se non di rompere, l'idea della cornice. Sin dall'inizio della fotografia, le fotografie sono state limitate dal decadimento del bordo del cerchio dell'immagine dell'obiettivo o da una cornice arbitraria. Questo non è il modo in cui i nostri occhi vedono, ma abbiamo imparato a capire le immagini fotografiche come immagini statiche e immutabili con confini rigidi. La fotografia codificata sta erodendo questa ipotesi.
Mentre epsilon e la fotografia codificata tentano di registrare la scena in un modo coerente con il modo in cui l'occhio umano vede le cose, la fotografia dell'essenza ignora l'idea di emulare la visione biologica. Invece, la fotografia dell'essenza gioca con diversi modi in cui l'informazione in una scena può essere compresa e rappresentata.
Il progetto Deep Dream di Google, che ha preso d'assalto Internet all'inizio di quest'anno, è un divertente esempio di fotografia d'essenza. Deep Dream funziona prendendo un'immagine di base e analizzandone le caratteristiche per i pattern di destinazione. Le sezioni dell'immagine che più corrispondono ai target vengono trasformate in modo da somigliarle più strettamente. L'immagine risultante viene eseguita più volte nel processo per ottenere la versione finale.
Una mia immagine che è stata eseguita attraverso il programma Deep Dream di Google. Sembra che abbia tentato di abbinare per qualche tipo di uccello.Alcuni processi di fotografia di essenze meno fantastici potrebbero essere già a portata di mano. Questo tipo di algoritmo alimenta le funzioni di riconoscimento facciale in Adobe Lightroom, su Facebook e in molti altri luoghi.
Nei prossimi anni ci saranno più e più profondi sviluppi nella fotografia d'essenza. I computer miglioreranno nel tirare e trasformare le informazioni dai colpi base. Più di ogni altra area della fotografia computazionale, la fotografia d'essenza ha il potenziale per trasformare il modo in cui parliamo di fotografie e per consentire nuovi modi di espressione artistica.
La fotografia computazionale è un campo in via di sviluppo che sfida la definizione stessa della fotografia. La fotografia digitale tradizionale si occupa di modi sempre più fedeli di ricreare la fotografia cinematografica con un sensore digitale invece di alogenuro d'argento. Il campo della fotografia computazionale sta creando nuovi modi di creare immagini che sono rappresentazioni leggibili a macchina della nostra esperienza. Questo è un grande cambiamento.
Le tecniche nella fotografia computazionale spaziano dalla semplice combinazione di più immagini che superano i limiti di una fotocamera allo sviluppo di nuovi metodi per l'analisi e l'elaborazione delle immagini. In questo articolo ho brevemente toccato alcune delle molte aree interessanti del campo. Mentre alcune di queste nuove tecnologie possono sembrare un po 'ingannevoli oggi, i progressi che presentano sono i primi veri cambiamenti nella fotografia da molto tempo, forse dall'invenzione della fotocamera da 35 mm portatile.
La fotografia digitale tradizionale scomparirà? Improbabile. Le persone amano ancora scattare fotografie con il film, persino! A loro piace l'esperienza creativa, tecnologica e sociale di fotografare con macchine fotografiche tradizionali. La fotografia digitale tradizionale non mostra alcun segno di rallentamento.
Tuttavia, queste nuove tecnologie hanno il potenziale per cambiare il modo in cui pensiamo alla fotografia alle sue fondamenta. Cambieranno il modo in cui definiamo telecamere e immagini. In qualche modo, la fotografia computazionale ha già. L'HDR, sebbene molto diffamato dai tradizionalisti, è popolare perché può catturare molte più informazioni di una semplice esposizione singola. La visualizzazione stradale di Google Maps ha modificato il modo in cui pensiamo e navigiamo nel mondo. Non sappiamo ancora fino a che punto la fotografia computazionale cambierà il mondo.
Una cosa, però, è chiara: la fotografia digitale è arrivata. Non sono solo i pixel al posto dell'argento; è qualcosa di completamente nuovo.