Un'introduzione alla fotografia computazionale

Nei moderni smartphone dotati di uno i più obiettivi fotografici

Se al posto dei classici processi ottici sostituiamo il calcolo digitale, ecco che abbiamo la fotografia computazionale.

Grazie alla velocità degli elaboratori, la fotografia computazionale ha potuto aggiornarsi e presentare soluzioni sempre più intriganti che la potessero avvicinare a quanto si fa normalmente con una buona fotocamera ed un buon obiettivo. Partiamo dall'effetto bokeh, lo sfumato classico che ci piace vedere su certe fotografie. Per ottenerlo, tradizionalmente, occorre un buon obiettivo, con 7 o ancor meglio 9 lamelle del diaframma, una generosa apertura, delle buone lenti... e un bel sensore - i sensori fotografici degli smartphone non possono certo arrivare alle dimensioni della full frame.

Fotocamere dell'iPhone 13 Le fotocamere dell'iPhone 13 Pro

Ecco che allora entra in gioco il calcolo matematico. Perché per simulare l'effetto bokeh dato da una buona lente e dalle altre variabili accennato una riga fa, lo smartphone agisce di potenza di calcolo: scatta una serie di foto controllando messa a fuoco, riconoscimento del volto, ombre ed esposizione, poi fonde tutte le foto cercando di differenziare il soggetto dallo sfondo. Ecco che abbiamo l'effetto bokeh, con il soggetto a fuoco e lo sfondo sfocato. Si tratta, come dicevo sopra, di una simulazione, perché il bokeh non è dato dalla bontà della lente, ma dal calcolo matematico sui pixel. Si potrebbe ottenere un effetto simile su una foto interamente a fuoco utilizzando la post produzione. E per essere precisi lo smartphone non scatta una serie di foto, ma registra diversi parametri (esposizione, focus, posizione) e li assembla in un'unica immagine - tutto questo viene chiamato epsylon photography.

Facciamo un esempio di fotografia computazionale nelle fotocamera reflex (ad esempio una Nikon D850) o mirrorless? L'HDR in camera. Qui la fotocamera scatta diverse fotografie, e le assembla grazie al processore. Il risultato finale è quello di un HDR già pronto - non abbiamo bisogno cioè di assemblare queste foto in post-produzione. Ma il processore di una fotocamera mirrorless, reflex o compatta che sia, non è veloce e potente quanto il processore di uno smartphone.

Per capire meglio la differenza tra i due approcci, provate a mettere nel vostro cellulare l'opzione Live Photo. In pratica, quando vedrete le vostre foto, avrete la sorpresa di osservare come il vostro smartphone abbia registrato anche gli attimi prima dello scatto. Quindi prima di vedere la foto statica, vedrete la foto con mezzo secondo di animazione. Ebbene, in questo brevissimo tempo precedente allo scatto, il vostro smartphone cattura 5-10 foto dal buffer di memoria, analizza i diversi parametri, e vi restituisce un'unica foto - che sia un HDR, una foto notturna, un ritratto, ecc.

Fotografia computazionale Foto scattata con la modalità Night Mode dell'iPhone 13 Pro

Un altro esempio della medesima tecnica riguarda la macro fotografia (nella modalità Focus Stacking, dove il problema della poca profondità di campo ci costringe - per avere la maggior parte della scena a fuoco - di fare almeno tre fotografie dello stesso soggetto con messa a fuoco al centro, davanti e dietro. Il risultato sarà una foto con tutti e tre i piani a fuoco. Questa tecnica che viene chiamata "focus stacking" (che potrebbe essere tradotta in italiano con accatastamento o impilamento della messa a fuoco) ed è la base concettuale del funzionamento degli smartphone. Del resto questo genere di fotografia computazionale era presente già nel 2013 nel Nokia Lumia 1020 con il nome di "Refocus App" e presente sulle fotocamere Quattro Terzi della Panasonic Lumix nel 2016 (nei modelli FZ2000, GX80, G80 e LX10).

Lo smartphone, a seconda del tipo di foto che state facendo, utilizzerà specifiche modalità di scatto (Night Mode, HDR, Illuminazione ritratto con diversi effetti, stabilizzazione automatica dell'immagine, ecc.) e impilerà una serie di foto per ottenere come risultato quella migliore.

Nella foto computazionale il fotografo non ha da fare altro che scegliere la modalità preferita... e scattare. Tutto il resto lo fa il microprocessore.

Fotografia computazionale Foto scattata con la modalità Ultra Wide Macro dell'iPhone 13 Pro