Articoli

La fotografia computazionale

Se al posto dei classici processi ottici sostituiamo il calcolo digitale, ecco che abbiamo la fotografia computazionale

settembre 2023

Grazie alla velocità degli elaboratori, la fotografia computazionale ha potuto aggiornarsi e presentare soluzioni sempre più intriganti che la potessero avvicinare a quanto si fa normalmente con una buona fotocamera ed un buon obiettivo. Partiamo dall'effetto bokeh, lo sfumato classico che ci piace vedere su certe fotografie. Per ottenerlo, tradizionalmente, occorre un buon obiettivo, con 7 o ancor meglio 9 lamelle del diaframma, una generosa apertura, delle buone lenti... e un bel sensore - i sensori fotografici degli smartphone non possono certo arrivare alle dimensioni della full frame.

Ecco che allora entra in gioco il calcolo matematico. Perché per simulare l'effetto bokeh dato da una buona lente e dalle altre variabili accennato una riga fa, lo smartphone agisce di potenza di calcolo: scatta una serie di foto controllando messa a fuoco, riconoscimento del volto, ombre ed esposizione, poi fonde tutte le foto cercando di differenziare il soggetto dallo sfondo. Ecco che abbiamo l'effetto bokeh, con il soggetto a fuoco e lo sfondo sfocato.

Quanto il software aiuta la fotocamera

Si tratta, come dicevo sopra, di una simulazione, perché il bokeh non è dato dalla bontà della lente, ma dal calcolo matematico sui pixel. Si potrebbe ottenere un effetto simile su una foto interamente a fuoco utilizzando la post produzione. E per essere precisi lo smartphone non scatta una serie di foto, ma registra diversi parametri (esposizione, focus, posizione) e li assembla in un'unica immagine - tutto questo viene chiamato epsylon photography.

Fotografia computazionale

Facciamo un esempio di fotografia computazionale nelle fotocamera reflex (ad esempio una Nikon D850) o mirrorless? L'HDR in camera. Qui la fotocamera scatta diverse fotografie, e le assembla grazie al processore. Il risultato finale è quello di un HDR già pronto - non abbiamo bisogno cioè di assemblare queste foto in post-produzione. Ma il processore di una fotocamera mirrorless, reflex o compatta che sia, non è veloce e potente quanto il processore di uno smartphone.

Per capire meglio la differenza tra i due approcci, provate a mettere nel vostro cellulare l'opzione Live Photo. In pratica, quando vedrete le vostre foto, avrete la sorpresa di osservare come il vostro smartphone abbia registrato anche gli attimi prima dello scatto. Quindi prima di vedere la foto statica, vedrete la foto con mezzo secondo di animazione. Ebbene, in questo brevissimo tempo precedente allo scatto, il vostro smartphone cattura 5-10 foto dal buffer di memoria, analizza i diversi parametri, e vi restituisce un'unica foto - che sia un HDR, una foto notturna, un ritratto, ecc.

Fotografia computazionale

Un altro esempio della medesima tecnica riguarda la macro fotografia (nella modalità Focus Stacking), dove il problema della poca profondità di campo ci costringe - per avere la maggior parte della scena a fuoco - a scattare almeno tre fotografie dello stesso soggetto con messa a fuoco al centro, davanti e dietro. Il risultato sarà una foto con tutti e tre i piani a fuoco. Questa tecnica che viene chiamata "focus stacking" (che potrebbe essere tradotta in italiano con accatastamento o impilamento della messa a fuoco) ed è la base concettuale del funzionamento degli smartphone. Del resto questo genere di fotografia computazionale era presente già nel 2013 nel Nokia Lumia 1020 con il nome di "Refocus App" e presente sulle fotocamere Quattro Terzi della Panasonic Lumix nel 2016 (nei modelli FZ2000, GX80, G80 e LX10).

Fotografia computazionale

Nell'immagine qui sopra una serie di foto impilate e processate con diversi criteri vengono in seguito combinate assieme per ottenere l'immagine finale.

Lo smartphone, a seconda del tipo di foto che state facendo, utilizzerà specifiche modalità di scatto (Night Mode, HDR, Illuminazione ritratto con diversi effetti, stabilizzazione automatica dell'immagine, ecc.) e impilerà una serie di foto per ottenere come risultato quella migliore.

Nella foto computazionale il fotografo non ha da fare altro che scegliere la modalità preferita... e scattare. Tutto il resto lo fa il microprocessore.
Fotografia computazionale

Foto scattata con la modalità Ultra Wide Macro dell'iPhone 13 Pro

Settori di sviluppo della fotografia computazionale

Fusione di immagini: la fotografia computazionale può unire più immagini in una singola foto, ad esempio per migliorare la qualità dell'immagine in condizioni di scarsa illuminazione (HDR) o per ottenere un'ampia profondità di campo (fotografia di campo esteso).

Ritocco automatico: gli algoritmi possono essere utilizzati per ritoccare automaticamente le immagini, migliorando il bilanciamento del colore, la nitidezza e la correzione di difetti come l'effetto occhi rossi.

Riconoscimento del soggetto: la fotografia computazionale può riconoscere automaticamente il soggetto inquadrato, come persone o animali, per applicare le impostazioni ottimali e l'autofocus.

Effetti speciali: i filtri e gli effetti speciali possono essere applicati in tempo reale o dopo lo scatto per creare effetti artistici o stilistici.

Fotografia notturna e a bassa luminosità: l’elaborazione delle immagini può migliorare notevolmente la qualità delle foto scattate in condizioni di scarsa illuminazione senza il bisogno di un flash.

Fotografia computazionale per smartphone: molti smartphone moderni utilizzano algoritmi di fotografia computazionale per migliorare la qualità delle immagini scattate con le fotocamere integrate.

Fotografia ad alta risoluzione: alcuni algoritmi consentono di combinare più immagini in una foto ad alta risoluzione, consentendo di ottenere dettagli più nitidi e dettagliati.

Riduzione del rumore: gli algoritmi di fusione di immagini possono unire diverse foto scattate alla stessa sensibilità ISO per ridurre il rumore nelle immagini finali.

Fotografia panoramica e a 360 gradi: gli algoritmi possono unire automaticamente diverse immagini per creare panorami o foto a 360 gradi.

Fotografia a profondità di campo: la fotografia computazionale può simulare effetti di sfocatura dello sfondo (bokeh) o modificare la profondità di campo in modo post-produzione.

Fotografia a lunga esposizione simulata: gli algoritmi possono simulare l'effetto di lunga esposizione per catturare il movimento dell'acqua, delle luci delle città o altre scene dinamiche.

HDR (High Dynamic Range): questo algoritmo combina diverse esposizioni di una stessa scena per catturare un'ampia gamma dinamica di luminosità. Il risultato è un'immagine con dettagli visibili sia nelle aree luminose che in quelle scure.

Fotografia con iPhone 15

Foto scattata con la modalità HDR dell'iPhone 15

Fotografia con iPhone 15

Foto scattata con la modalità Ritratto dell'iPhone 15. Questo algoritmo crea l'effetto sfocatura dello sfondo (bokeh) in post-produzione, consentendo di ottenere un effetto di sfocatura artistica

Fotografia con iPhone 15

Foto scattata con la modalità Ritratto dell'iPhone 15


TecnicaFotografica

Tecniche e consigli per la fotografia e la post produzione.
Dalla scelta della fotocamera, alla scelta degli obiettivi e degli accessori, fino ai diversi generi fotografici, alle regole della composizione e alle più recenti tecniche digitali.

Capitoli principali