Fotografia computazionale per creare meraviglie

Ci sarà sempre chi guarderà solo la tecnica e si chiederà “come”, mentre altri di natura più curiosa si chiederanno “perché” (Man Ray)

Chi non ha utilizzato lo smartphone per catturare immagini o realizzare video durante le ferie? In pochi immaginiamo. Tutti gli altri probabilmente si sono accorti che – nell’epoca delle realtà aumentata e virtuale, dei big data e dell’intelligenza artificiale – gli smartphone si affidano ora anche alla fotografia computazionale. Si tratta di algoritmi e software sofisticati di elaborazione grafica che vengono impiegati anche in dispositivi più economici.

Non rappresentano aiuti alla composizione o all’espressività dell’immagine, ma – dal punto di vista della qualità e della funzionalità – permettono prestazioni che, nei modelli di punta, non sono così lontane da quelle delle macchine professionali di fascia media.
Gli smartphone
Smartphone con quattro obiettivi sono sempre più presenti sul mercato. Anche con ottiche stabilizzate e risoluzioni di 108 Megapixel. La praticità di averli sempre con sé, e di non dover ricorrere ad una pesante fotocamera reflex, si abbina sempre più ad una evoluzione tecnologica continua che li rende ancor più preziosi. Sempre più preziosi grazie anche al complesso sistema di fotografia computazionale in grado di spingere al massimo le prestazioni dell’hardware. Ovviamente in aggiunta alle altre funzioni come autofocus laser, zoom ottico 10x, processori velocissimi a 3,23 GHz e così via.
Lenti: aberrazioni e distorsioni
Nelle fotocamere degli smartphone vengono anche integrate tecniche per l’eliminazione o riduzione delle aberrazioni cromatiche e delle distorsioni, prima presenti solo sulle macchine professionali.
Le lenti di buona qualità di una fotocamera oltre a dover essere resistenti ai graffi, non devono infatti presentare problemi come l’aberrazione cromatica (per semplificare, aloni colorati intorno ai soggetti delle immagini) o di flare (riflessi a forma di poligoni o linee che sono presenti soprattutto all’interno delle foto scattate in controluce). Inoltre devono compensare la distorsione prodotta dall’ottica cheè l’incapacità delle lenti di riprodurre correttamente la geometria della figura ripresa, per esempio una linea retta può apparire leggermente curva (difetto dovuto alla forma sferica della lente).
Computational photography
Come appena visto la fotocamera dello smartphone non è una semplice macchina fotografica che esegue solo la cattura ottica. Quest’ultima è solo il punto di partenza. Successivamente si attivano una serie di calcoli e processi molto elaborati e velocissimi, in grado di “manipolare digitalmente” l’immagine in modo sofisticato, utilizzando una specie di “computer integrato”. Tutto ciò, in sintesi, è la fotografia computazionale o computational photography.
La scomposizione e la ricomposizione dei colori
Il sensore di immagine del telefono è composto da piccolissimi elementi: i fotodiodi, che trasformano un elemento dell’immagine ottica in un segnale elettrico. Delle microlenti possono essere impiegate anteriormente per aumentare la quantità di luce catturata. I fotodiodi sono coperti da uno schema di filtri di luce (ce ne sono di diverse tipologie come il filtro Bayer nelle figure che seguono) per i colori rosso, verde e blu, i cosiddetti colori primari. Per effetto dello schema di filtri, un singolo elemento di cattura dell’immagine del sensore della fotocamera “registra” la luce in un solo colore.

L’immagine così scomposta nelle tre componenti è ora digitalmente modificabile. Dopo vari processi – alcuni ne sono menzionati in seguito – l’immagine finale si ottiene ricomponendo ogni singolo punto dell’immagine, nei tre colori primari, su ogni singolo punto dello schermo.

I colori primari
I tre colori si definiscono primari perché insieme producono il bianco (si tratta in questo caso della cosiddetta sintesi additiva). Tutte le altre varie combinazioni degli stessi (per esempio i soli rosso e verde danno vita al giallo) e delle loro intensità, generano l’insieme degli altri colori. L’assenza dei tre colori costituisce ovviamente il nero.

Gli algoritmi
Un algoritmo, in generale, è una successione di istruzioni che permette di raggiungere un obiettivo prestabilito: un preciso risultato a partire da un certo numero di dati iniziali.
Nella fotocamera dello smartphone dopo la cattura dell’immagine, un algoritmo produce la demosaicizzazione: ci sono infatti tasselli rossi, verdi e blu che compongono una specie di “mosaico” e l’algoritmo deve restituirci tutti i dettagli e i colori reali della foto in una singola immagine, per esempio senza sbavature o sovrapposizioni.
In un secondo passaggio si utilizza un algoritmo di nitidezza che accentua i bordi e fonde le transizioni da un colore all’altro.
Successivamente, altri algoritmi aiutano un perfetto bilanciamento del bianco (uncorretto bilanciamento di intensità dei tre colori primari per una riproduzione fedele dei colori reali in condizione di illuminazione diversa), oltre alla correzione del contrasto. E così via. Per esempio, la fotografia nella modalità “ritratto” modifica il rilevamento dei bordi e il processo di nitidezza. Ma la fotografia computazionale può anche identificare direttamente, senza la selezione manuale delle scene, cosa c’è nello scatto: per esempio se si riprende il tramonto automaticamente l’algoritmo modificherà il “bilanciamento del bianco” per riprodurre una immagine con colori caldi.
Le foto eccellenti nella modalità “notturna”: merito della fotografia computazionale La maggiore potenza di elaborazione degli smartphone di ultima generazione ha notevolmente ampliato la potenza della fotografia computazionale. Come nella fotografia multi-frame: tecnica di fotografia computazionale che prevede di scattare, per ogni singola foto, diverse foto in rapida successione – a diversi livelli di parametri, come ad esempio l’esposizione – per poi essere velocemente analizzate, segmentate, elaborate e valutate fino a creare una sola risultante immagine finale. È una tecnica utilizzata dagli smartphone soprattutto nella modalità “notturna”.

Si impiegano algoritmi “pesanti” di calcolo che non solo elaborano diverse esposizioni lunghe in pochi secondi, ma che abilmente ne compensano l’inevitabile movimento dovuto allo scatto a mano libera, cioè senza cavalletto. E sempre più, e ancora una volta, si rende necessaria la potenza di calcolo per elaborare velocemente la raccolta di tanti dati per riorganizzarli e generare una riproduzione brillante e nitida senza l’effetto “mosso”, il quale spesso viene confuso con la sfocatura.

Dunque le fotocamere degli smartphone non catturano solo fotoni… ma “calcolano” immagini. A noi la creatività.
Vincenzo Basili
Immagini elaborate e originariamente tratte da:
Basili V., L’immagine in movimento, Bologna, Pendragon, 2012 e Fotosensori a stato solido, ChimicaPratica, 2018, https://chimicapratica.altervista.org/