1

Il Flat Frame

Negli articoli “Il bias frame” ed “Il dark frame” abbiamo visto come correggere il valore di luminosità assunto da ciascun pixel del nostro sensore a semiconduttore al fine di ottenere una risposta omogenea all’assenza di luce. In questo modo, in assenza di luce, il nostro elemento fotosensibile assumerà livello di luminosità pari a 0 ADU. Ma cosa succede ora se cominciamo a mandare dei fotoni sul sensore (si veda “Un Universo di fotoni”)? Quello che ci aspettiamo, una volta corretta la nostra immagine con il master dark ed il master bias, è che:

Livello di Luminosità = valore teorico + rumore elettronico casuale

Questo sarebbe vero se tutti i pixel rispondessero allo stesso modo alla radiazione luminosa. Purtroppo la situazione è più complicata e ogni pixel produce un numero di elettroni diverso dall’altro quando inondato da una sorgente luminosa uniforme. Perché?

I motivi possono essere molti. Prima di tutto ciascun elemento fotosensibile, a causa principalmente delle piccole dimensioni e quindi della difficoltà tecnologica nella realizzazione dello stesso, è diverso l’uno dall’altro. Così se inondiamo due pixel del nostro sensore a semiconduttore con una sorgente uniforme, questi forniranno due livelli di luminosità leggermente (si spera) diversi.

Inoltre non tutte le regioni del sensore sono sensibili allo stesso modo per motivi di costruzione ed infine la luce che ci giunge da una sorgente uniforme deve passare da un sistema ottico che per definizione non ha un campo perfettamente piano, ovvero ai bordi del campo si ha un maggiore assorbimento della radiazione luminosa (vignettatura). Se mettiamo tutti in formule, ciascun pixel avrà quindi livello di luminosità dato da:

Livello di Luminosità = (valore teorico x flat) + rumore elettronico casuale

dove con flat abbiamo indicato un coefficiente di proporzionalità diverso da pixel a pixel. Come ottenere questo coefficiente? La risposta è quantomai semplice. Basta inondare il sensore con una sorgente di luce uniforme. Questa dovrebbe generare un livello di luminosità uguale in ogni elemento fotosensibile. Ovviamente per quanto detto prima questo non succederà ed il valore di luminosità di ciascun pixel sarà pari a quello teorico per il flat. Ecco fatto quindi! Riprendere un’immagine di una sorgente luminosa coincide con il determinare per ciascun pixel il valore del coefficiente flat. Tale scatto è definito flat frame.

Sorgenti luminose uniformi ne esistono varie in commercio. Alcuni strumenti note come flat field generator o flat box sono in grado di fornire sorgenti di luce uniformi e con uno spettro praticamente bianco. Questo permette di avere in una sola esposizione un buon flat in tutti i canali RGB (vedi Costruire un’immagine a colori), fatto importante per sensori a colori come i CMOS delle DSLR. Altre sorgenti di luce approssimativamente uniformi sono i monitor dei computer, il cielo diurno, una maglietta bianca sull’ottica illuminata con una torcia, un muro o un foglio bianco. Lasciamo a voi la fantasia di trovare delle buone sorgenti di luce uniforme. In questi casi bisogna prestare attenzione a non riprendere le frequenze delle lampade (appaiono come bande chiare e scure nello scatto) o campi non perfettamente uniformi.

Trovata la sorgente di luce uniforme è necessario scattare con gli stessi ISO (bin) della ripresa dell’oggetto astronomico e soprattutto con la stessa messa a fuoco. Infatti un pixel potrebbe non assumere il valore di luminosità di un altro a seguito della presenza di polvere o macchie sul sensore. Tali macchie cambiano forma e intensità di assorbimento della luce al variare della messa a fuoco. Questo spiega il perché la messa a fuoco del flat frame deve essere la stessa dello scatto di ripresa dell’oggetto astronomico.

Cosa dire invece del tempo di esposizione? Questo va determinato in modo che il picco di luminosità del flat frame, che rappresenta il valore teorico in ADU fornito dalla sorgente di luce uniforme, risulti al centro dell’istogramma. Per fare questo è possibile utilizzare l’utility INFO presente sulle DSLR al fine di visualizzare sullo schermo della fotocamera l’istogramma relativo allo scatto oppure utilizzando software di elaborazioni delle immagini. Se usate IRIS per elaborare immagini CCD ricordatevi di sottoesporre il flat data la compressione in bit necessaria per elaborare l’immagine. Anche il flat frame ovviamente non è privo di errori ed il suo livello di luminosità è dato da:

Livello di Luminosità = valore teorico + rumore elettronico non casuale + offset + rumore termico + rumore elettronico casuale

 I bias frame utilizzati per la correzione del dark e della ripresa dell’oggetto astronomico possono essere utilizzati anche per correggere il flat ovviando così al rumore elettronico non casuale ed all’offset. Per ovviare al rumore termico è necessario riprendere i dark frame ma utilizzando come tempo di ripresa il tempo di esposizione del flat e non quello di ripresa dell’oggetto astronomico. Il rumore elettronico casuale invece può essere ridotto sommando (mediando) più flat frame. Una volta corretto il flat frame e mediati i flat frame corretti (master flat frame) abbiamo:

Livello di Luminosità [mediato su N scatti] = valore teorico = flat

ottenendo così il coefficiente flat per ciascun elemento fotosensibile del nostro sensore a semiconduttore. I master flat presentano la stessa struttura sia nel caso di CCD che CMOS. Riportiamo pertanto un esempio di flat frame ripreso con una Canon EOS 500D modificata Baader (vedi La “modifica Baader” per DSLR) ed il relativo istogramma RGB. Come si vede dalle immagini, la sorgente luminosa generata dal flat field generator utilizzato non è perfettamente bianca. Ricordiamo infine che seppur in minima parte, la temperatura e l’umidità possono modificare le condizioni di ripresa dei flat frame. Pertanto consigliamo di riprendere tali scatti direttamente sul campo al termine della sessione astrofotografica.

Figura 1: esempio di flat frame acquisito con una DSLR modello Canon EOS 400D modificata Baader.

Figura 2: istogramma per i canali RGB relativo al flat frame riportato in Figura 1.

 




Il Dark Frame

Nell’articolo “Il Bias Frame” abbiamo visto come un sensore a semiconduttore (CCD e CMOS) risponde al buio, ovvero alla totale assenza di fotoni. Abbiamo così imparato che in questo caso, il livello di luminosità di un pixel è dato dai seguenti contributi:

Livello di luminosità = valore teorico + offset + rumore termico + rumore elettronico casuale + rumore elettronico non casuale

Il Bias Frame è definito come “scatto veloce” con tempo di esposizione paragonabile a zero e pertanto con rumore termico nullo. Cosa succede se ora invece di effettuare uno “scatto veloce” al buio ne effettuiamo uno lento? In questo caso gli elettroni di origine termica, emessi in modo continuo dall’elemento a semiconduttore, andrebbero a sommarsi durante il tempo di esposizione producendo un rumore in un certo senso “proporzionale” al tempo di esposizione. Dal punto di vista teorico questo andrà a costituire una coda ad alti valori di livelli di luminosità. Per sensori di tipo CCD il gioco finisce qui, mentre la faccenda si complica nel caso di CMOS dove la temperatura del sensore non è generalmente controllata (se non nei casi delle DSLR CentralDS). Infatti, con l’aumentare del tempo di esposizione, e posa dopo posa, la temperatura del sensore CMOS varia così come l’emissione di elettroni termici in ciascun elemento fotosensibile. Il risultato complessivo è che ciascuna posa di buio risulta lievemente diversa. A questa variazione della temperatura dell’elemento a semiconduttore bisogna aggiungere anche la possibilità che la temperatura ambiente cambi durante la notte.

Indichiamo quindi con il termine rumore termico l’aumento del livello di luminosità associato all’emissione di elettroni termici, sia questa costante nel caso di sensori a temperatura controllata o variabile nel caso di DSLR tradizionali o raffreddate esternamente.

IL DARK FRAME

Il discorso fatto per in precedenza è riferito ad un solo elemento a semiconduttore: può essere esteso a tutta la matrice di fotoelementi che costituiscono il sensore? In linea generale si, ma dato che l’emissione termica (così come il bias) è diversa per ogni elemento a semiconduttore, il valore di luminosità di buio sarà differente da pixel a pixel. Data un’immagine di buio è quindi necessario sapere quale è il valore dell’offset, l’eventuale rumore elettronico non casuale ed il rumore termico di ciascun pixel, in modo che se sottratto all’immagine “lenta di buio” si otterrà una matrice di pixel con livello di luminosità pari a 0 ADU. Solo in questo modo se durante la ripresa di un oggetto celeste non arriveranno fotoni sull’elemento fotosensibile corrisponderà ad una luminosità pari a 0 ADU.

Prendiamo pertanto la nostra macchina fotografica digitale (DSLR) o la nostra camera CCD astronomica e poniamo il tappo di fronte all’ottica al fine di non far arrivare fotoni sul sensore ricreando pertanto la condizione di buio. Settiamo il tempo di esposizione della nostra DSLR o camera CCD astronomica pari a quello che verrà utilizzato per la ripresa dell’oggetto celeste (vedi il post “Il Light Frame”). Ricordiamo che per le reflex dobbiamo impostare anche gli stessi ISO utilizzati per riprendere la nostra immagine astronomica al fine di porsi nelle stesse condizioni di scatto (la catena elettronica funziona in modo diverso a seconda degli ISO impostati). Per lo stesso motivo anche il binning della nostra camera CCD non dovrà essere modificato. Con questi settaggi si riprendano un certo numero di immagini noti come dark frame.

Per calibrare un’immagine astronomica in modo che un pixel assuma un livello di luminosità pari a 0 ADU è necessario sottrarre all’immagine stessa l’offset, i rumori elettronici non casuali e il rumore termico. Questo può essere effettuato facilmente dato che tutte queste informazioni sono contenute nel dark frame. In particolare definito master dark frame la media dei singoli dark frame, il livello di luminosità di ciascun pixel dell’immagine astronomica calibrata sarà:

Livello di Luminosità = valore assunto dal pixel – master dark frame

Ecco quindi che se effettuiamo una ripresa della galassia di Andromeda e abbiamo un pixel che non viene raggiunto da nessun fotone (ad esempio un pixel del fondo cielo), allora questo assumerà un livello di luminosità pari, per quanto detto prima:

Livello di luminosità = valore teorico + rumore elettronico casuale + master dark

Ecco quindi che se all’immagine della galassia di Andromeda sottraiamo il master dark frame, otteniamo che il pixel privo di fotoni avrà un livello di luminosità pari a:

Livello di luminosità = valore teorico + rumore elettronico casuale

Dove il rumore elettronico casuale diviene prossimo a zero mediando un certo numero N di immagini riprese nelle stesse condizioni di scatto ovvero

Livello di luminosità [mediato su N scatti] = valore teorico

Scattare un dark frame però richiede molto tempo ed ottenere una statistica molto elevata può risultare complicata. Infatti ricordiamo che i dark frame vanno ripresi nelle stesse condizioni di scatto dell’immagine astronomica. Durante la nostra sessione astrofotografica dobbiamo quindi, in caso di fotocamere digitale prive di controllo della temperatura del sensore, prevedere di lasciare del tempo per acquisire un certo numero minimo di dark frame. Purtroppo nel tempo impiegato per riprendere un dark frame otteniamo più di 100 bias frame. Quindi malgrado non contenga informazioni sul rumore termico, il (master) bias frame è in grado di stimare con precisione statistica superiore il valore dell’offset e di eventuali rumori elettronici non casuali presenti nella ripresa rispetto al (master) dark frame. Diviene pertanto conveniente separare i due contributi e quindi creare un master dark che contiene il solo rumore termico medio ed un master bias che contiene informazioni sull’offset e sul rumore elettronico non casuale. Quindi ricordando che nel dark, il valore di luminosità di ciascun pixel è pari a

Livello di luminosità = master bias + rumore termico + rumore elettronico casuale = dark

Allora possiamo identificare la sola componente di rumore termico medio come:

rumore termico + rumore elettronico casuale = dark – master bias

e quindi successivamente mediando su un numero N  di scatti è possibile ridurre a zero il rumore elettronico casuale ottenendo il rumore termico medio.

Riassumendo, per calibrare correttamente le nostre immagini astronomiche sfruttando al meglio le informazioni che possiamo ricavare dal master bias frame, descritto nel post “Il Bias Frame”, e dai dark frame dobbiamo calcolare il rumore termico medio che con abuso di notazione viene anche chiamato master dark frame (creando ovviamente confusione):

rumore termico medio = MEDIA (dark frame – master bias frame) = master dark frame

e questo contiene tutte le informazioni sull’emissione termica di elettroni da parte di ciascun fotoelemento del sensore a semiconduttore. Il master bias frame conterrà invece tutte le informazioni relative all’offset e ai rumori elettronici di natura non casuale. Ecco quindi che in un’immagine di buio, ciascun pixel assumerà il seguente livello di luminosità:

Livello di luminosità [mediato su N scatti] = master bias frame + master dark frame

PIXEL CALDI E PIXEL FREDDI

Sino ad ora abbiamo parlato del rumore intrinseco che ciascun elemento a semiconduttore possiede. Esiste però la possibilità che alcuni pixel funzionino in maniera del tutto anomala rispetto agli altri. In particolare la maggior parte di questi posseggono un comportamento quantizzato, ovvero o rimangono sempre ad un livello di saturazione o rimangono completamente spenti. Nel primo caso si parla di pixel caldi mentre nel secondo caso di pixel freddi. Pixel caldi e freddi vanno “sottratti” da ciascuna immagine astronomica dato che introducono un segnale “fittizio”. In questo caso più che sottrazione si dovrebbe parlare di sostituzione. Infatti il livello di luminosità dei pixel caldi e freddi viene sostituito con il valore 0 ADU che è quello che dovrebbe assumere, dopo la calibrazione, un pixel che non riceve radiazione luminosa. Dato che i pixel freddi hanno livello di luminosità pari a 0 ADU, è praticamente inutile una loro identificazione, visto che la sostituzione non avrebbe nessun effetto. Ecco pertanto che la maggior parte dei software astronomici specializzati nell’elaborazione delle immagini prevedono una funzione di ricerca e quindi sostituzione, dei soli pixel caldi.

Esistono ora dei pixel che funzionano in modo anomalo ma non sono pixel caldi e freddi? Purtroppo si. Generalmente non sono molti e vengono identificati (e quindi eliminati) dai software astronomici come pixel caldi. Questi pixel noti come “pixel riscaldati” (warm pixel) sono pixel che generano un rumore termico con un tasso superiore rispetto a quelli tradizionali portandoli, in tempi di esposizione sufficientemente lunghi o a seguito di un aumento della temperatura del sensore, a saturazione.

Uno studio dei pixel riscaldati è progetto di ricerca per ASTROtrezzi.it. Chi fosse interessato è pregato di inviare un e-mail all’indirizzo ricerca@astrotrezzi.it   

Riportiamo di seguito lo studio del dark frame per una ATIK 314L+ B/W (sensore CCD) e per una Canon EOS 40D (sensore CMOS).

ATIK 314L+ B/W

Cominciamo con il dire che la CCD ATIK 314L+ B/W è una camera astronomica raffreddata da cella di Peltier a temperatura controllata. Questo significa che durante gli scatti la temperatura del sensore viene mantenuta costante da un sistema di controllo elettronico. Questo fatto è dimostrato riprendendo un certo numero di dark frame e confrontati. Il confronto è illustrato in Figura 1 e mostra come la distribuzione dei livelli di luminosità non vari da una posa ad un’altra.

Figura 1: Confronto tra quattro dark frame ripresi in successione uno dopo l’altro. Come si vede le distribuzioni sono identiche indice di una temperatura costante del sensore durante la ripresa

Data l’ampia dinamica e la ridotta corrente di lettura, una CCD è maggiormente sensibile alla corrente di buio o meglio al rumore termico. In particolare dato che la quantità di ADU indotti dal rumore termico aumenta all’aumentare del tempi di esposizione, quello che succede è una traslazione netta dell’offset all’aumentare del tempo di esposizione. Ecco quindi che in maniera più marcata rispetto ai sensori CMOS abbiamo uno spostamento dell’offset a causa dell’aumento del rumore termico integrato. Questo è visibile in Figura 2 dove si vede la differenza tra il bias frame ed un dark frame da 1000 secondi (quindi un periodo di integrazione, tempo di esposizione, un milione di volte più lungo).

Figura 2: Confronto tra bias e dark frame. Lo spostamento dell’offset è dovuto sostanzialmente al tempo di integrazione del rumore termico.

La sensibilità dei CCD al rumore termico o se vogliamo l’aumento della dinamica di questi tipi di sensori rispetto ai CMOS si riflette in una “non ottimale” sottrazione del master bias frame dai dark. In particolare dato che l’offset del bias è diverso da quello del dark, La sottrazione produce una curva che non risulta centrata a zero ADU come dovrebbe ma ha un massimo leggermente spostato (vedi Figura 8). In ogni caso, un eventuale stretching dell’istogramma permetterebbe di sistemare il tutto ottenendo quanto atteso teoricamente. Un esempio di rumore termico (master dark frame) effettuata su una singola posa è visibile in Figura 3.

Figura 3: esempio di master dark frame acquisito con una CCD astronomica modello ATIK 314L+ B/W. Si noti la distribuzione uniforme del segnale termico.

CANON EOS 40D

In questo post ci concentreremo principalmente sui sensori CMOS, dato che escludendo i modelli CentralDS, in tutti gli altri casi risultano privi di sistemi di controllo della temperatura (tra cui la Canon EOS 40D in esame). Questo rende complessa la descrizione del dark frame nel caso di reflex digitali. In primo luogo un rivelatore a semiconduttore, se non raffreddato, varia la sua temperatura durante la fase di funzionamento. Dato che gli scatti, siano essi immagini astronomiche o dark frame, avvengono in successione, quello che succede è che la temperatura dell’elemento fotosensibile va via via aumentando così come il rumore termico da essa indotto. L’effetto globale è quello della formazioni di code ad alti (e bassi) valori di ADU come visibile in Figura 4. Malgrado questo, gran parte dei pixel si comportano correttamente mantenendo costante la quantità di rumore termico ed aumentandone soltanto le fluttuazioni statistiche. Questo è visibile in Figura 5.

Figura 4: variazione della distribuzione dei livelli di luminosità del dark frame in funzione del numero di scatti successivi ossia della temperatura del sensore

Figura 5: malgrado l’aumento della larghezza dell’offset, la maggior parte dei singoli pixel si comportano correttamente mantenendo costante il suo valore.

Se però ora calcoliamo la quantità di ADU complessivi dell’immagine e la dividiamo per il numero di pixel del sensore, otteniamo quello che potremmo chiamare livello di luminosità media per pixel. In altre parole quello che andiamo a misurare è la quantità di ADU che mediamente possiede ciascun pixel, ovvero un’approssimazione dell’offset. Se il rumore indotto dai singoli fotoelementi fosse costante, allora il livello di luminosità medio per pixel non dovrebbe variare da scatto a scatto. L’aumento di temperatura invece provoca un aumento del rumore termico che si traduce quindi in un aumento del livello di luminosità medio per pixel. L’andamento per una successione di 8 dark frame da 7 minuti a 800 ISO, ripresi in successione uno dopo l’altro, è illustrato in figura 6. Come si vede, dopo un gradiente iniziale dovuto al riscaldamento “veloce” del sensore, successivamente l’aumento del livello di luminosità media in funzione della temperatura è lineare (con coefficiente di correlazione pari a 0.97) pari a 2.6821 ADU/°C.

Figura 6: aumento del livello di luminosità media per pixel in funzione della temperatura del sensore per dark frame da 7 minuti a 800 ISO acquisiti in rapida successione.

La figura 6 dovrebbe farci riflettere sul fatto che quando riprendiamo delle immagini astronomiche con una reflex digitale, il rumore termico ad essa associato non è costante e varia da posa a posa. Cosa possiamo fare? Purtroppo poco. L’unica possibilità è lasciare un periodo di tempo tra una posa e la seguente in modo da permettere al sensore di raffreddarsi. Ricordiamo comunque che il livello di luminosità media per pixel è variata in 8 dark da 7 minuti di “soli” 43 ADU su un valore medio inziale pari a 1044 ADU. L’errore che quindi commettiamo nel non considerare il riscaldamento del sensore a seguito del suo funzionamento è esiguo e mediamente inferiore al 5%. Gran parte del “rumore termico” è poi contenuto in quelli che abbiamo chiamati pixel caldi e riscaldati. Una sottrazione e correzione di questi pixel porterebbe ad un significativo miglioramento della qualità del master dark frame.

Un altro effetto è la dipendenza del rumore termico dal tempo di esposizione. Infatti all’aumentare del tempo di posta aumenta la quantità di rumore termico integrato. Il processo è lineare per tempi di esposizione sufficientemente lunghi come mostrato in figura 7. In particolare in grande è riportata la variazione del livello di luminosità medio per pixel in funzione del tempo di esposizione, mentre nel riquadro piccolo il livello di luminosità medio per pixel sempre in funzione del tempo di esposizione.

A 800 ISO, abbiamo dopo 150 secondi di posa, un incremento di rumore termico lineare (coefficiente di correlazione lineare 0.99) pari a 0.1421 ADU/secondo.

Figura 7: variazione del livello di luminosità media per pixel in funzione del tempo di esposizione. Nel riquadro a lato livello di luminosità media per pixel in funzione del tempo di esposizione. Tutti i dark frame sono stati ripresi a 800 ISO.

La quantità di rumore termico che introduciamo aumenta quindi linearmente con il tempo di esposizione andando a deteriorare l’informazione contenuta nell’elemento fotosensibile. Ma quanto contribuisce questo rumore rispetto all’offset? Abbiamo visto in precedenza come un aumento della temperatura del sensore introduce una variazione del livello di luminosità media per pixel inferiore al 5%. In questo caso per tempi di esposizione pari a 7 minuti a 800 ISO abbiamo che la variazione di ADU rispetto al bias frame è pari a 42 ADU e quindi inferiore persino a quello che si ottiene a seguito del riscaldamento del sensore.

In ogni caso questo valore rimane costante da posa a posa se la temperatura del sensore rimanesse costante (cosa che invece abbiamo visto non accadere). 42 ADU è quindi il vero contributo di rumore medio contenuto in ciascun pixel alimentato per 7 minuti a 800 ISO in condizioni di buio ad una determinata temperatura T. Quindi se i 43 ADU dovuti alla variazione di temperatura del sensore erano una sorgente di errore nel processo di “costruzione” del master dark frame, questi 42 ADU costituiscono il rumore termico medio costante intrinseco della fotocamera e quindi facilmente correggibile attraverso il processo di sottrazione del master dark frame (rumore termico medio).

La variazione dell’offset del dark frame rispetto all’offset bias frame nel caso di CMOS varia quindi dal 5% nel caso di fotocamera “fredda” al 10% nel caso di fotocamera riscaldata. Tale discrepanza è comunque trascurabile e fa si che i due offset siano praticamente coincidenti traducendosi in un valore di livello di luminosità del master dark frame o del rumore termico medio pari a 0 ADU come correttamente atteso. Quindi nei sensori CMOS non siamo di fronte a quel offset fittizio descritto in precedenza nei sensori CCD e visibile in Figura 8.

Figura 8: distribuzione dei livelli di luminosità del master dark frame (rumore termico medio) nel caso di sensori CCD e CMOS. Si vede come nel caso dei sensori CMOS il segnale sia soltanto di natura termica (coda esponenziale) mentre nei sensori CCD si osserva la presenza di un finto offset a seguito della maggiore dinamica e quindi sensibilità allo spostamento dell’offset a seguito dell’integrazione del rumore termico.

Ricordiamo ancora una volta come la maggior parte del rumore termico venga immagazzinato nei pixel riscaldati che quindi giocano un ruolo importante nei sensori a semiconduttori. Riportiamo infine un’immagine del master dark frame nel caso di un sensore CMOS Canon EOS 40D.

Figura 9: esempio di master dark frame acquisito con una DSLR modello Canon EOS 40D (sensore CMOS). E’ possibile osservare i gradienti termici dovuti alle regioni del sensore più vicine a “punti caldi” dell’elettronica.

CONDIZIONI DI DARK FRAME

Ovviamente, dato che i dark frame contengono l’informazione termica del sensore a semiconduttore è strettamente necessario che questi vengano ripresi nelle medesime condizioni ambientali delle immagini astronomiche. Tale vincolo si traduce nel prevedere un tempo di ripresa dei dark a seguito di una notte astrofotografica oppure nel memorizzare la temperatura di utilizzo della camera CCD astronomica o DSLR nel caso di sensori dotati di sistemi di raffreddamento con controllo della temperatura. Nel caso delle reflex digitali persino l’umidità o la luce ambiente potrebbe influire la ripresa del dark frame e quindi è vivamente sconsigliato la ripresa di questi scatti durante l’alba o il tramonto o in notte successive a quella di ripresa.

Ricordiamo inoltre che alcuni pixel possono diventare caldi o freddi a seguito di una rottura per invecchiamento. Pertanto, nel caso di CCD o DSLR raffreddati è necessario ogni tanto aggiornare le proprie librerie di dark.

 MEDIA O MEDIANA

Sino ad ora abbiamo parlato di rumori, ovvero fenomeni fisici sempre presenti in ogni singolo dark frame. Esistono però altri fenomeni che possono verificarsi solo in alcuni dark frame e non in tutti. Questi fenomeni sporadici rischiano però di introdurre un segnale nella media spurio che al netto andrà a peggiorare la qualità dell’immagine astronomica finale. Un segnale sporadico è ad esempio quello generato dai raggi cosmici (per maggiori informazioni si legga l’articolo “I raggi cosmici e l’astrofotografia digitale”) i quali possono rilasciare parte della loro energia in uno o più pixel liberando un gran numero di elettroni.

Un modo per non considerare in una media i pixel che subiscono solo sporadicamente una grossa variazione del loro Livello di Luminosità è utilizzare invece della classica media aritmetica delle immagini, la mediana. Per maggiore informazioni sui vari algoritmi di media di immagini o più precisamente stacking delle immagini si legga l’articolo “Metodi di Stacking”.

IRIS E IL DARK FRAME

IRIS permette di creare il master dark (inteso come rumore termico medio), partendo dai singoli dark frame e dal master bias frame. Il metodo consigliato per combinare le singole immagini è il metodo della mediana. Per quanto riguarda la procedura operativa da seguire si rimanda alla Guida per l’elaborazione delle immagini astronomiche con IRIS. Chi fosse interessato allo studio metodico del dark frame o semplicemente vuole integrare questo articolo con ulteriori considerazioni e schede tecniche, è pregato di inviare una e-mail a ricerca@astrotrezzi.it .

 




Il Bias Frame

Negli articoli precedenti abbiamo visto come sia possibile creare per ogni elemento fotosensibile di un sensore a semiconduttore un segnale digitale in un certo senso proporzionale al flusso di radiazione incidente. Tale segnale rappresenterà, al termine del processo di formazione dell’immagine, il livello di luminosità di ciascun pixel di cui il sensore è costituito.

Sino ad ora abbiamo però considerato il caso in cui il sensore venga inondato da fotoni. Cosa succede se però scattiamo una fotografia al buio? Con buio intendiamo la totale assenza di luce ovvero la condizione di avere su ogni elemento fotosensibile zero fotoni. Zero fotoni significa che non abbiamo nessuna fonte di energia in grado di liberare elettroni in banda di conduzione e quindi di generare un segnale di carica. Nessun segnale si traduce infine in un segnale di ampiezza zero in uscita dell’ADC e quindi un livello di luminosità pari a 0 ADU. Riassumendo, una fotografia del buio è una matrice di pixel ciascuno con livello di luminosità pari a 0 ADU. Questo ovviamente in linea del tutto teorica. Vediamo ora cosa succede nella realtà.

DENTRO IL FOTOELEMENTO

In assenza di luce la possibilità di avere elettroni in banda di conduzione dovrebbe essere praticamente zero. Eppure l’agitazione termica degli elettroni associata al fatto che l’elemento fotosensibile a semiconduttore ha una determinata temperatura diversa da zero, permette ad alcuni di essi di “saltare” naturalmente dalla banda di valenza a quella di conduzione. Elettroni liberi si traducono al termine della catena elettronica in segnali luminosi. Ecco quindi che alcuni pixel che dovrebbero avere livello di luminosità pari a 0 ADU possono assumere valori differenti. Tale effetto aumenta all’aumentare della temperatura dell’elemento a semiconduttore la quale dipende dalla temperatura ambiente e dal riscaldamento dello stesso durante il funzionamento (effetto Joule). Ricordiamo inoltre che l’emissione di elettroni per agitazione termica è un processo continuo e quindi il numero di “cariche termiche” accumulate aumenta con il tempo di esposizione. Ridurre al minimo il tempo di esposizione significa quindi diminuire il numero di elettroni di natura termica. Inoltre, come detto prima, la temperatura del sensore dipende anche dalla temperatura ambiente. Questo significa che sistemi di raffreddamento come ventole o celle di Peltier, possono ridurre di molto il fenomeno di emissione di elettroni termici. In assenza di sistemi di raffreddamento vedremo quindi una notevole differenza tra le riprese effettuate in inverno e quelle estive. L’emissione di elettroni termici trasforma il vero segnale di buio pari a 0 ADU in un segnale con un livello di luminosità diverso da zero. Questo disturbo prende il nome di rumore termico. Nell’articolo “Il Dark Frame” vedremo come trattare questo tipo di rumore.

Se però ora effettuiamo uno scatto molto veloce al buio, allora il sensore funzionerà per un tempo così limitato da non permetterne il riscaldamento. Inoltre tempi d’esposizione brevi significano capacità nulla di accumulo delle “cariche termiche” ovvero riduzione quasi completa del rumore termico. Ecco quindi che scatti “veloci” al buio dovranno fornire in uscita dal sensore a semiconduttore segnali elettrici nulli come atteso teoricamente.

LA CATENA ELETTRONICA

Un segnale nullo in uscita dell’elemento fotosensibile corrisponde necessariamente ad un Livello di Luminosità del pixel associato pari a 0 ADU? Ovviamente no. La strada che il nostro segnale deve percorrere è lunga e piena di ostacoli. Il processo di amplificazione, conversione analogico – digitale e molti altri di natura elettronica introducono rumori. Se un sensore è progettato bene, allora tutti i rumori introdotti nel processo di formazione dell’immagine devono essere non correlati e di natura prettamente casuale. A questi possono però aggiungersi rumori non casuali come ad esempio interferenze elettroniche.

Nel caso di uno scatto “veloce” al buio quindi ogni pixel assumerà un livello di luminosità diverso da zero. La distribuzione di livelli di luminosità (istogramma) dei pixel di un sensore sarà quindi descritta da una gaussiana per i rumori di natura casuale con distorsioni più o meno consistenti nel caso in cui vi fossero rumori non casuali. Per motivi di natura tecnologica inoltre, il livello di luminosità corrispondente al buio (0 ADU) è traslato ad un valore noto come offset.

Se volessimo riassumere l’effetto dei rumori fin qui analizzati su un pixel per uno scatto “veloce”, ovvero con tempi di esposizioni prossimi a zero secondi, effettuato al buio potremmo dire:

Livello di Luminosità = valore teorico + offset + rumore termico + rumore elettronico casuale + rumore elettronico non casuale.

Per quanto detto in precedenza, facendo tendere il tempo di esposizione a zero si ha una riduzione drastica del rumore termico che diventa quindi trascurabile. Inoltre il valore in ADU teorico è 0, dato che non ci aspettiamo elettroni. Quindi la nostra espressione diventa.

Livello di Luminosità = offset + rumore elettronico casuale + rumore elettronico non casuale.

Cosa succede ora se effettuiamo N scatti “veloci” al buio e facciamo la media pixel per pixel del Livello di Luminosità associato? In questo caso ci viene in aiuto la statistica. La media dei valori assunti da una variabile casuale effettuata su un numero di campioni N che tende all’infinito tende al valore vero. Dato che nel nostro caso il rumore elettronico casuale fluttua intorno al valore zero, allora mediando su N scatti con N sufficientemente grande avremo che il rumore elettronico casuale diviene nullo. Pertanto:

Livello di Luminosità [mediato su N scatti] = offset + rumore elettronico non casuale.

Se l’elettronica così come il sensore utilizzato è stata progettata bene e la camera risulta isolata dal punto di vista elettromagnetico, allora il rumore elettronico non casuale dovrebbe essere nullo e il Livello di Luminosità mediato dovrebbe tendere al valore dell’offset del pixel. In caso contrario tale rumore elettronico non casuale, noto come rumore di lettura, sarà presente e non eliminabile dalle nostre immagini astronomiche. Questo può essere ottenuto sottraendo al Livello di Luminosità di un pixel il Livello di Luminosità mediato.

IL BIAS FRAME

Ciascun pixel di un sensore, sia esso CCD o CMOS, possiede quindi un offset. Siamo sicuri che tale offset sia lo stesso per tutti i pixel? Ovviamente no. Ogni pixel (dall’elemento fotosensibile alla catena elettronica) è diverso l’uno dall’altro e pertanto presenta un proprio offset, che mediamente è quello riportato nelle schede tecniche dei sensori. Come fare quindi a normalizzare i nostri pixel, in modo che se fotografiamo il buio otteniamo 0 ADU in ogni pixel? Per fare questo dobbiamo conoscere il valore dell’offset per ogni pixel e sottrarlo ai rispettivi pixel dell’immagine astronomica ripresa. Come fare?

Prendiamo la nostra macchina fotografica digitale (DSLR) o la nostra camera CCD astronomica e poniamo il tappo di fronte all’ottica al fine di non far arrivare fotoni sul sensore ricreando pertanto la condizione di buio. Settiamo come tempo di esposizione il minimo imposto dalle specifiche tecniche della nostra DSLR o camera CCD astronomica (ad esempio 1/8000 secondo per una Canon EOS 40D o 1/1000 di secondo per una ATIK 314L+ B/W). Ricordiamo che per le reflex dobbiamo impostare gli stessi ISO utilizzati per riprendere la nostra immagine astronomica al fine di porsi nelle stesse condizioni di scatto (la catena elettronica funziona in modo diverso a seconda degli ISO impostati). Per lo stesso motivo anche il binning della nostra camera CCD non dovrà essere modificato. Con questi settaggi si riprendano un certo numero di immagini che verranno successivamente mediati al fine di ottenere il Livello di Luminosità medio e quindi l’offset per ciascun pixel del sensore. Tali scatti prendono il nome di bias frame. Quindi, maggiore sarà il numero di bias frame acquisiti, minore sarà l’entità del rumore casuale presente nell’immagine e quindi migliore sarà la determinazione dell’offset. Ricordiamo infatti che, dal punto di vista statistico, la precisione con cui determiniamo l’offset aumenta come la radice quadrata del numero di bias frame acquisiti.

La presenza di rumori non casuali purtroppo va ad aumentare aumentando il numero di bias frame acquisiti e pertanto un basso rumore di lettura è una richiesta importante per un astrofotografo esigente.

Riportiamo di seguito lo studio di un bias frame e della media di 50 bias frame, nota con il nome di master bias frame, per una ATIK 314L+ B/W (sensore CCD) e per una Canon EOS 40D (sensore CMOS).

ATIK 314L+ B/W

L’ATIK 314L+ monocromatica monta un sensore CCD da 1392 x 1040 pixel. Abbiamo ripreso 50 bias frame con binning 1 x 1 e tempo di esposizione pari a 1/1000 secondo. In figura 1 è mostrato il livello di luminosità di un pixel del sensore CCD. Come si vede questo fluttua intorno al valore medio pari a 262.9 ADU con una varianza pari a 15.4 ADU. Lo stesso comportamento è stato mostrato da tutti gli altri pixel che costituisce la matrice del sensore.

Figura 1: Il Livello di Luminosità al variare del bias frame. Come descritto in precedenza questo fluttua intorno al valore “vero” dell’offset pari a circa 262 ADU.

In Figura 2 mostriamo invece la distribuzione dei Livelli di Luminosità (istogramma) dei pixel che costituiscono il sensore per un dato bias frame. La distribuzione è dominata da un rumore di tipo casuale, come dimostra il buon accordo con un fit di tipo gaussiano. Il valore medio della distribuzione è 265.999 ± 0.015 ADU con larghezza pari a 17.774 ± 0.012  ADU. Come atteso, mediando su 50 si ottiene una riduzione della larghezza pari a circa 5.77. Questo non è esattamente quanto previsto teoricamente (7.07) a causa della presenza nel picco gaussiano di contributi non gaussiani (rumori non casuali).

Figura 2: in azzurro la distribuzione dei Livelli di Luminosità di un sensore CCD in un bias frame. In rosso il risultato di un fit gaussiano della distribuzione. Ricordiamo che la larghezza della distribuzione del bias frame è spesso detta readout noise.

Al fine di comprendere l’entità di tali rumori non gaussiani si riporta in figura 3 la distribuzione dei Livelli di Luminosità del master bias frame in scala semi-logaritmica. Come si può notare esistono delle piccole code non gaussiane sicuramente imputabili a del rumore di tipo non casuale. Al fine di determinare se tale rumore è dovuto a fenomeni di interferenza elettronica, abbiamo deciso di sottrarre al bias frame il bias frame mediato (su 50 immagini) e di effettuare su tale differenza l’analisi di Fourier FFT. Il risultato, riportato sempre in figura 3 è uno spettro bianco, sintomo di totale assenza di rumore a frequenza spaziale.

Figura 3: a sinistra la distribuzione dei Livelli di Luminosità del master bias frame in scala semi-logaritmica. A destra lo spettro di Fourier ottenuto con il software ImageJ

 Interessante è l’analisi del master bias. In particolare (Figura 4) è possibile vedere un gradiente tra la zona alta e bassa del sensore. Questo perché durante il seppur breve periodo di trasporto delle cariche, queste stazionano con tempi diversi a seconda della loro posizione sul sensore. I pixel più vicini all’HCCD risultano quindi meno soggetti al rumore termico rispetto a quelli più lontani che integrano tale rumore su un tempo effettivamente maggiore. Questo effetto è invece invisibile nel caso di bias frame acquisiti con sensori di tipo CMOS dove i pixel vengono “svuotati” tutti nello stesso istante. Per maggiori informazioni si legga l’articolo “La Generazione del Segnale: CCD e CMOS”.

Figura 4: master bias. Si osservi come la regione più bassa e vicina al HCCD sia più buia (minor rumore di tipo termico) della regione più alta. A destra inoltre è visibile ad un pattern legato al supporto del sensore.

Concludendo la camera ATIK 314L+ monocromatica risulta tecnologicamente ben realizzata sia dal punto di vista fisico che elettronico. In particolare il rumore è sostanzialmente di natura casuale mentre la componente dovuta al rumore di lettura risulta praticamente trascurabile.

CANON EOS 40D

Anche nel caso della DSLR Canon EOS 40D, dotata di sensore CMOS da 3888 x 2592 pixel, il Livello di Luminosità dei singoli pixel fluttuano intorno al valor medio dell’offset. La distribuzione di tali valori all’interno di un singolo bias frame è mostrato in figura 5. Il valore medio della distribuzione è 1025.66 ± 0.002 ADU con larghezza pari a 7.631 ± 0.002  ADU (il valore più basso di quello ottenuto per la camera astronomica ATIK314L+ è dovuto alla minor dinamica della Canon EOS 40D). Come atteso, mediando su 50 frame si ottiene una riduzione della larghezza pari a circa 7.86. Questo è paragonabile a quanto previsto teoricamente (7.07) dovuto molto probabilmente al maggior numero di pixel presenti rispetto al CCD precedentemente preso in esame.

Figura 5: a sinistra in azzurro la distribuzione dei Livelli di Luminosità di un sensore CMOS in un bias frame. In rosso il risultato di un fit gaussiano della distribuzione. A destra lo stesso grafico in scala semi-logaritmica.

In questo caso la distorsione dello spettro è più evidente rispetto alla CCD ATIK sintomo della presenza non trascurabile di rumori non casuali. Questo è evidenziato dal medesimo plot in scala semi-logaritmica dove si nota la presenza di code a bassi e alti valori di ADU. Per un’analisi dettagliata del rumore di lettura si è proceduto come in precedenza attraverso la sottrazione degli spettri e l’analisi di Fourier. In questo caso si osserva però un rumore a frequenza spaziale fissata di tipo sinusoidale (Figura 6).

Figura 6: spettro di Fourier ottenuto con il software ImageJ. In questo caso l’immagine non è uniforme e si vede un rumore di tipo sinusoidale con frequenza spaziale fissata.

Riassumendo quindi, sia la ATIK 314L+ che la Canon EOS 40D mostrano un bias frame dominato sostanzialmente dal rumore casuale, quindi riducibile mediando molti frame. Per quanto riguarda la componente non casuale (rumore di lettura) nel caso dell’ATIK non presenta pattern spaziali, mentre per la Canon è stata verificata la presenza di un rumore spaziale di tipo sinusoidale.

CONDIZIONI DI BIAS FRAME

Sino ad ora abbiamo considerato completamente trascurabile il rumore termico presente in ciascun bias frame. Tale assunzione è corretta dato che la variazione della larghezza della distribuzione dei Livelli di Luminosità nel bias frame in funzione della temperatura del sensore è praticamente trascurabile e stimabile intorno allo 0.52%/°C . Purtroppo però spesso non si considera un altro fattore molto importante. Al variare della temperatura del sensore anche l’elettronica ad esso connesso risponde in modo differente ed in particolare abbiamo una variazione del valore assoluto dell’offset in funzione della temperatura. Tale confronto è ben visibile in Figura 7 dove si riporta la distribuzione dei Livelli di Luminosità per bias frame effettuati a diverse temperature del sensore.

Figura 7: Distribuzione dei Livelli di Luminosità in bias frame effettuate a diverse temperature del sensore CCD ATIK 314L+ B/W.

In particolare si osserva una variazione della posizione dell’offset pari al 3.47% in soli 5°C di escursione da +10°C a +5°C. Tale variazione è stata osservata anche per lunghe esposizioni (con conseguente aumento della temperatura del sensore) come riportato nell’articolo Canon EOS 40D”.

Ulteriori test saranno effettuati per verificare nuovamente ed in modo più dettagliato questo tipo di fenomeno. Per il momento possiamo comunque affermare che, data la dipendenza dalla temperatura del valore dell’offset, è sempre consigliabile acquisire i bias frame nelle stesse condizioni ambientali presenti al momento della ripresa astronomica.

MEDIA O MEDIANA?

Sino ad ora abbiamo parlato di rumori, ovvero fenomeni fisici sempre presenti in ogni singolo bias frame. Esistono però altri fenomeni che possono verificarsi solo in alcuni bias frame e non in tutti. Questi fenomeni sporadici rischiano però di introdurre un segnale nella media spurio che al netto andrà a peggiorare la qualità dell’immagine astronomica finale. Un segnale sporadico è ad esempio quello generato dai raggi cosmici (per maggiori informazioni si legga l’articolo “I raggi cosmici e l’astrofotografia digitale”) i quali possono rilasciare parte della loro energia in uno o più pixel liberando un gran numero di elettroni.

Un modo per non considerare in una media i pixel che subiscono solo sporadicamente una grossa variazione del loro Livello di Luminosità è utilizzare invece della classica media aritmetica delle immagini, la mediana. Per maggiore informazioni sui vari algoritmi di media di immagini o più precisamente stacking delle immagini si legga l’articolo “Metodi di Stacking.

IRIS ED IL BIAS FRAME

IRIS permette di creare il master bias, partendo dai singoli bias frame. Il metodo utilizzato per combinare le singole immagini è il metodo della mediana. Per quanto riguarda la procedura operativa da seguire si rimanda alla Guida per l’elaborazione delle immagini astronomiche con IRIS. Chi fosse interessato allo studio metodico del bias frame o semplicemente vuole integrare questo articolo con ulteriori considerazioni e schede teniche, è pregato di invare una e-mail a ricerca@astrotrezzi.it




Istogramma e stretching dinamico: come ottenere il massimo dalla dinamica del nostro sensore

In ADC: dal mondo analogico a quello digitale abbiamo approfondito il concetto di dinamica, ovvero il numero di livelli tonali a disposizione di un’immagine digitale.

Le DSLR sono in grado oggi di fornire immagini a 14 bit mentre le camere CCD 16. Dato che l’occhio riesce a distinguere solo un range tonale ad 8 bit, perché avere immagini con un numero così elevato di livelli?

Per capirlo dobbiamo introdurre il concetto di istogramma. Ogni fotoelemento del sensore può generare un segnale digitale (proporzionale al numero di fotoni incidenti) che costituisce il tono del pixel. In effetti alcuni astrofotografi tendono a distinguere tra fotoelemento, elemento fisico del sensore ed pixel, ovvero la parte più piccola di un’immagine digitale.

Supponiamo ora di avere un’immagine ad 8 bit, allora ci saranno un certo numero di pixel N0 che avranno tono 0, un certo numero N1 che avranno tono 1, un certo numero N2 che avranno un tono 2 e così via. Se ora rappresentiamo in un grafico i valori N0, N1, N2, … in funzione del tono 0, 1, 2, … otterremo quello che prende il nome di istogramma.

L’istogramma sarà quindi una funzione continua che varia da 0 al massimo numero di toni possibile (255 nel caso di immagini ad 8 bit) come mostrato in figura.

Istogramma dell'immagine di NGC 7000 in Adobe Photoshop CS3

 Supponiamo ora di avere una DSLR in grado di produrre immagini a 14 bit. L’istogramma associato sarà una funzione continua tra 0 e 16383 toni (misurati in ADU). Purtroppo Adobe Photoshop collassa tutto il range tonale in soli 8 bit, quindi utilizzeremo per questo tipo di analisi il software astronomico IRIS. In figura è mostrato un esempio di istogramma a 14 bit.

Istogramma di un'immagine a 14 bit in IRIS

Come si vede dall’immagine il range tonale varia tra 0 e 16383 ADU mentre il segnale (ovvero l’immagine) occupa solo i primi 3000 ADU circa. È possibile pertanto tagliare l’istogramma in modo da limitare il range tonale al solo segnale. In figura è mostrato ad esempio il taglio dell’istogramma ai primi 3000 toni.

Riduzione del range tonale nei dintorni del segnale

Il taglio dell’istogramma può essere ottimizzato ricordando di ottenere un range tonale comunque superiore o uguale a 8 bit. Infatti se limitiamo il range tonale ad un valore inferiore a 8 bit, quello che succede è che l’occhio umano non vede più come continuo il passaggio da un tono di grigio a quello successivo. L’immagine subisce pertanto una specie di discretizzazione tonale che prende il nome di posterizzazione.

Nell’immagine in figura si nota che ci sono un certo numero di pixel con valore intorno ai 300 ADU mentre la maggior parte di essi è compreso tra 700 e 2500 ADU. Il valore 700 ADU rappresenta i pixel del fondo cielo, che a seguito dell’esposizione, dell’inquinamento luminoso, nonché del colore naturale del cielo assumono un valore diverso da 0 ADU (in realtà diverso dal valore dell’offset). I pixel a 300 ADU sono molto probabilmente pixel non funzionanti che quindi sono rimasti spenti dando un valore simile a quello dell’offset. Se limitiamo inferiormente l’istogramma in modo che 0 ADU coincida con 700 ADU otterremmo un fondo cielo nero ed i pixel non funzionanti assumerebbero lo stesso valore in ADU degli altri pixel del fondo cielo.

In figura potete osservare l’istogramma opportunamente tagliato, trasformando quella che era l’immagine a 14 bit sottoesposta in una a 12 bit correttamente esposta.

Istogramma di NGC7000 opportunamente tagliato

Abbiamo parliamo di immagine a 14 bit sottoesposta perché dei 16384 toni possibili, l’immagine effettiva ne utilizzava soltanto 3000. Quindi, se 16383 ADU corrispondono al bianco, l’oggetto più luminoso dell’immagine prima del taglio era un grigio scuro. La nuova immagine invece è correttamente esposta perché il massimo valore assunto in ADU (3000) è molto vicino al colore bianco di un’immagine a 12 bit (4095 ADU) e allo stesso tempo nessun pixel assume un valore tonale superiore a 4095 ADU.

Cosa succede se un pixel ha un valore tonale superiore al range tagliato? Il suo valore tonale viene posto uguale al massimo valore della dinamica. Questo porta ad un accumulo di pixel nella parte destra dell’istogramma che corrisponde ad un’immagine con stelle (o addirittura parti di nebulosa) “bruciate”.

Una volta tagliato l’istogramma è necessario scalarlo in modo che 3001 ADU vengano compressi in soli 256. Ridotta così ad 8 bit, l’immagine può essere elaborata con programmi di fotoritocco come Adobe Photoshop.

Esiste un secondo metodo utile per ottimizzare il range tonale di un’immagine che è noto come stretching dinamico. Questo consiste nello stirare il segnale in modo che questo occupi tutto il range tonale. Un esempio di stretching è mostrato in figura.

Immagine (eccessivamente) stretchata. Il segnale dopo il processo di stretching occupa praticamente tutto il range tonale.

 Come nel caso del taglio di un istogramma con numero di bit superiore ad 8, anche in questo caso l’istogramma stretchato dovrà essere scalato.

La disponibilità di un numero sempre maggiore di livelli permette di ridurre l’effetto dell’inquinamento luminoso sul risultato finale dell’immagine deep sky. Infatti se il range tonale è limitato, dopo pochi secondi o minuti di posa il fondo cielo (ed il soggetto della ripresa) risulteranno essere all’estremo destro dell’istogramma fornendo un’immagine priva di contrasto e dettaglio. Nel caso di sensori ad alta dinamica, sarà possibile ritagliare senza perdere informazioni parti dell’istogramma, fornendo immagini dettagliate e contrastate anche dai cieli inquinati. Questo lo si osserva già oggi confrontando riprese effettuate con DSLR e CCD da centri cittadini.