1

Il Master Bias Frame

Nel post Il bias frame, abbiamo analizzato la natura di questo particolare tipo di scatto utile per la calibrazione delle nostre immagini astronomiche. In particolare abbiamo visto come esso contenga informazioni sull’offset associato alla nostra camera di ripresa oltre che sulla struttura del rumore elettronico non casuale. Ovviamente il tutto condito da rumore elettronico casuale a media nulla.

Proprio quest’ultimo abbiamo imparato a ridurlo mediando numerosi bias frame. Infatti, essendo per definizione il rumore casuale a media nulla, è facilmente eliminabile mediando il valore del livello di luminosità di ciascun pixel su un certo numero di frame. La questione aperta, oggetto di questo post è: “Quanti scatti mediare?”. La risposta è sempre la solita che si trova su libri e siti di astrofotografia ovvero più scatti vengono mediati e migliore è il risultato ottenuto. Inoltre si trova erroneamente riportato che il rumore del bias frame mediato o master bias frame è inversamente proporzionale alla radice del numero di frame utilizzati nella media. Questo non è vero in generale e scopriremo il perché dal punto di vista statistico.

Innanzitutto supponiamo di considera un singolo pixel soggetto da solo rumore elettronico casuale. Questo significa che se consideriamo i valori di luminosità BL(x,y,i) assunti dal singolo pixel di coordinate (x,y) in un certo numero di frame N, questi saranno distribuiti secondo una distribuzione gaussiana centrata in un certo valore medio BL(x,y). Lo stesso ovviamente si può dire per ogni pixel del sensore e quindi per ogni valore della coordinata (x,y). Se ora quindi effettuiamo la media aritmetica dei vari bias frame, otterremo per ogni pixel il valore medio di luminosità BL(x,y). Se ora costruiamo la distribuzione dei livelli di luminosità BL(x,y) allora otterremo ancora una distribuzione gaussiana con valore medio BL che, se tutto è stato effettuato correttamente, corrisponde all’offset della nostra camera di ripresa. La distribuzione dei BL(x,y) è gaussiana e rappresenta la distribuzione dei valori medi di luminosità assunta da un certo numero N di bias frame. Essendo la distribuzione della media, questa ha larghezza σ pari al readout noise diviso per la radice di N. Il rumore elettronico casuale quindi scala come la radice quadrata del numero di bias frame utilizzati.

Purtroppo però il nostro bias frame non contiene solo rumore elettronico casuale associato all’elettronica ed al processo di conversione analogico/digitale (ADC) ma anche del rumore elettronico non casuale come rumori a pattern fisso o transienti. Questi andranno così a modificare la nostra distribuzione BL(x,y) che non scalerà quindi più con la radice quadrata del numero di frame. Trascurando i rumori transienti, di secondaria importanza ed eliminabili utilizzando ad esempio la mediana dei frame invece della media, i rumori a pattern fisso (righe, bande, …) non sono a media nulla e pertanto non vengono eliminati nel processo di media dei singoli bias frame. Praticamente più che di rumore dovremmo parlare di segnale.

Rumori casuali e non casuali vanno così a sommarsi in quadratura dando luogo alla larghezza σ complessiva della distribuzione dei valori di BL(x,y). Quando effettuiamo la somma di più bias frame avremo che la componente “casuale” di σ andrà a scalare con la radice quadrata del numero di bias frame, mentre la componente “non casuale” rimarrà fissa ad un determinato valore σ0. Nel caso ipotetico di avere un numero infinito di bias frame allora  σ coinciderà esattamente con σ0.

Al fine di dimostrare quanto appena detto, abbiamo effettuato la mediana di un certo numero di bias frame N calcolando di volta in volta la larghezza della distribuzione dei livelli di luminosità del master bias frame (ovvero ricordiamo ancora una volta, del frame ottenuto come media/mediana di N bias frame). La camera utilizzata è una ATIK 383L+ monocromatica in bin 1×1 raffreddata a -16.9°C ed una Canon EOS 500D. Il risultato ottenuto è mostrato in Figura 1.

Figura 1: quadrato della larghezza (RMS) della distribuzione dei livelli di luminosità BL(x,y) del master bias frame in funzione dell'inverso del numero di frame utilizzati, per camera CCD ATIK383L+ monocromatica e CMOS Canon EOS 500D

Dal fit effettuato sui punti di Figura 1 possiamo subito notare come il quadrato di σ sia funzione di 1/N (ovvero σ scala come la radice del numero di conteggi) e presenti un asintoto che corrispondente quindi al quadrato di σ0. Se mediamo quindi un numero di frame sufficientemente elevato (diciamo > 10, anche se > 50 è decisamente consigliato) allora il contributo a σ dovuto al rumore casuale diviene praticamente trascurabile.

Ricordiamo inoltre che, nel caso delle DSLR, σ è funzione del numero di ISO utilizzato dato che le condizioni di funzionamento dell’elettronica cambiano al variare della sensibilità utilizzata. Figura 2 mostra ad esempio la variazione di σ  in funzione degli ISO per una fotocamera Canon EOS 40D. Si può facilmente notare come questa incrementi in modo praticamente lineare all’aumentare della sensibilità.

Figura 2: larghezza della distribuzione dei livelli di luminosità BL(x,y) del bias frame in funzione degli ISO di una DSLR Canon EOS 40D

Concludendo quindi possiamo affermare che per ottenere un buon master bias frame è necessario acquisire un numero di frame N sufficientemente elevato da ridurre la componente di rumore casuale presente nell’immagine. Sono i rumori elettronici non casuali a determinare la larghezza minima della nostra distribuzione e pertanto un N eccessivamente grande non comporta nessun miglioramento della qualità del master bias frame. Purtroppo molto spesso i rumori non casuali sono intrinsechi dell’elettronica e pertanto difficilmente riducibili. Ricordiamo infine che bassi valori di sensibilità (ISO) sono consigliabili dato che posseggono un valore di σ inferiore. Questo non coincide con il readout noise dato che per ottenere tale valore dobbiamo sottrarre al bias frame la componente non casuale del rumore (ottenibile mediando un numero elevato di bias frame escluso quello in esame). Per maggiori informazioni sul readout noise consigliamo la lettura del post Il bias frame.




Il Flat Frame

Negli articoli “Il bias frame” ed “Il dark frame” abbiamo visto come correggere il valore di luminosità assunto da ciascun pixel del nostro sensore a semiconduttore al fine di ottenere una risposta omogenea all’assenza di luce. In questo modo, in assenza di luce, il nostro elemento fotosensibile assumerà livello di luminosità pari a 0 ADU. Ma cosa succede ora se cominciamo a mandare dei fotoni sul sensore (si veda “Un Universo di fotoni”)? Quello che ci aspettiamo, una volta corretta la nostra immagine con il master dark ed il master bias, è che:

Livello di Luminosità = valore teorico + rumore elettronico casuale

Questo sarebbe vero se tutti i pixel rispondessero allo stesso modo alla radiazione luminosa. Purtroppo la situazione è più complicata e ogni pixel produce un numero di elettroni diverso dall’altro quando inondato da una sorgente luminosa uniforme. Perché?

I motivi possono essere molti. Prima di tutto ciascun elemento fotosensibile, a causa principalmente delle piccole dimensioni e quindi della difficoltà tecnologica nella realizzazione dello stesso, è diverso l’uno dall’altro. Così se inondiamo due pixel del nostro sensore a semiconduttore con una sorgente uniforme, questi forniranno due livelli di luminosità leggermente (si spera) diversi.

Inoltre non tutte le regioni del sensore sono sensibili allo stesso modo per motivi di costruzione ed infine la luce che ci giunge da una sorgente uniforme deve passare da un sistema ottico che per definizione non ha un campo perfettamente piano, ovvero ai bordi del campo si ha un maggiore assorbimento della radiazione luminosa (vignettatura). Se mettiamo tutti in formule, ciascun pixel avrà quindi livello di luminosità dato da:

Livello di Luminosità = (valore teorico x flat) + rumore elettronico casuale

dove con flat abbiamo indicato un coefficiente di proporzionalità diverso da pixel a pixel. Come ottenere questo coefficiente? La risposta è quantomai semplice. Basta inondare il sensore con una sorgente di luce uniforme. Questa dovrebbe generare un livello di luminosità uguale in ogni elemento fotosensibile. Ovviamente per quanto detto prima questo non succederà ed il valore di luminosità di ciascun pixel sarà pari a quello teorico per il flat. Ecco fatto quindi! Riprendere un’immagine di una sorgente luminosa coincide con il determinare per ciascun pixel il valore del coefficiente flat. Tale scatto è definito flat frame.

Sorgenti luminose uniformi ne esistono varie in commercio. Alcuni strumenti note come flat field generator o flat box sono in grado di fornire sorgenti di luce uniformi e con uno spettro praticamente bianco. Questo permette di avere in una sola esposizione un buon flat in tutti i canali RGB (vedi Costruire un’immagine a colori), fatto importante per sensori a colori come i CMOS delle DSLR. Altre sorgenti di luce approssimativamente uniformi sono i monitor dei computer, il cielo diurno, una maglietta bianca sull’ottica illuminata con una torcia, un muro o un foglio bianco. Lasciamo a voi la fantasia di trovare delle buone sorgenti di luce uniforme. In questi casi bisogna prestare attenzione a non riprendere le frequenze delle lampade (appaiono come bande chiare e scure nello scatto) o campi non perfettamente uniformi.

Trovata la sorgente di luce uniforme è necessario scattare con gli stessi ISO (bin) della ripresa dell’oggetto astronomico e soprattutto con la stessa messa a fuoco. Infatti un pixel potrebbe non assumere il valore di luminosità di un altro a seguito della presenza di polvere o macchie sul sensore. Tali macchie cambiano forma e intensità di assorbimento della luce al variare della messa a fuoco. Questo spiega il perché la messa a fuoco del flat frame deve essere la stessa dello scatto di ripresa dell’oggetto astronomico.

Cosa dire invece del tempo di esposizione? Questo va determinato in modo che il picco di luminosità del flat frame, che rappresenta il valore teorico in ADU fornito dalla sorgente di luce uniforme, risulti al centro dell’istogramma. Per fare questo è possibile utilizzare l’utility INFO presente sulle DSLR al fine di visualizzare sullo schermo della fotocamera l’istogramma relativo allo scatto oppure utilizzando software di elaborazioni delle immagini. Se usate IRIS per elaborare immagini CCD ricordatevi di sottoesporre il flat data la compressione in bit necessaria per elaborare l’immagine. Anche il flat frame ovviamente non è privo di errori ed il suo livello di luminosità è dato da:

Livello di Luminosità = valore teorico + rumore elettronico non casuale + offset + rumore termico + rumore elettronico casuale

 I bias frame utilizzati per la correzione del dark e della ripresa dell’oggetto astronomico possono essere utilizzati anche per correggere il flat ovviando così al rumore elettronico non casuale ed all’offset. Per ovviare al rumore termico è necessario riprendere i dark frame ma utilizzando come tempo di ripresa il tempo di esposizione del flat e non quello di ripresa dell’oggetto astronomico. Il rumore elettronico casuale invece può essere ridotto sommando (mediando) più flat frame. Una volta corretto il flat frame e mediati i flat frame corretti (master flat frame) abbiamo:

Livello di Luminosità [mediato su N scatti] = valore teorico = flat

ottenendo così il coefficiente flat per ciascun elemento fotosensibile del nostro sensore a semiconduttore. I master flat presentano la stessa struttura sia nel caso di CCD che CMOS. Riportiamo pertanto un esempio di flat frame ripreso con una Canon EOS 500D modificata Baader (vedi La “modifica Baader” per DSLR) ed il relativo istogramma RGB. Come si vede dalle immagini, la sorgente luminosa generata dal flat field generator utilizzato non è perfettamente bianca. Ricordiamo infine che seppur in minima parte, la temperatura e l’umidità possono modificare le condizioni di ripresa dei flat frame. Pertanto consigliamo di riprendere tali scatti direttamente sul campo al termine della sessione astrofotografica.

Figura 1: esempio di flat frame acquisito con una DSLR modello Canon EOS 400D modificata Baader.

Figura 2: istogramma per i canali RGB relativo al flat frame riportato in Figura 1.

 




Il Bias Frame

Negli articoli precedenti abbiamo visto come sia possibile creare per ogni elemento fotosensibile di un sensore a semiconduttore un segnale digitale in un certo senso proporzionale al flusso di radiazione incidente. Tale segnale rappresenterà, al termine del processo di formazione dell’immagine, il livello di luminosità di ciascun pixel di cui il sensore è costituito.

Sino ad ora abbiamo però considerato il caso in cui il sensore venga inondato da fotoni. Cosa succede se però scattiamo una fotografia al buio? Con buio intendiamo la totale assenza di luce ovvero la condizione di avere su ogni elemento fotosensibile zero fotoni. Zero fotoni significa che non abbiamo nessuna fonte di energia in grado di liberare elettroni in banda di conduzione e quindi di generare un segnale di carica. Nessun segnale si traduce infine in un segnale di ampiezza zero in uscita dell’ADC e quindi un livello di luminosità pari a 0 ADU. Riassumendo, una fotografia del buio è una matrice di pixel ciascuno con livello di luminosità pari a 0 ADU. Questo ovviamente in linea del tutto teorica. Vediamo ora cosa succede nella realtà.

DENTRO IL FOTOELEMENTO

In assenza di luce la possibilità di avere elettroni in banda di conduzione dovrebbe essere praticamente zero. Eppure l’agitazione termica degli elettroni associata al fatto che l’elemento fotosensibile a semiconduttore ha una determinata temperatura diversa da zero, permette ad alcuni di essi di “saltare” naturalmente dalla banda di valenza a quella di conduzione. Elettroni liberi si traducono al termine della catena elettronica in segnali luminosi. Ecco quindi che alcuni pixel che dovrebbero avere livello di luminosità pari a 0 ADU possono assumere valori differenti. Tale effetto aumenta all’aumentare della temperatura dell’elemento a semiconduttore la quale dipende dalla temperatura ambiente e dal riscaldamento dello stesso durante il funzionamento (effetto Joule). Ricordiamo inoltre che l’emissione di elettroni per agitazione termica è un processo continuo e quindi il numero di “cariche termiche” accumulate aumenta con il tempo di esposizione. Ridurre al minimo il tempo di esposizione significa quindi diminuire il numero di elettroni di natura termica. Inoltre, come detto prima, la temperatura del sensore dipende anche dalla temperatura ambiente. Questo significa che sistemi di raffreddamento come ventole o celle di Peltier, possono ridurre di molto il fenomeno di emissione di elettroni termici. In assenza di sistemi di raffreddamento vedremo quindi una notevole differenza tra le riprese effettuate in inverno e quelle estive. L’emissione di elettroni termici trasforma il vero segnale di buio pari a 0 ADU in un segnale con un livello di luminosità diverso da zero. Questo disturbo prende il nome di rumore termico. Nell’articolo “Il Dark Frame” vedremo come trattare questo tipo di rumore.

Se però ora effettuiamo uno scatto molto veloce al buio, allora il sensore funzionerà per un tempo così limitato da non permetterne il riscaldamento. Inoltre tempi d’esposizione brevi significano capacità nulla di accumulo delle “cariche termiche” ovvero riduzione quasi completa del rumore termico. Ecco quindi che scatti “veloci” al buio dovranno fornire in uscita dal sensore a semiconduttore segnali elettrici nulli come atteso teoricamente.

LA CATENA ELETTRONICA

Un segnale nullo in uscita dell’elemento fotosensibile corrisponde necessariamente ad un Livello di Luminosità del pixel associato pari a 0 ADU? Ovviamente no. La strada che il nostro segnale deve percorrere è lunga e piena di ostacoli. Il processo di amplificazione, conversione analogico – digitale e molti altri di natura elettronica introducono rumori. Se un sensore è progettato bene, allora tutti i rumori introdotti nel processo di formazione dell’immagine devono essere non correlati e di natura prettamente casuale. A questi possono però aggiungersi rumori non casuali come ad esempio interferenze elettroniche.

Nel caso di uno scatto “veloce” al buio quindi ogni pixel assumerà un livello di luminosità diverso da zero. La distribuzione di livelli di luminosità (istogramma) dei pixel di un sensore sarà quindi descritta da una gaussiana per i rumori di natura casuale con distorsioni più o meno consistenti nel caso in cui vi fossero rumori non casuali. Per motivi di natura tecnologica inoltre, il livello di luminosità corrispondente al buio (0 ADU) è traslato ad un valore noto come offset.

Se volessimo riassumere l’effetto dei rumori fin qui analizzati su un pixel per uno scatto “veloce”, ovvero con tempi di esposizioni prossimi a zero secondi, effettuato al buio potremmo dire:

Livello di Luminosità = valore teorico + offset + rumore termico + rumore elettronico casuale + rumore elettronico non casuale.

Per quanto detto in precedenza, facendo tendere il tempo di esposizione a zero si ha una riduzione drastica del rumore termico che diventa quindi trascurabile. Inoltre il valore in ADU teorico è 0, dato che non ci aspettiamo elettroni. Quindi la nostra espressione diventa.

Livello di Luminosità = offset + rumore elettronico casuale + rumore elettronico non casuale.

Cosa succede ora se effettuiamo N scatti “veloci” al buio e facciamo la media pixel per pixel del Livello di Luminosità associato? In questo caso ci viene in aiuto la statistica. La media dei valori assunti da una variabile casuale effettuata su un numero di campioni N che tende all’infinito tende al valore vero. Dato che nel nostro caso il rumore elettronico casuale fluttua intorno al valore zero, allora mediando su N scatti con N sufficientemente grande avremo che il rumore elettronico casuale diviene nullo. Pertanto:

Livello di Luminosità [mediato su N scatti] = offset + rumore elettronico non casuale.

Se l’elettronica così come il sensore utilizzato è stata progettata bene e la camera risulta isolata dal punto di vista elettromagnetico, allora il rumore elettronico non casuale dovrebbe essere nullo e il Livello di Luminosità mediato dovrebbe tendere al valore dell’offset del pixel. In caso contrario tale rumore elettronico non casuale, noto come rumore di lettura, sarà presente e non eliminabile dalle nostre immagini astronomiche. Questo può essere ottenuto sottraendo al Livello di Luminosità di un pixel il Livello di Luminosità mediato.

IL BIAS FRAME

Ciascun pixel di un sensore, sia esso CCD o CMOS, possiede quindi un offset. Siamo sicuri che tale offset sia lo stesso per tutti i pixel? Ovviamente no. Ogni pixel (dall’elemento fotosensibile alla catena elettronica) è diverso l’uno dall’altro e pertanto presenta un proprio offset, che mediamente è quello riportato nelle schede tecniche dei sensori. Come fare quindi a normalizzare i nostri pixel, in modo che se fotografiamo il buio otteniamo 0 ADU in ogni pixel? Per fare questo dobbiamo conoscere il valore dell’offset per ogni pixel e sottrarlo ai rispettivi pixel dell’immagine astronomica ripresa. Come fare?

Prendiamo la nostra macchina fotografica digitale (DSLR) o la nostra camera CCD astronomica e poniamo il tappo di fronte all’ottica al fine di non far arrivare fotoni sul sensore ricreando pertanto la condizione di buio. Settiamo come tempo di esposizione il minimo imposto dalle specifiche tecniche della nostra DSLR o camera CCD astronomica (ad esempio 1/8000 secondo per una Canon EOS 40D o 1/1000 di secondo per una ATIK 314L+ B/W). Ricordiamo che per le reflex dobbiamo impostare gli stessi ISO utilizzati per riprendere la nostra immagine astronomica al fine di porsi nelle stesse condizioni di scatto (la catena elettronica funziona in modo diverso a seconda degli ISO impostati). Per lo stesso motivo anche il binning della nostra camera CCD non dovrà essere modificato. Con questi settaggi si riprendano un certo numero di immagini che verranno successivamente mediati al fine di ottenere il Livello di Luminosità medio e quindi l’offset per ciascun pixel del sensore. Tali scatti prendono il nome di bias frame. Quindi, maggiore sarà il numero di bias frame acquisiti, minore sarà l’entità del rumore casuale presente nell’immagine e quindi migliore sarà la determinazione dell’offset. Ricordiamo infatti che, dal punto di vista statistico, la precisione con cui determiniamo l’offset aumenta come la radice quadrata del numero di bias frame acquisiti.

La presenza di rumori non casuali purtroppo va ad aumentare aumentando il numero di bias frame acquisiti e pertanto un basso rumore di lettura è una richiesta importante per un astrofotografo esigente.

Riportiamo di seguito lo studio di un bias frame e della media di 50 bias frame, nota con il nome di master bias frame, per una ATIK 314L+ B/W (sensore CCD) e per una Canon EOS 40D (sensore CMOS).

ATIK 314L+ B/W

L’ATIK 314L+ monocromatica monta un sensore CCD da 1392 x 1040 pixel. Abbiamo ripreso 50 bias frame con binning 1 x 1 e tempo di esposizione pari a 1/1000 secondo. In figura 1 è mostrato il livello di luminosità di un pixel del sensore CCD. Come si vede questo fluttua intorno al valore medio pari a 262.9 ADU con una varianza pari a 15.4 ADU. Lo stesso comportamento è stato mostrato da tutti gli altri pixel che costituisce la matrice del sensore.

Figura 1: Il Livello di Luminosità al variare del bias frame. Come descritto in precedenza questo fluttua intorno al valore “vero” dell’offset pari a circa 262 ADU.

In Figura 2 mostriamo invece la distribuzione dei Livelli di Luminosità (istogramma) dei pixel che costituiscono il sensore per un dato bias frame. La distribuzione è dominata da un rumore di tipo casuale, come dimostra il buon accordo con un fit di tipo gaussiano. Il valore medio della distribuzione è 265.999 ± 0.015 ADU con larghezza pari a 17.774 ± 0.012  ADU. Come atteso, mediando su 50 si ottiene una riduzione della larghezza pari a circa 5.77. Questo non è esattamente quanto previsto teoricamente (7.07) a causa della presenza nel picco gaussiano di contributi non gaussiani (rumori non casuali).

Figura 2: in azzurro la distribuzione dei Livelli di Luminosità di un sensore CCD in un bias frame. In rosso il risultato di un fit gaussiano della distribuzione. Ricordiamo che la larghezza della distribuzione del bias frame è spesso detta readout noise.

Al fine di comprendere l’entità di tali rumori non gaussiani si riporta in figura 3 la distribuzione dei Livelli di Luminosità del master bias frame in scala semi-logaritmica. Come si può notare esistono delle piccole code non gaussiane sicuramente imputabili a del rumore di tipo non casuale. Al fine di determinare se tale rumore è dovuto a fenomeni di interferenza elettronica, abbiamo deciso di sottrarre al bias frame il bias frame mediato (su 50 immagini) e di effettuare su tale differenza l’analisi di Fourier FFT. Il risultato, riportato sempre in figura 3 è uno spettro bianco, sintomo di totale assenza di rumore a frequenza spaziale.

Figura 3: a sinistra la distribuzione dei Livelli di Luminosità del master bias frame in scala semi-logaritmica. A destra lo spettro di Fourier ottenuto con il software ImageJ

 Interessante è l’analisi del master bias. In particolare (Figura 4) è possibile vedere un gradiente tra la zona alta e bassa del sensore. Questo perché durante il seppur breve periodo di trasporto delle cariche, queste stazionano con tempi diversi a seconda della loro posizione sul sensore. I pixel più vicini all’HCCD risultano quindi meno soggetti al rumore termico rispetto a quelli più lontani che integrano tale rumore su un tempo effettivamente maggiore. Questo effetto è invece invisibile nel caso di bias frame acquisiti con sensori di tipo CMOS dove i pixel vengono “svuotati” tutti nello stesso istante. Per maggiori informazioni si legga l’articolo “La Generazione del Segnale: CCD e CMOS”.

Figura 4: master bias. Si osservi come la regione più bassa e vicina al HCCD sia più buia (minor rumore di tipo termico) della regione più alta. A destra inoltre è visibile ad un pattern legato al supporto del sensore.

Concludendo la camera ATIK 314L+ monocromatica risulta tecnologicamente ben realizzata sia dal punto di vista fisico che elettronico. In particolare il rumore è sostanzialmente di natura casuale mentre la componente dovuta al rumore di lettura risulta praticamente trascurabile.

CANON EOS 40D

Anche nel caso della DSLR Canon EOS 40D, dotata di sensore CMOS da 3888 x 2592 pixel, il Livello di Luminosità dei singoli pixel fluttuano intorno al valor medio dell’offset. La distribuzione di tali valori all’interno di un singolo bias frame è mostrato in figura 5. Il valore medio della distribuzione è 1025.66 ± 0.002 ADU con larghezza pari a 7.631 ± 0.002  ADU (il valore più basso di quello ottenuto per la camera astronomica ATIK314L+ è dovuto alla minor dinamica della Canon EOS 40D). Come atteso, mediando su 50 frame si ottiene una riduzione della larghezza pari a circa 7.86. Questo è paragonabile a quanto previsto teoricamente (7.07) dovuto molto probabilmente al maggior numero di pixel presenti rispetto al CCD precedentemente preso in esame.

Figura 5: a sinistra in azzurro la distribuzione dei Livelli di Luminosità di un sensore CMOS in un bias frame. In rosso il risultato di un fit gaussiano della distribuzione. A destra lo stesso grafico in scala semi-logaritmica.

In questo caso la distorsione dello spettro è più evidente rispetto alla CCD ATIK sintomo della presenza non trascurabile di rumori non casuali. Questo è evidenziato dal medesimo plot in scala semi-logaritmica dove si nota la presenza di code a bassi e alti valori di ADU. Per un’analisi dettagliata del rumore di lettura si è proceduto come in precedenza attraverso la sottrazione degli spettri e l’analisi di Fourier. In questo caso si osserva però un rumore a frequenza spaziale fissata di tipo sinusoidale (Figura 6).

Figura 6: spettro di Fourier ottenuto con il software ImageJ. In questo caso l’immagine non è uniforme e si vede un rumore di tipo sinusoidale con frequenza spaziale fissata.

Riassumendo quindi, sia la ATIK 314L+ che la Canon EOS 40D mostrano un bias frame dominato sostanzialmente dal rumore casuale, quindi riducibile mediando molti frame. Per quanto riguarda la componente non casuale (rumore di lettura) nel caso dell’ATIK non presenta pattern spaziali, mentre per la Canon è stata verificata la presenza di un rumore spaziale di tipo sinusoidale.

CONDIZIONI DI BIAS FRAME

Sino ad ora abbiamo considerato completamente trascurabile il rumore termico presente in ciascun bias frame. Tale assunzione è corretta dato che la variazione della larghezza della distribuzione dei Livelli di Luminosità nel bias frame in funzione della temperatura del sensore è praticamente trascurabile e stimabile intorno allo 0.52%/°C . Purtroppo però spesso non si considera un altro fattore molto importante. Al variare della temperatura del sensore anche l’elettronica ad esso connesso risponde in modo differente ed in particolare abbiamo una variazione del valore assoluto dell’offset in funzione della temperatura. Tale confronto è ben visibile in Figura 7 dove si riporta la distribuzione dei Livelli di Luminosità per bias frame effettuati a diverse temperature del sensore.

Figura 7: Distribuzione dei Livelli di Luminosità in bias frame effettuate a diverse temperature del sensore CCD ATIK 314L+ B/W.

In particolare si osserva una variazione della posizione dell’offset pari al 3.47% in soli 5°C di escursione da +10°C a +5°C. Tale variazione è stata osservata anche per lunghe esposizioni (con conseguente aumento della temperatura del sensore) come riportato nell’articolo Canon EOS 40D”.

Ulteriori test saranno effettuati per verificare nuovamente ed in modo più dettagliato questo tipo di fenomeno. Per il momento possiamo comunque affermare che, data la dipendenza dalla temperatura del valore dell’offset, è sempre consigliabile acquisire i bias frame nelle stesse condizioni ambientali presenti al momento della ripresa astronomica.

MEDIA O MEDIANA?

Sino ad ora abbiamo parlato di rumori, ovvero fenomeni fisici sempre presenti in ogni singolo bias frame. Esistono però altri fenomeni che possono verificarsi solo in alcuni bias frame e non in tutti. Questi fenomeni sporadici rischiano però di introdurre un segnale nella media spurio che al netto andrà a peggiorare la qualità dell’immagine astronomica finale. Un segnale sporadico è ad esempio quello generato dai raggi cosmici (per maggiori informazioni si legga l’articolo “I raggi cosmici e l’astrofotografia digitale”) i quali possono rilasciare parte della loro energia in uno o più pixel liberando un gran numero di elettroni.

Un modo per non considerare in una media i pixel che subiscono solo sporadicamente una grossa variazione del loro Livello di Luminosità è utilizzare invece della classica media aritmetica delle immagini, la mediana. Per maggiore informazioni sui vari algoritmi di media di immagini o più precisamente stacking delle immagini si legga l’articolo “Metodi di Stacking.

IRIS ED IL BIAS FRAME

IRIS permette di creare il master bias, partendo dai singoli bias frame. Il metodo utilizzato per combinare le singole immagini è il metodo della mediana. Per quanto riguarda la procedura operativa da seguire si rimanda alla Guida per l’elaborazione delle immagini astronomiche con IRIS. Chi fosse interessato allo studio metodico del bias frame o semplicemente vuole integrare questo articolo con ulteriori considerazioni e schede teniche, è pregato di invare una e-mail a ricerca@astrotrezzi.it