1

PixInsight | Calibrazione delle immagini astronomiche

Dopo aver effettuato le operazioni preliminari mostrate in Operazioni preliminari dovremmo ora avere tra le mani una cartella con il nome dell’oggetto ripreso strutturata secondo canali e tipo di frame (bias, dark, flat e light) ripresi. In questo post analizzeremo in particolare i processi che ci porteranno ad ottenere il master light frame ovvero l’immagine finale calibrata. Riportiamo quindi le procedure relative al solo canale di Luminanza. Ovviamente queste dovranno essere ripetute per ciascun canale (nel nostro esempio: Rosso, Verde e Blu).

Fortunatamente il processo di calibrazione, allineamento e somma può essere svolto automaticamente da PixInsight attraverso il potente script BatchPreprocessing che troviamo o nel tab Process Explorer oppure attraverso il menù Script → Batch Processing → BatchPreprocessing. A questo punto si aprirà una finestra di dialogo simile a quella riportata in Figura 1. In questa finestra potremo inserire i nostri frame di calibrazione nonché i light.

Figura 1: lo script BashPreprocessing.

Procediamo quindi con l’inserimento dei vari frame utilizzando i pulsanti Add Bias, Add Darks, Add Flats e Add Lights andando a selezionare volta per volta i nostri file nell’hard disk. Come vedete la classificazione in cartelle mostrata nel postOperazioni Preliminari fa si che questa operazione risulti il più semplice possibile. Una volta caricati i file bisognerà settare i parametri di combinazione. Riportiamo di seguito le impostazioni a seconda del frame considerato (ricordo che tali impostazioni sono visualizzabili agendo sui tab bias, darks, flats e lights).

BIAS FRAME

La natura del bias frame è stata analizzata in dettaglio nel post Il bias frame e pertanto rimandiamo il lettore a quell’articolo tecnico. Riassumendo possiamo dire che questo contiene le informazioni sull’offset dei singoli pixel ovvero sul valore di zero che questi assumono in assenza di radiazione luminosa. Generalmente questo valore rimane pressoché costante durante una sessione fotografica e in alcuni modelli di CCD può essere controllato tramite una regione del sensore detta overscan region. PixInsight permette di calibrare i bias utilizzando come riferimento questa regione che può essere settata spuntando la sezione Overscan del tab bias. Al momento non è noto se il modello ATIK 383L+ monocromatico possiede un’overscan region dato che non esistono documenti tecnici a riguardo forniti dall’azienda produttrice. Proprio per questo nel nostro caso non spunteremo la sezione Overscan (vedi Figura 2).

Figura 2: Settaggi dei bias frame.

Dopodiché PixInsight chiede la procedura da utilizzare per l’integrazione delle immagini (Image Integration). Tra quelli proposti quelli utili per la calibrazione delle immagini astronomici sono la media (Average) e la mediana (Median). Le due stime, nel caso dei bias, vanno teoricamente a coincidere dato l’elevato numero di frame acquisiti. In ogni caso malgrado sia previsto un sistema di cancellazione di fenomeni occasionali quali raggi cosmici, passaggio di aerei/satelliti o interferenze noto come Rejection algorithm, il metodo Median è consigliato in Combination in quanto è in grado di escludere, a prescindere, fenomeni transitori. Tra i metodi di rigetto di pixel spuri consigliamo il Winsorized Sigma Clipping. Ovviamente questo metodo è in grado di eliminare eventuali pixel caldi o freddi oltre a raggi cosmici (rari in un bias frame). I parametri di default ovvero 4.00 per Sigma low e 3.00 per Sigma high sono generalmente buoni.

DARK FRAME

Anche in questo caso possiamo applicare in Image Integration le stesse impostazioni del bias frame ovvero Median come Combination e Winsorized Sigma Clipping con i parametri di default come Rejection algorithm. Il tab darks ci propone però l’opzione Exposure tolerance ovvero la massima differenza in secondi tollerata per dire che due dark appartengono allo stesso gruppo di calibrazione. Ovviamente se avrete seguito alla lettera il post “Il dark frame” a questo punto dovreste avere dark frame con esattamente lo stesso tempo di esposizione e pertanto questa utility è inutile e il valore di default (di 10 secondi) può essere lasciato senza problemi. I parametri del tab darks sono riportati in Figura 3.

Figura 3: i parametri del tab darks dello script BatchPreprocessing. Facciamo notare come il tempo di esposizione dei dark frame sia riportato subito sotto il binning

FLAT FRAME

Per i flat frame le impostazioni sono le stesse utilizzate per i bias ed i dark frame, quindi in Image Integration bisogna settare Median come Combination e Winsorized Sigma Clipping come Rejection algorithm. I parametri sono riportati in Figura 4.

Figura 4: i settaggi del tab flats relativi allo script BashPreprocessing.

LIGHT FRAME (parte 1)

Questo script molto potente permette di ottenere il master light frame oppure i singoli light frame calibrati. Come abbiamo detto in precedenza il Rejection algorithm dovrebbe aver eliminato tutti i pixel caldi e freddi dai nostri frame di calibrazione. Questo è vero se i settaggi sono corretti ovvero se ad esempio i Sigma low e high del metodo Winsorized Sigma Clipping sono stati impostati correttamente. Questo ovviamente richiede del tempo e numerosi test dato che ogni camera e ripresa sono differenti. Proprio per questo PixInsight ha sviluppato la correzione cosmetica, attivabile spuntando il quadrato apply nella sezione Cosmetic Correction. Questo però non può essere fatto subito dato che è richiesto un Template icon, ovvero un oggetto che dica allo script BatchPreprocessing come ridurre i restanti pixel caldi o freddi rimasti. Procediamo quindi con la realizzazione del Template icon. Per fare questo però abbiamo bisogno del master dark e quindi è necessario fare un primo run dello script BatchPreprocessing.

Spuntiamo quindi il rettangolo Calibrate only in quanto non abbiamo ancora tutti gli ingredienti per realizzare il master light. Nella categoria Options togliete l’eventuale spunta da CFA images dato che le nostre riprese sono state effettuate con una camera CCD monocromatica. Togliete la spunta anche da Optimize dark frames dato che la nostra camera è raffreddata e quindi i dark (dovrebbero) essere stati ripresi tutti nelle medesime condizioni. Spuntate invece Generate rejection maps dato che queste serviranno per vedere come ha operato il Rejection algorithm ovvero avrete un’immagine in cui sono presenti i pixel esclusi nel processo di cancellazione dei fenomeni transitori. Spuntate up-bottom FITS che serve per definire quale è l’origine delle coordinate del file immagine. Nel caso up-bottom comune alla maggior parte delle camere (astronomiche e non) l’origine è nell’angolo in alto a sinistra. Per le camere monocromatiche il sistema di coordinate non è fondamentale ma lo diventa per quelle che possiedono una matrice di Bayer (ovvero sensori “a colori”). Eventualmente togliamo la spunta dai quadrati Use master bias, Use master dark, Use master flat. Clicchiamo infine due volte sull’immagine che riteniamo migliore in termini di qualità (inseguimento, rapporto segnale/rumore …) e come per magia apparirà il path nella categoria Registration Reference Image. Andiamo infine ad indicare a PixInsight quale sarà la cartella dove metterà i file calibrati nella categoria Output directory. I settaggi finali sono riportati in Figura 5.

Figura 5: i settaggi del tab lights relativi allo script BashPreprocessing.

A questo punto clicchiamo sul tasto Diagnostics al fine di verificare se tutto è stato settato correttamente, altrimenti seguite le indicazioni proposte. Se tutto è andato a buon fine dovreste visualizzare la scritta “Diagnostic completed OK.”. Clicchiamo quindi su Run e attendiamo (non poco!) che lo script BatchPreprocessing faccia il lavoro per noi. Al termine del processo si riaprirà la finestra dello script BatchPreprocessing ma nella directory di Output troveremo due cartelle frutto del lavoro di PixInsight: master e calibrated (vedi Figura 6).

Figura 6: i risultati prodotti dallo script BatchPreprocessing

Nella prima cartella troviamo il master bias, il master dark ed il master flat. Nella seconda invece troviamo i frame calibrati nelle rispettive sottocartelle flat e light. Dimentichiamoci al momento di questi e torniamo al nostro script BatchPreprocessing. Tenendo premuto il tasto sinistro del mouse trasciniamo il triangolino in basso a sinistra della finestra fino all’area di lavoro. Apparirà un’icona come mostrato in Figura 7. Cliccate su Exit e confermate per uscire.

Figura 7: l'area di lavoro una volta chiuso lo script BatchPreprocessing.

COSMETICA

Abbiamo ora tutti gli ingredienti per applicare la cosmetica ai nostri light frame ovvero identificare quei (spero) pochi pixel caldi/freddi che ancora sono presenti nei nostri frame malgrado il processo di calibrazione. Per fare questo utilizziamo lo script CosmeticCorrection disponibile come sempre nel Process Explorer oppure nel menù Process → ImageCalibration → CosmeticCorrection. Si aprirà quindi una finestra come quella mostrata in Figura 8.

Figura 8: lo script CosmeticCorrection

A questo punto cominciamo con lo spuntare il tab Use Master Dark ed andiamo a selezionare il master dark appena generato tramite lo script BaschPreprocessing. Spuntiamo inoltre i quadratini Enable nella categoria Hot Pixels Threshold e Cold Pixels Threshold (Figura 9).

Figura 9: Selezione del master dark nello script CosmeticCorrection.

Aprimo ora un light frame non calibrato (potremmo usare ad esempio il reference image ovvero quella con qualità migliore tra tutti i nostri light frame). Per farlo andiamo sul menù File → Open… . Una volta aperta l’immagine cliccate CTRL+A al fine di effettuare uno stretch automatico dell’immagine. Il risultato di queste operazioni è mostrato in Figura 10.

Figura 11: l'apertura di un light frame calibrato al fine di determinare i parametri dello script CosmeticCorrection

Premiamo ora i tasti ALT+N e selezioniamo una regione dell’immagine. Questa verrà contornata da un rettangolo verde e a sinistra della finestra dell’immagine verrà mostrato un tab con la scritta Preview01. In questo modo abbiamo creato una finestra di anteprima che possiamo visualizzare a tutta finestra cliccando su quest’ultimo tab (Figura 12).

Figura 12: la selezione di una preview per lo studio dello script CosmeticCorrection.

Torniamo ora alla finestra dello script CosmetiCorrection e clicchiamo sul pallino vuoto in basso a destra (Real-Time Preview). Si aprirà una nuova finestra che ci mostrerà l’effetto della cosmetica implementata dallo script CosmeticCorrection. Muoviamo ora il cursore Sigma di Hot Pixels Threshold verso sinistra finché gli ultimi pixel caldi residui non spariranno dall’immagine. Lo stesso lo facciamo con il Cold Pixels Threshold, muovendo il cursore Sigma verso sinistra (vedi Figura 13). Ora, come fatto per lo script BatchPreprocessing, portiamo cliccando sulla freccia in basso a sinistra CosmetiCorrection sullo spazio di lavoro, dopodiché possiamo chiudere tutte le finestre (quella del Real-Time Preview, dello script e del light frame).

Figura 13: impostazioni dello script CosmeticCorrection con relativa anteprima delle modifiche.

LIGHT FRAME (parte 2)

Facciamo doppio click sul Process01 presente nel nostro spazio di lavoro. Si aprirà una finestra. Cliccate una volta sul pallino pieno presente in basso a sinistra. Come per magia si riaprirà la finestra dello script BatchPreprocessing con le impostazioni che avevate settato precedentemente. A questo punto andate sul tab Lights e spuntate il quadratino Apply di Cosmetic Correction. Come Template icon selezionate Process02 ovvero quello relativo allo script CosmeticCorrection (nell’esempio è Process04, vedi Figura 14).

Figura 14: aspetto dello script BatchPreprocessing dopo aver definito la cosmetica con CosmeticCorrection.

A questo punto non ci resta che rimuovere il segno di spunta da Calibrate only e cominciare a settare i campi Image Registration e Image Integration. Clicchiamo quindi sulla prima freccia e ci si aprirà un nuovo campo dove ci viene chiesto il pixel interpolation ovvero il metodo utilizzato per allineare le immagini. PixInsight ci offre molte possibilità e nel caso di esigenze non specifiche consigliamo il metodo Auto (il programma decide quale è la migliore strategia) con i parametri settati di default ovvero Clamping threshold 0.30, Maximum stars 500 e Noise reduction Disabled. Spuntiamo anche il rettangolo Use triangle similarity. Cliccando sulla freccia rossa torniamo al campo di partenza. Da qui clicchiamo sulla freccia Image Integration e come combinazione utilizziamo Average o Median. Quale scegliere? Dipende da voi. Average mantiene un rapporto segnale/rumore più elevato di Median ma allo stesso tempo Median sopprime maggiormente raggi cosmici e fenomeni transienti (come passaggio di satelliti o aerei). Dato che però PixInsight offre la possibilità di impostare un Rejection algorithm (consigliato il solito Winsorized Sigma Clipping) che dovrebbe ridurre se non eliminare i fenomeni transienti, allora consigliamo come metodo di integrazione Average. I valori di Sigma low e high possono essere mantenuti ai valori di default pari rispettivamente a 4.00 e 3.00. Questi valori vanno regolati in funzione dell’immagine al fine di ottenere il risultato migliore.

Finalmente siamo giunti alla fine. Non ci resta che provare a cliccare ancora una volta su Diagnostics per verificare che tutte le impostazioni siano corrette e, in caso positivo, cliccare ancora una volta su Run. Una finestra vi ricorderà che i parametri dello script BatchPreprocessing vanno regolati bene per ottenere il massimo dalle nostre foto. Clicchiamo su Continue ed attendiamo che PixInsight abbia terminato il suo lavoro di calibrazione, allineamento e somma delle immagini astronomiche (vedi Figura 15).

Figura 15: La Process Console di PixInsight durante la fase di generazione del master light.

Al termine del processo si riaprirà di nuovo la finestra dello script BatchPreprocessing. Chiudetelo premendo Exit, confermate e chiudete tutte le altre finestre rimaste attive. Cancellate pure i processi sull’area di lavoro cliccandovi sopra con il tasto destro e quindi Delete Script Icon: ProcessX dove X sta per il numero di processo aperto. In questo modo la vostra area di lavoro dovrebbe essere completamente pulita da icone e finestre. Se verificate la cartella di Output, oltre alle cartelle originali e le calibrated e master (che ora contiene anche il master light) esiste la cartella registred contenente i light frame calibrati, cosmetizzati (li si trovano nella sottocartella cosmetized di calibrated/light) ed allineati.

RISULTATO FINALE

Non ci resta quindi che aprire il master light. Per fare questo cliccate su File → Open e selezionare il master light nella cartella master di Output. Verranno aperte tre finestre. La prima si chiama rejection high rappresenta i pixel rigettati perché di valore troppo elevato rispetto al valore centrale (ovvero quello atteso). La seconda, rejection low, rappresenta i pixel rigettati perché di valore troppo basso rispetto al valore centrale. La terza e ultima è il vero e proprio master light. In particolare, per ogni immagine premete CTRL+A. In rejection high dovreste individuare eventuali scie di aerei e satelliti rimossi dai light frame attraverso il processo di “rejection”. Riportiamo in Figura 16 il risultato ottenuto per il canale di luminanza L. Ovviamente questa procedura andrà rifatta per tutti i canali utilizzati (R,G e B).

Figura 16: A sinistra il master light. In centro il "rejection low" dove si vedono i bordi del sensore non funzionanti e a destra il "rejection high" dove sfortunamente (!) non sono passati aerei o satelliti.





PixInsight | Operazioni preliminari

Dopo una lunga notte passata al freddo sotto le stelle è giunto il momento di elaborare le nostre immagini astronomiche. Nei post relativi a PixInsight considereremo il caso in cui le immagini astronomiche sono state acquisite con una CCD monocromatica. Se tutto è andato per il verso giusto dovreste quindi avere nel vostro hard disk numerosi light, bias, dark e flat frame relativi a ciascuno dei tre/quattro canali che avete previsto di utilizzare, come ad esempio: Rosso (R), Verde (G), Blu (B), Luminanza (L), H-alpha (Hα), Ossigeno (OIII), Zolfo (SII), Luminanza filtrata (L|UHC, L|CLS, L|UHC-E,…) e molti altri.

Cominciamo quindi con l’ordinare i frame in cartelle e sottocartelle. In particolare create nella cartella con il nome dell’oggetto (ad esempio “M33”) le sottocartelle di canale che nel caso in esame (composizione LRGB) saranno “L”, “R”, “G” e “B”. In ogni sottocartella di canale create le sottocartelle di calibrazione “bias”, “dark”, “flat” e “light”. Spostate quindi i vostri file nelle relative sottocartelle e fate una copia di backup della cartella principale (vedi Figura 1).

Figura1: struttura della sottocartella ”L”. La cartella principale è ”M33” e contiene tutte le immagini riprese nella notte.

Ora che avete fatto ordine nel vostro PC ed avete messo al sicuro le vostre immagini non vi resta che aprire PixInsight. Il programma aprirà di default la finestra Process Console che vi darà il benvenuto mostrando le caratteristiche del programma e del vostro computer. Siamo quindi pronti per iniziare? Diciamo di si ma dato che non ci fidiamo di noi stessi è sicuramente buona consuetudine verificare che  binning e tempo di esposizione siano stati impostati correttamente per ogni categoria di frame (light e di calibrazione). Per fare questo utilizziamo il tab File Explorer e navighiamo nel nostro hard disk sfogliando i vari frame che andremo ad utilizzare. Per ogni frame verranno visualizzati i dati di scatto tra cui appunto Exposure e XBINNING, YBINNING ovvero il tempo di esposizione ed il binning orizzontale e verticale. In Figura 2 ad esempio è mostrato un light frame errato con tempo di esposizione di 480 secondi rispetto agli 800 di tutti gli altri light frame.

Figura 2: Esempio di light frame errato e che quindi dovrà essere escluso nei processi di calibrazione delle immagini astronomiche.

Una volta che siamo sicuri di quali sono i frame corretti, cominciamo a valutarne la qualità. Generalmente i frame di calibrazione (bias, dark e flat) sono tutti di buona qualità nel senso che durante le fasi di realizzazione dei rispettivi master frame esistono metodi per eliminare eventuali imperfezioni (come ad esempio la presenza di raggi cosmici o di fenomeni transienti). Per i light è invece importante studiare i singoli frame per capire se si è ottenuto del mosso o se delle nubi o velature hanno rovinato le nostre immagini. Per fare questo dobbiamo andare a “misurare” i nostri light frame e questo può essere fatto utilizzando lo script SubframeSelector eseguibile cliccando due volte sull’apposita icona nel tab Process Explorer (vedi Figura 3) oppure cliccando sul menù Script → Batch Processing → SubframeSelector.

Figura 3: Lo script SubframeSelector. Cliccando una volta sull'icona è possibile visualizzare la descrizione dello script.

Una volta cliccato sullo script si aprirà una finestra divisa in varie sezioni. La prima, About, fornisce alcune informazioni generali sullo script. Passiamo quindi alla seconda, Target Subframes che ci permette di indicare quali saranno i light frame da analizzare (vedi Figura 4). Nel nostro caso selezioniamo (attraverso il pulsante Add Files…) i light frame relativi al canale di luminanza L. Ovviamente questa operazione andrà effettuata per ciascun canale ripreso (nel nostro caso L, R, G e B). Spuntando Full paths è possibile visualizzare il percorso completo dei files. Consigliamo di spuntare anche Use file cache che permette di mantenere in  memoria alcuni dati utili nel caso si voglia analizzare di nuovo le immagini selezionate. Questo permette di minimizzare i tempi di elaborazione di PixInsight.

Figura 4: Lo script SubframeSelector ed in particolare la sezione ''Target Subframes''.

Nella sezione System Parameters dobbiamo inserire i dati relativi alla nostra camera di ripresa, in particolare: il Subframe scale ovvero la scala di ripresa misurata in arcosecondi per pixel (vedi il post “Determinare il fattore di scala”) il Camera gain ovvero il guadagno della nostra CCD (vedi il post “Il guadagno di una camera digitale”) il Camera resolution espresso in bit (questo è riportato nelle specifiche tecniche della camera), il Site local midnight ovvero l’ora della mezzanotte UT misurata nel paese dove è stata ripresa l’immagine. Nel caso dell’Italia è 1, dato che siamo a +1 ora dal meridiano di Greenwich. Scale unit va settata in arcsecondi e Data unit in elettroni. Per la camera ATIK 383L+ monocromatica i valori da settare (binning 1×1) sono riportati in Figura 5.

Figura 5: I settaggi "System Parameters" per una ATIK 383L+ monocromatica in binning 1x1.

A questo punto lasciamo invariati i settaggi delle categorie Star Detection and Fitting, Expressions e Output e clicchiamo sul tasto Measure. PixInsight comincerà così a misurare le nostre immagini come visibile nella finestra Process Console che si aprirà automaticamente appena cliccato su Measure. I risultati dell’analisi saranno riportati nelle categorie Table e Plots e potranno (dovranno) essere salvati su file cliccando sui tasti “Save Table As…” e “Save Plot As…” (vedi Figure 6 e 7).

Figura 6: La categoria Table dove sono mostrati i risultati numerici dell'analisi.

Figura 7: La categoria Plots dove sono mostrati i grafici relativi all'analisi dei frame.

Per concludere la procedura di calcolo clicchiamo sul pulsante Output Maps ed attendiamo che PixInsight faccia i suoi calcoli. A questo punto possiamo chiudere lo script cliccando su Dismiss e confermandone la chiusura.

Se tutto è andato a buon fine a questo punto nella vostra sottocartella M33/L/light dovreste avere oltre ai light frame anche un file di excel che contiene la tabella con i dati numerici dell’analisi, un file FIT con i grafici associati ed un file FIT per ogni light frame contenente le mappe d’analisi. Vediamo ora quali, di tutte queste informazioni, ci servono per identificare i frame di qualità scarsa ossia da escludere nel processo di calibrazione.

Al fine di identificare il passaggio di nuvole o velature utilizziamo la grandezza fisica Median ovvero la mediana del numero di elettroni accumulati nei pixel del sensore. Se una nuvola o una velatura è passata nel campo di ripresa, questa può o aumentare la luminosità del soggetto nel caso di luoghi inquinati oppure diminuirla nel caso di luoghi bui. Apriamo quindi il grafico relativo al parametro Median utilizzando o la categoria Plots dello script subframeSelector (in questo caso non dovevate chiuderlo) oppure aprendo con PixInsight (File → Open…) il file dei Plot selezionando quello relativo al parametro Median. Nel nostro il risultato dell’analisi è riportato in Figura 8.

Figura 8: la mediana degli elettroni accumulati nei pixel del sensori relativa ai light frame del canale L.

Come si vede dal grafico tutte le immagini hanno mantenuto lo stesso valore di mediana. Piccole variazioni come quelle riportate possono essere dovute ad una variazione di inquinamento luminoso, assorbimento atmosferico o fenomeni di minore importanza.

Al fine di identificare invece eventuali problemi di inseguimento utilizziamo la grandezza Eccentricity ovvero la mediana dell’eccentricità delle stelle individuate da PixInsight nel frame. Sia data una stella ellittica e siano a il diametro maggiore e b il minore, l’eccentricità è data dalla radice quadrata di 1-b^2/a^2. Quindi se le stelle sono circolari e quindi a = b abbiamo che l’eccentricità è 0, mentre se la stella è oblunga l’eccentricità è diversa da zero. Stelle con valore di eccentricità inferiore a 0.42 sono ritenute circolari. Il risultato relativo al nostro caso, visualizzabile nella categoria Plots o nel relativo file FIT, è mostrato in figura 9.

Figura 9: la mediana dell’eccentricità relativa ai light frame del canale L.

L’immagine mostra che l’eccentricità per i frame 1, 2 e 4 si è mantenuta sempre inferiore a 0.67 mentre per i frame 3 e 5 è superiore a 0.80. Questo significa che questi ultimi presentano del mosso evidente. Un po’ meno mossa è l’immagine 4 mentre la 1 e la 2 hanno eccentricità media (mediana) intorno a 0.60, abbastanza tipica per un telescopio Newton dovuta alla presenza di coma residuo. Per verificare quanto detto possiamo aprire la mappa relativa al frame 2 (sempre cliccando su File → Open…) ed in particolare considerare quella dell’eccentricità. Per comodità l’abbiamo sovrapposta all’immagine stessa (Figura 10). Si noti come il massimo valore di eccentricità è ottenuta in prossimità dell’angolo del campo dove è presente maggior coma residuo.

Figura 10: la mappa di eccentricità sovrapposta al relativo light frame. Per la gran parte del fotogramma l'eccentricità mediana è pari a circa 0.60

Infine verifichiamo una variazione del fuoco durante il processo di ripresa delle immagini. Per fare questo utilizziamo la quantità fisica FWHM ovvero la mediana dell’ampiezza a metà altezza delle stelle rivelate da PixInsight nel frame considerato. Visualizziamo quindi il grafico FWHM dalla categoria Plots o aprendo il file FIT associato. Il risultato per i frame in esame è riportato in Figura 11.

Figura 11: la mediana della FWHM relativa alle stelle rivelate da PixInsight nei singoli frame.

Come si vede dal grafico la FWHM è aumentata nel tempo mantenendosi comunque entro valori accettabili. In questo caso i dati sono inficiati da un continuo e progressivo peggioramento nella qualità dell’inseguimento con aumento dell’eccentricità e quindi della FWHM associata alle stelle. Anche in questo caso si può notare come i frame 3 e 5 siano i peggiori. Piccole variazioni di FWHM sono possibili a seguito di una variazione del seeing. Se osserviamo la mappa associata al frame numero 1 è possibile vedere (Figura 12) come le stelle siano puntiformi in gran parte del campo inquadrato sintomo di una complessiva buona qualità dello strumento ottico.

Figura 12: Mappa della mediana della FWHM relativa al frame 1.

La mappa mostra come la FWHM sia pari a 4.0/4.2 arcsec nella regione centrale del fotogramma, praticamente 4 volte il potere risolutivo teorico del telescopio (l’immagine risulta comunque sottocampionata). Questo mostra come (vedi post “Il potere risolutivo”) la turbolenza atmosferica e la qualità ottica contribuiscono in maniera importante alla risoluzione complessiva del nostro setup astronomico.

Come detto precedentemente, questa procedura preliminare di verifica dei frame deve essere eseguita per ogni canale che vogliamo utilizzare al fine di comporre l’immagine finale. Fatto questo siamo pronti per passare alla fase di “Calibrazione delle immagini astronomiche”.




Il Master Bias Frame

Nel post Il bias frame, abbiamo analizzato la natura di questo particolare tipo di scatto utile per la calibrazione delle nostre immagini astronomiche. In particolare abbiamo visto come esso contenga informazioni sull’offset associato alla nostra camera di ripresa oltre che sulla struttura del rumore elettronico non casuale. Ovviamente il tutto condito da rumore elettronico casuale a media nulla.

Proprio quest’ultimo abbiamo imparato a ridurlo mediando numerosi bias frame. Infatti, essendo per definizione il rumore casuale a media nulla, è facilmente eliminabile mediando il valore del livello di luminosità di ciascun pixel su un certo numero di frame. La questione aperta, oggetto di questo post è: “Quanti scatti mediare?”. La risposta è sempre la solita che si trova su libri e siti di astrofotografia ovvero più scatti vengono mediati e migliore è il risultato ottenuto. Inoltre si trova erroneamente riportato che il rumore del bias frame mediato o master bias frame è inversamente proporzionale alla radice del numero di frame utilizzati nella media. Questo non è vero in generale e scopriremo il perché dal punto di vista statistico.

Innanzitutto supponiamo di considera un singolo pixel soggetto da solo rumore elettronico casuale. Questo significa che se consideriamo i valori di luminosità BL(x,y,i) assunti dal singolo pixel di coordinate (x,y) in un certo numero di frame N, questi saranno distribuiti secondo una distribuzione gaussiana centrata in un certo valore medio BL(x,y). Lo stesso ovviamente si può dire per ogni pixel del sensore e quindi per ogni valore della coordinata (x,y). Se ora quindi effettuiamo la media aritmetica dei vari bias frame, otterremo per ogni pixel il valore medio di luminosità BL(x,y). Se ora costruiamo la distribuzione dei livelli di luminosità BL(x,y) allora otterremo ancora una distribuzione gaussiana con valore medio BL che, se tutto è stato effettuato correttamente, corrisponde all’offset della nostra camera di ripresa. La distribuzione dei BL(x,y) è gaussiana e rappresenta la distribuzione dei valori medi di luminosità assunta da un certo numero N di bias frame. Essendo la distribuzione della media, questa ha larghezza σ pari al readout noise diviso per la radice di N. Il rumore elettronico casuale quindi scala come la radice quadrata del numero di bias frame utilizzati.

Purtroppo però il nostro bias frame non contiene solo rumore elettronico casuale associato all’elettronica ed al processo di conversione analogico/digitale (ADC) ma anche del rumore elettronico non casuale come rumori a pattern fisso o transienti. Questi andranno così a modificare la nostra distribuzione BL(x,y) che non scalerà quindi più con la radice quadrata del numero di frame. Trascurando i rumori transienti, di secondaria importanza ed eliminabili utilizzando ad esempio la mediana dei frame invece della media, i rumori a pattern fisso (righe, bande, …) non sono a media nulla e pertanto non vengono eliminati nel processo di media dei singoli bias frame. Praticamente più che di rumore dovremmo parlare di segnale.

Rumori casuali e non casuali vanno così a sommarsi in quadratura dando luogo alla larghezza σ complessiva della distribuzione dei valori di BL(x,y). Quando effettuiamo la somma di più bias frame avremo che la componente “casuale” di σ andrà a scalare con la radice quadrata del numero di bias frame, mentre la componente “non casuale” rimarrà fissa ad un determinato valore σ0. Nel caso ipotetico di avere un numero infinito di bias frame allora  σ coinciderà esattamente con σ0.

Al fine di dimostrare quanto appena detto, abbiamo effettuato la mediana di un certo numero di bias frame N calcolando di volta in volta la larghezza della distribuzione dei livelli di luminosità del master bias frame (ovvero ricordiamo ancora una volta, del frame ottenuto come media/mediana di N bias frame). La camera utilizzata è una ATIK 383L+ monocromatica in bin 1×1 raffreddata a -16.9°C ed una Canon EOS 500D. Il risultato ottenuto è mostrato in Figura 1.

Figura 1: quadrato della larghezza (RMS) della distribuzione dei livelli di luminosità BL(x,y) del master bias frame in funzione dell'inverso del numero di frame utilizzati, per camera CCD ATIK383L+ monocromatica e CMOS Canon EOS 500D

Dal fit effettuato sui punti di Figura 1 possiamo subito notare come il quadrato di σ sia funzione di 1/N (ovvero σ scala come la radice del numero di conteggi) e presenti un asintoto che corrispondente quindi al quadrato di σ0. Se mediamo quindi un numero di frame sufficientemente elevato (diciamo > 10, anche se > 50 è decisamente consigliato) allora il contributo a σ dovuto al rumore casuale diviene praticamente trascurabile.

Ricordiamo inoltre che, nel caso delle DSLR, σ è funzione del numero di ISO utilizzato dato che le condizioni di funzionamento dell’elettronica cambiano al variare della sensibilità utilizzata. Figura 2 mostra ad esempio la variazione di σ  in funzione degli ISO per una fotocamera Canon EOS 40D. Si può facilmente notare come questa incrementi in modo praticamente lineare all’aumentare della sensibilità.

Figura 2: larghezza della distribuzione dei livelli di luminosità BL(x,y) del bias frame in funzione degli ISO di una DSLR Canon EOS 40D

Concludendo quindi possiamo affermare che per ottenere un buon master bias frame è necessario acquisire un numero di frame N sufficientemente elevato da ridurre la componente di rumore casuale presente nell’immagine. Sono i rumori elettronici non casuali a determinare la larghezza minima della nostra distribuzione e pertanto un N eccessivamente grande non comporta nessun miglioramento della qualità del master bias frame. Purtroppo molto spesso i rumori non casuali sono intrinsechi dell’elettronica e pertanto difficilmente riducibili. Ricordiamo infine che bassi valori di sensibilità (ISO) sono consigliabili dato che posseggono un valore di σ inferiore. Questo non coincide con il readout noise dato che per ottenere tale valore dobbiamo sottrarre al bias frame la componente non casuale del rumore (ottenibile mediando un numero elevato di bias frame escluso quello in esame). Per maggiori informazioni sul readout noise consigliamo la lettura del post Il bias frame.




Il Flat Frame

Negli articoli “Il bias frame” ed “Il dark frame” abbiamo visto come correggere il valore di luminosità assunto da ciascun pixel del nostro sensore a semiconduttore al fine di ottenere una risposta omogenea all’assenza di luce. In questo modo, in assenza di luce, il nostro elemento fotosensibile assumerà livello di luminosità pari a 0 ADU. Ma cosa succede ora se cominciamo a mandare dei fotoni sul sensore (si veda “Un Universo di fotoni”)? Quello che ci aspettiamo, una volta corretta la nostra immagine con il master dark ed il master bias, è che:

Livello di Luminosità = valore teorico + rumore elettronico casuale

Questo sarebbe vero se tutti i pixel rispondessero allo stesso modo alla radiazione luminosa. Purtroppo la situazione è più complicata e ogni pixel produce un numero di elettroni diverso dall’altro quando inondato da una sorgente luminosa uniforme. Perché?

I motivi possono essere molti. Prima di tutto ciascun elemento fotosensibile, a causa principalmente delle piccole dimensioni e quindi della difficoltà tecnologica nella realizzazione dello stesso, è diverso l’uno dall’altro. Così se inondiamo due pixel del nostro sensore a semiconduttore con una sorgente uniforme, questi forniranno due livelli di luminosità leggermente (si spera) diversi.

Inoltre non tutte le regioni del sensore sono sensibili allo stesso modo per motivi di costruzione ed infine la luce che ci giunge da una sorgente uniforme deve passare da un sistema ottico che per definizione non ha un campo perfettamente piano, ovvero ai bordi del campo si ha un maggiore assorbimento della radiazione luminosa (vignettatura). Se mettiamo tutti in formule, ciascun pixel avrà quindi livello di luminosità dato da:

Livello di Luminosità = (valore teorico x flat) + rumore elettronico casuale

dove con flat abbiamo indicato un coefficiente di proporzionalità diverso da pixel a pixel. Come ottenere questo coefficiente? La risposta è quantomai semplice. Basta inondare il sensore con una sorgente di luce uniforme. Questa dovrebbe generare un livello di luminosità uguale in ogni elemento fotosensibile. Ovviamente per quanto detto prima questo non succederà ed il valore di luminosità di ciascun pixel sarà pari a quello teorico per il flat. Ecco fatto quindi! Riprendere un’immagine di una sorgente luminosa coincide con il determinare per ciascun pixel il valore del coefficiente flat. Tale scatto è definito flat frame.

Sorgenti luminose uniformi ne esistono varie in commercio. Alcuni strumenti note come flat field generator o flat box sono in grado di fornire sorgenti di luce uniformi e con uno spettro praticamente bianco. Questo permette di avere in una sola esposizione un buon flat in tutti i canali RGB (vedi Costruire un’immagine a colori), fatto importante per sensori a colori come i CMOS delle DSLR. Altre sorgenti di luce approssimativamente uniformi sono i monitor dei computer, il cielo diurno, una maglietta bianca sull’ottica illuminata con una torcia, un muro o un foglio bianco. Lasciamo a voi la fantasia di trovare delle buone sorgenti di luce uniforme. In questi casi bisogna prestare attenzione a non riprendere le frequenze delle lampade (appaiono come bande chiare e scure nello scatto) o campi non perfettamente uniformi.

Trovata la sorgente di luce uniforme è necessario scattare con gli stessi ISO (bin) della ripresa dell’oggetto astronomico e soprattutto con la stessa messa a fuoco. Infatti un pixel potrebbe non assumere il valore di luminosità di un altro a seguito della presenza di polvere o macchie sul sensore. Tali macchie cambiano forma e intensità di assorbimento della luce al variare della messa a fuoco. Questo spiega il perché la messa a fuoco del flat frame deve essere la stessa dello scatto di ripresa dell’oggetto astronomico.

Cosa dire invece del tempo di esposizione? Questo va determinato in modo che il picco di luminosità del flat frame, che rappresenta il valore teorico in ADU fornito dalla sorgente di luce uniforme, risulti al centro dell’istogramma. Per fare questo è possibile utilizzare l’utility INFO presente sulle DSLR al fine di visualizzare sullo schermo della fotocamera l’istogramma relativo allo scatto oppure utilizzando software di elaborazioni delle immagini. Se usate IRIS per elaborare immagini CCD ricordatevi di sottoesporre il flat data la compressione in bit necessaria per elaborare l’immagine. Anche il flat frame ovviamente non è privo di errori ed il suo livello di luminosità è dato da:

Livello di Luminosità = valore teorico + rumore elettronico non casuale + offset + rumore termico + rumore elettronico casuale

 I bias frame utilizzati per la correzione del dark e della ripresa dell’oggetto astronomico possono essere utilizzati anche per correggere il flat ovviando così al rumore elettronico non casuale ed all’offset. Per ovviare al rumore termico è necessario riprendere i dark frame ma utilizzando come tempo di ripresa il tempo di esposizione del flat e non quello di ripresa dell’oggetto astronomico. Il rumore elettronico casuale invece può essere ridotto sommando (mediando) più flat frame. Una volta corretto il flat frame e mediati i flat frame corretti (master flat frame) abbiamo:

Livello di Luminosità [mediato su N scatti] = valore teorico = flat

ottenendo così il coefficiente flat per ciascun elemento fotosensibile del nostro sensore a semiconduttore. I master flat presentano la stessa struttura sia nel caso di CCD che CMOS. Riportiamo pertanto un esempio di flat frame ripreso con una Canon EOS 500D modificata Baader (vedi La “modifica Baader” per DSLR) ed il relativo istogramma RGB. Come si vede dalle immagini, la sorgente luminosa generata dal flat field generator utilizzato non è perfettamente bianca. Ricordiamo infine che seppur in minima parte, la temperatura e l’umidità possono modificare le condizioni di ripresa dei flat frame. Pertanto consigliamo di riprendere tali scatti direttamente sul campo al termine della sessione astrofotografica.

Figura 1: esempio di flat frame acquisito con una DSLR modello Canon EOS 400D modificata Baader.

Figura 2: istogramma per i canali RGB relativo al flat frame riportato in Figura 1.

 




Il Dark Frame

Nell’articolo “Il Bias Frame” abbiamo visto come un sensore a semiconduttore (CCD e CMOS) risponde al buio, ovvero alla totale assenza di fotoni. Abbiamo così imparato che in questo caso, il livello di luminosità di un pixel è dato dai seguenti contributi:

Livello di luminosità = valore teorico + offset + rumore termico + rumore elettronico casuale + rumore elettronico non casuale

Il Bias Frame è definito come “scatto veloce” con tempo di esposizione paragonabile a zero e pertanto con rumore termico nullo. Cosa succede se ora invece di effettuare uno “scatto veloce” al buio ne effettuiamo uno lento? In questo caso gli elettroni di origine termica, emessi in modo continuo dall’elemento a semiconduttore, andrebbero a sommarsi durante il tempo di esposizione producendo un rumore in un certo senso “proporzionale” al tempo di esposizione. Dal punto di vista teorico questo andrà a costituire una coda ad alti valori di livelli di luminosità. Per sensori di tipo CCD il gioco finisce qui, mentre la faccenda si complica nel caso di CMOS dove la temperatura del sensore non è generalmente controllata (se non nei casi delle DSLR CentralDS). Infatti, con l’aumentare del tempo di esposizione, e posa dopo posa, la temperatura del sensore CMOS varia così come l’emissione di elettroni termici in ciascun elemento fotosensibile. Il risultato complessivo è che ciascuna posa di buio risulta lievemente diversa. A questa variazione della temperatura dell’elemento a semiconduttore bisogna aggiungere anche la possibilità che la temperatura ambiente cambi durante la notte.

Indichiamo quindi con il termine rumore termico l’aumento del livello di luminosità associato all’emissione di elettroni termici, sia questa costante nel caso di sensori a temperatura controllata o variabile nel caso di DSLR tradizionali o raffreddate esternamente.

IL DARK FRAME

Il discorso fatto per in precedenza è riferito ad un solo elemento a semiconduttore: può essere esteso a tutta la matrice di fotoelementi che costituiscono il sensore? In linea generale si, ma dato che l’emissione termica (così come il bias) è diversa per ogni elemento a semiconduttore, il valore di luminosità di buio sarà differente da pixel a pixel. Data un’immagine di buio è quindi necessario sapere quale è il valore dell’offset, l’eventuale rumore elettronico non casuale ed il rumore termico di ciascun pixel, in modo che se sottratto all’immagine “lenta di buio” si otterrà una matrice di pixel con livello di luminosità pari a 0 ADU. Solo in questo modo se durante la ripresa di un oggetto celeste non arriveranno fotoni sull’elemento fotosensibile corrisponderà ad una luminosità pari a 0 ADU.

Prendiamo pertanto la nostra macchina fotografica digitale (DSLR) o la nostra camera CCD astronomica e poniamo il tappo di fronte all’ottica al fine di non far arrivare fotoni sul sensore ricreando pertanto la condizione di buio. Settiamo il tempo di esposizione della nostra DSLR o camera CCD astronomica pari a quello che verrà utilizzato per la ripresa dell’oggetto celeste (vedi il post “Il Light Frame”). Ricordiamo che per le reflex dobbiamo impostare anche gli stessi ISO utilizzati per riprendere la nostra immagine astronomica al fine di porsi nelle stesse condizioni di scatto (la catena elettronica funziona in modo diverso a seconda degli ISO impostati). Per lo stesso motivo anche il binning della nostra camera CCD non dovrà essere modificato. Con questi settaggi si riprendano un certo numero di immagini noti come dark frame.

Per calibrare un’immagine astronomica in modo che un pixel assuma un livello di luminosità pari a 0 ADU è necessario sottrarre all’immagine stessa l’offset, i rumori elettronici non casuali e il rumore termico. Questo può essere effettuato facilmente dato che tutte queste informazioni sono contenute nel dark frame. In particolare definito master dark frame la media dei singoli dark frame, il livello di luminosità di ciascun pixel dell’immagine astronomica calibrata sarà:

Livello di Luminosità = valore assunto dal pixel – master dark frame

Ecco quindi che se effettuiamo una ripresa della galassia di Andromeda e abbiamo un pixel che non viene raggiunto da nessun fotone (ad esempio un pixel del fondo cielo), allora questo assumerà un livello di luminosità pari, per quanto detto prima:

Livello di luminosità = valore teorico + rumore elettronico casuale + master dark

Ecco quindi che se all’immagine della galassia di Andromeda sottraiamo il master dark frame, otteniamo che il pixel privo di fotoni avrà un livello di luminosità pari a:

Livello di luminosità = valore teorico + rumore elettronico casuale

Dove il rumore elettronico casuale diviene prossimo a zero mediando un certo numero N di immagini riprese nelle stesse condizioni di scatto ovvero

Livello di luminosità [mediato su N scatti] = valore teorico

Scattare un dark frame però richiede molto tempo ed ottenere una statistica molto elevata può risultare complicata. Infatti ricordiamo che i dark frame vanno ripresi nelle stesse condizioni di scatto dell’immagine astronomica. Durante la nostra sessione astrofotografica dobbiamo quindi, in caso di fotocamere digitale prive di controllo della temperatura del sensore, prevedere di lasciare del tempo per acquisire un certo numero minimo di dark frame. Purtroppo nel tempo impiegato per riprendere un dark frame otteniamo più di 100 bias frame. Quindi malgrado non contenga informazioni sul rumore termico, il (master) bias frame è in grado di stimare con precisione statistica superiore il valore dell’offset e di eventuali rumori elettronici non casuali presenti nella ripresa rispetto al (master) dark frame. Diviene pertanto conveniente separare i due contributi e quindi creare un master dark che contiene il solo rumore termico medio ed un master bias che contiene informazioni sull’offset e sul rumore elettronico non casuale. Quindi ricordando che nel dark, il valore di luminosità di ciascun pixel è pari a

Livello di luminosità = master bias + rumore termico + rumore elettronico casuale = dark

Allora possiamo identificare la sola componente di rumore termico medio come:

rumore termico + rumore elettronico casuale = dark – master bias

e quindi successivamente mediando su un numero N  di scatti è possibile ridurre a zero il rumore elettronico casuale ottenendo il rumore termico medio.

Riassumendo, per calibrare correttamente le nostre immagini astronomiche sfruttando al meglio le informazioni che possiamo ricavare dal master bias frame, descritto nel post “Il Bias Frame”, e dai dark frame dobbiamo calcolare il rumore termico medio che con abuso di notazione viene anche chiamato master dark frame (creando ovviamente confusione):

rumore termico medio = MEDIA (dark frame – master bias frame) = master dark frame

e questo contiene tutte le informazioni sull’emissione termica di elettroni da parte di ciascun fotoelemento del sensore a semiconduttore. Il master bias frame conterrà invece tutte le informazioni relative all’offset e ai rumori elettronici di natura non casuale. Ecco quindi che in un’immagine di buio, ciascun pixel assumerà il seguente livello di luminosità:

Livello di luminosità [mediato su N scatti] = master bias frame + master dark frame

PIXEL CALDI E PIXEL FREDDI

Sino ad ora abbiamo parlato del rumore intrinseco che ciascun elemento a semiconduttore possiede. Esiste però la possibilità che alcuni pixel funzionino in maniera del tutto anomala rispetto agli altri. In particolare la maggior parte di questi posseggono un comportamento quantizzato, ovvero o rimangono sempre ad un livello di saturazione o rimangono completamente spenti. Nel primo caso si parla di pixel caldi mentre nel secondo caso di pixel freddi. Pixel caldi e freddi vanno “sottratti” da ciascuna immagine astronomica dato che introducono un segnale “fittizio”. In questo caso più che sottrazione si dovrebbe parlare di sostituzione. Infatti il livello di luminosità dei pixel caldi e freddi viene sostituito con il valore 0 ADU che è quello che dovrebbe assumere, dopo la calibrazione, un pixel che non riceve radiazione luminosa. Dato che i pixel freddi hanno livello di luminosità pari a 0 ADU, è praticamente inutile una loro identificazione, visto che la sostituzione non avrebbe nessun effetto. Ecco pertanto che la maggior parte dei software astronomici specializzati nell’elaborazione delle immagini prevedono una funzione di ricerca e quindi sostituzione, dei soli pixel caldi.

Esistono ora dei pixel che funzionano in modo anomalo ma non sono pixel caldi e freddi? Purtroppo si. Generalmente non sono molti e vengono identificati (e quindi eliminati) dai software astronomici come pixel caldi. Questi pixel noti come “pixel riscaldati” (warm pixel) sono pixel che generano un rumore termico con un tasso superiore rispetto a quelli tradizionali portandoli, in tempi di esposizione sufficientemente lunghi o a seguito di un aumento della temperatura del sensore, a saturazione.

Uno studio dei pixel riscaldati è progetto di ricerca per ASTROtrezzi.it. Chi fosse interessato è pregato di inviare un e-mail all’indirizzo ricerca@astrotrezzi.it   

Riportiamo di seguito lo studio del dark frame per una ATIK 314L+ B/W (sensore CCD) e per una Canon EOS 40D (sensore CMOS).

ATIK 314L+ B/W

Cominciamo con il dire che la CCD ATIK 314L+ B/W è una camera astronomica raffreddata da cella di Peltier a temperatura controllata. Questo significa che durante gli scatti la temperatura del sensore viene mantenuta costante da un sistema di controllo elettronico. Questo fatto è dimostrato riprendendo un certo numero di dark frame e confrontati. Il confronto è illustrato in Figura 1 e mostra come la distribuzione dei livelli di luminosità non vari da una posa ad un’altra.

Figura 1: Confronto tra quattro dark frame ripresi in successione uno dopo l’altro. Come si vede le distribuzioni sono identiche indice di una temperatura costante del sensore durante la ripresa

Data l’ampia dinamica e la ridotta corrente di lettura, una CCD è maggiormente sensibile alla corrente di buio o meglio al rumore termico. In particolare dato che la quantità di ADU indotti dal rumore termico aumenta all’aumentare del tempi di esposizione, quello che succede è una traslazione netta dell’offset all’aumentare del tempo di esposizione. Ecco quindi che in maniera più marcata rispetto ai sensori CMOS abbiamo uno spostamento dell’offset a causa dell’aumento del rumore termico integrato. Questo è visibile in Figura 2 dove si vede la differenza tra il bias frame ed un dark frame da 1000 secondi (quindi un periodo di integrazione, tempo di esposizione, un milione di volte più lungo).

Figura 2: Confronto tra bias e dark frame. Lo spostamento dell’offset è dovuto sostanzialmente al tempo di integrazione del rumore termico.

La sensibilità dei CCD al rumore termico o se vogliamo l’aumento della dinamica di questi tipi di sensori rispetto ai CMOS si riflette in una “non ottimale” sottrazione del master bias frame dai dark. In particolare dato che l’offset del bias è diverso da quello del dark, La sottrazione produce una curva che non risulta centrata a zero ADU come dovrebbe ma ha un massimo leggermente spostato (vedi Figura 8). In ogni caso, un eventuale stretching dell’istogramma permetterebbe di sistemare il tutto ottenendo quanto atteso teoricamente. Un esempio di rumore termico (master dark frame) effettuata su una singola posa è visibile in Figura 3.

Figura 3: esempio di master dark frame acquisito con una CCD astronomica modello ATIK 314L+ B/W. Si noti la distribuzione uniforme del segnale termico.

CANON EOS 40D

In questo post ci concentreremo principalmente sui sensori CMOS, dato che escludendo i modelli CentralDS, in tutti gli altri casi risultano privi di sistemi di controllo della temperatura (tra cui la Canon EOS 40D in esame). Questo rende complessa la descrizione del dark frame nel caso di reflex digitali. In primo luogo un rivelatore a semiconduttore, se non raffreddato, varia la sua temperatura durante la fase di funzionamento. Dato che gli scatti, siano essi immagini astronomiche o dark frame, avvengono in successione, quello che succede è che la temperatura dell’elemento fotosensibile va via via aumentando così come il rumore termico da essa indotto. L’effetto globale è quello della formazioni di code ad alti (e bassi) valori di ADU come visibile in Figura 4. Malgrado questo, gran parte dei pixel si comportano correttamente mantenendo costante la quantità di rumore termico ed aumentandone soltanto le fluttuazioni statistiche. Questo è visibile in Figura 5.

Figura 4: variazione della distribuzione dei livelli di luminosità del dark frame in funzione del numero di scatti successivi ossia della temperatura del sensore

Figura 5: malgrado l’aumento della larghezza dell’offset, la maggior parte dei singoli pixel si comportano correttamente mantenendo costante il suo valore.

Se però ora calcoliamo la quantità di ADU complessivi dell’immagine e la dividiamo per il numero di pixel del sensore, otteniamo quello che potremmo chiamare livello di luminosità media per pixel. In altre parole quello che andiamo a misurare è la quantità di ADU che mediamente possiede ciascun pixel, ovvero un’approssimazione dell’offset. Se il rumore indotto dai singoli fotoelementi fosse costante, allora il livello di luminosità medio per pixel non dovrebbe variare da scatto a scatto. L’aumento di temperatura invece provoca un aumento del rumore termico che si traduce quindi in un aumento del livello di luminosità medio per pixel. L’andamento per una successione di 8 dark frame da 7 minuti a 800 ISO, ripresi in successione uno dopo l’altro, è illustrato in figura 6. Come si vede, dopo un gradiente iniziale dovuto al riscaldamento “veloce” del sensore, successivamente l’aumento del livello di luminosità media in funzione della temperatura è lineare (con coefficiente di correlazione pari a 0.97) pari a 2.6821 ADU/°C.

Figura 6: aumento del livello di luminosità media per pixel in funzione della temperatura del sensore per dark frame da 7 minuti a 800 ISO acquisiti in rapida successione.

La figura 6 dovrebbe farci riflettere sul fatto che quando riprendiamo delle immagini astronomiche con una reflex digitale, il rumore termico ad essa associato non è costante e varia da posa a posa. Cosa possiamo fare? Purtroppo poco. L’unica possibilità è lasciare un periodo di tempo tra una posa e la seguente in modo da permettere al sensore di raffreddarsi. Ricordiamo comunque che il livello di luminosità media per pixel è variata in 8 dark da 7 minuti di “soli” 43 ADU su un valore medio inziale pari a 1044 ADU. L’errore che quindi commettiamo nel non considerare il riscaldamento del sensore a seguito del suo funzionamento è esiguo e mediamente inferiore al 5%. Gran parte del “rumore termico” è poi contenuto in quelli che abbiamo chiamati pixel caldi e riscaldati. Una sottrazione e correzione di questi pixel porterebbe ad un significativo miglioramento della qualità del master dark frame.

Un altro effetto è la dipendenza del rumore termico dal tempo di esposizione. Infatti all’aumentare del tempo di posta aumenta la quantità di rumore termico integrato. Il processo è lineare per tempi di esposizione sufficientemente lunghi come mostrato in figura 7. In particolare in grande è riportata la variazione del livello di luminosità medio per pixel in funzione del tempo di esposizione, mentre nel riquadro piccolo il livello di luminosità medio per pixel sempre in funzione del tempo di esposizione.

A 800 ISO, abbiamo dopo 150 secondi di posa, un incremento di rumore termico lineare (coefficiente di correlazione lineare 0.99) pari a 0.1421 ADU/secondo.

Figura 7: variazione del livello di luminosità media per pixel in funzione del tempo di esposizione. Nel riquadro a lato livello di luminosità media per pixel in funzione del tempo di esposizione. Tutti i dark frame sono stati ripresi a 800 ISO.

La quantità di rumore termico che introduciamo aumenta quindi linearmente con il tempo di esposizione andando a deteriorare l’informazione contenuta nell’elemento fotosensibile. Ma quanto contribuisce questo rumore rispetto all’offset? Abbiamo visto in precedenza come un aumento della temperatura del sensore introduce una variazione del livello di luminosità media per pixel inferiore al 5%. In questo caso per tempi di esposizione pari a 7 minuti a 800 ISO abbiamo che la variazione di ADU rispetto al bias frame è pari a 42 ADU e quindi inferiore persino a quello che si ottiene a seguito del riscaldamento del sensore.

In ogni caso questo valore rimane costante da posa a posa se la temperatura del sensore rimanesse costante (cosa che invece abbiamo visto non accadere). 42 ADU è quindi il vero contributo di rumore medio contenuto in ciascun pixel alimentato per 7 minuti a 800 ISO in condizioni di buio ad una determinata temperatura T. Quindi se i 43 ADU dovuti alla variazione di temperatura del sensore erano una sorgente di errore nel processo di “costruzione” del master dark frame, questi 42 ADU costituiscono il rumore termico medio costante intrinseco della fotocamera e quindi facilmente correggibile attraverso il processo di sottrazione del master dark frame (rumore termico medio).

La variazione dell’offset del dark frame rispetto all’offset bias frame nel caso di CMOS varia quindi dal 5% nel caso di fotocamera “fredda” al 10% nel caso di fotocamera riscaldata. Tale discrepanza è comunque trascurabile e fa si che i due offset siano praticamente coincidenti traducendosi in un valore di livello di luminosità del master dark frame o del rumore termico medio pari a 0 ADU come correttamente atteso. Quindi nei sensori CMOS non siamo di fronte a quel offset fittizio descritto in precedenza nei sensori CCD e visibile in Figura 8.

Figura 8: distribuzione dei livelli di luminosità del master dark frame (rumore termico medio) nel caso di sensori CCD e CMOS. Si vede come nel caso dei sensori CMOS il segnale sia soltanto di natura termica (coda esponenziale) mentre nei sensori CCD si osserva la presenza di un finto offset a seguito della maggiore dinamica e quindi sensibilità allo spostamento dell’offset a seguito dell’integrazione del rumore termico.

Ricordiamo ancora una volta come la maggior parte del rumore termico venga immagazzinato nei pixel riscaldati che quindi giocano un ruolo importante nei sensori a semiconduttori. Riportiamo infine un’immagine del master dark frame nel caso di un sensore CMOS Canon EOS 40D.

Figura 9: esempio di master dark frame acquisito con una DSLR modello Canon EOS 40D (sensore CMOS). E’ possibile osservare i gradienti termici dovuti alle regioni del sensore più vicine a “punti caldi” dell’elettronica.

CONDIZIONI DI DARK FRAME

Ovviamente, dato che i dark frame contengono l’informazione termica del sensore a semiconduttore è strettamente necessario che questi vengano ripresi nelle medesime condizioni ambientali delle immagini astronomiche. Tale vincolo si traduce nel prevedere un tempo di ripresa dei dark a seguito di una notte astrofotografica oppure nel memorizzare la temperatura di utilizzo della camera CCD astronomica o DSLR nel caso di sensori dotati di sistemi di raffreddamento con controllo della temperatura. Nel caso delle reflex digitali persino l’umidità o la luce ambiente potrebbe influire la ripresa del dark frame e quindi è vivamente sconsigliato la ripresa di questi scatti durante l’alba o il tramonto o in notte successive a quella di ripresa.

Ricordiamo inoltre che alcuni pixel possono diventare caldi o freddi a seguito di una rottura per invecchiamento. Pertanto, nel caso di CCD o DSLR raffreddati è necessario ogni tanto aggiornare le proprie librerie di dark.

 MEDIA O MEDIANA

Sino ad ora abbiamo parlato di rumori, ovvero fenomeni fisici sempre presenti in ogni singolo dark frame. Esistono però altri fenomeni che possono verificarsi solo in alcuni dark frame e non in tutti. Questi fenomeni sporadici rischiano però di introdurre un segnale nella media spurio che al netto andrà a peggiorare la qualità dell’immagine astronomica finale. Un segnale sporadico è ad esempio quello generato dai raggi cosmici (per maggiori informazioni si legga l’articolo “I raggi cosmici e l’astrofotografia digitale”) i quali possono rilasciare parte della loro energia in uno o più pixel liberando un gran numero di elettroni.

Un modo per non considerare in una media i pixel che subiscono solo sporadicamente una grossa variazione del loro Livello di Luminosità è utilizzare invece della classica media aritmetica delle immagini, la mediana. Per maggiore informazioni sui vari algoritmi di media di immagini o più precisamente stacking delle immagini si legga l’articolo “Metodi di Stacking”.

IRIS E IL DARK FRAME

IRIS permette di creare il master dark (inteso come rumore termico medio), partendo dai singoli dark frame e dal master bias frame. Il metodo consigliato per combinare le singole immagini è il metodo della mediana. Per quanto riguarda la procedura operativa da seguire si rimanda alla Guida per l’elaborazione delle immagini astronomiche con IRIS. Chi fosse interessato allo studio metodico del dark frame o semplicemente vuole integrare questo articolo con ulteriori considerazioni e schede tecniche, è pregato di inviare una e-mail a ricerca@astrotrezzi.it .

 




Il Bias Frame

Negli articoli precedenti abbiamo visto come sia possibile creare per ogni elemento fotosensibile di un sensore a semiconduttore un segnale digitale in un certo senso proporzionale al flusso di radiazione incidente. Tale segnale rappresenterà, al termine del processo di formazione dell’immagine, il livello di luminosità di ciascun pixel di cui il sensore è costituito.

Sino ad ora abbiamo però considerato il caso in cui il sensore venga inondato da fotoni. Cosa succede se però scattiamo una fotografia al buio? Con buio intendiamo la totale assenza di luce ovvero la condizione di avere su ogni elemento fotosensibile zero fotoni. Zero fotoni significa che non abbiamo nessuna fonte di energia in grado di liberare elettroni in banda di conduzione e quindi di generare un segnale di carica. Nessun segnale si traduce infine in un segnale di ampiezza zero in uscita dell’ADC e quindi un livello di luminosità pari a 0 ADU. Riassumendo, una fotografia del buio è una matrice di pixel ciascuno con livello di luminosità pari a 0 ADU. Questo ovviamente in linea del tutto teorica. Vediamo ora cosa succede nella realtà.

DENTRO IL FOTOELEMENTO

In assenza di luce la possibilità di avere elettroni in banda di conduzione dovrebbe essere praticamente zero. Eppure l’agitazione termica degli elettroni associata al fatto che l’elemento fotosensibile a semiconduttore ha una determinata temperatura diversa da zero, permette ad alcuni di essi di “saltare” naturalmente dalla banda di valenza a quella di conduzione. Elettroni liberi si traducono al termine della catena elettronica in segnali luminosi. Ecco quindi che alcuni pixel che dovrebbero avere livello di luminosità pari a 0 ADU possono assumere valori differenti. Tale effetto aumenta all’aumentare della temperatura dell’elemento a semiconduttore la quale dipende dalla temperatura ambiente e dal riscaldamento dello stesso durante il funzionamento (effetto Joule). Ricordiamo inoltre che l’emissione di elettroni per agitazione termica è un processo continuo e quindi il numero di “cariche termiche” accumulate aumenta con il tempo di esposizione. Ridurre al minimo il tempo di esposizione significa quindi diminuire il numero di elettroni di natura termica. Inoltre, come detto prima, la temperatura del sensore dipende anche dalla temperatura ambiente. Questo significa che sistemi di raffreddamento come ventole o celle di Peltier, possono ridurre di molto il fenomeno di emissione di elettroni termici. In assenza di sistemi di raffreddamento vedremo quindi una notevole differenza tra le riprese effettuate in inverno e quelle estive. L’emissione di elettroni termici trasforma il vero segnale di buio pari a 0 ADU in un segnale con un livello di luminosità diverso da zero. Questo disturbo prende il nome di rumore termico. Nell’articolo “Il Dark Frame” vedremo come trattare questo tipo di rumore.

Se però ora effettuiamo uno scatto molto veloce al buio, allora il sensore funzionerà per un tempo così limitato da non permetterne il riscaldamento. Inoltre tempi d’esposizione brevi significano capacità nulla di accumulo delle “cariche termiche” ovvero riduzione quasi completa del rumore termico. Ecco quindi che scatti “veloci” al buio dovranno fornire in uscita dal sensore a semiconduttore segnali elettrici nulli come atteso teoricamente.

LA CATENA ELETTRONICA

Un segnale nullo in uscita dell’elemento fotosensibile corrisponde necessariamente ad un Livello di Luminosità del pixel associato pari a 0 ADU? Ovviamente no. La strada che il nostro segnale deve percorrere è lunga e piena di ostacoli. Il processo di amplificazione, conversione analogico – digitale e molti altri di natura elettronica introducono rumori. Se un sensore è progettato bene, allora tutti i rumori introdotti nel processo di formazione dell’immagine devono essere non correlati e di natura prettamente casuale. A questi possono però aggiungersi rumori non casuali come ad esempio interferenze elettroniche.

Nel caso di uno scatto “veloce” al buio quindi ogni pixel assumerà un livello di luminosità diverso da zero. La distribuzione di livelli di luminosità (istogramma) dei pixel di un sensore sarà quindi descritta da una gaussiana per i rumori di natura casuale con distorsioni più o meno consistenti nel caso in cui vi fossero rumori non casuali. Per motivi di natura tecnologica inoltre, il livello di luminosità corrispondente al buio (0 ADU) è traslato ad un valore noto come offset.

Se volessimo riassumere l’effetto dei rumori fin qui analizzati su un pixel per uno scatto “veloce”, ovvero con tempi di esposizioni prossimi a zero secondi, effettuato al buio potremmo dire:

Livello di Luminosità = valore teorico + offset + rumore termico + rumore elettronico casuale + rumore elettronico non casuale.

Per quanto detto in precedenza, facendo tendere il tempo di esposizione a zero si ha una riduzione drastica del rumore termico che diventa quindi trascurabile. Inoltre il valore in ADU teorico è 0, dato che non ci aspettiamo elettroni. Quindi la nostra espressione diventa.

Livello di Luminosità = offset + rumore elettronico casuale + rumore elettronico non casuale.

Cosa succede ora se effettuiamo N scatti “veloci” al buio e facciamo la media pixel per pixel del Livello di Luminosità associato? In questo caso ci viene in aiuto la statistica. La media dei valori assunti da una variabile casuale effettuata su un numero di campioni N che tende all’infinito tende al valore vero. Dato che nel nostro caso il rumore elettronico casuale fluttua intorno al valore zero, allora mediando su N scatti con N sufficientemente grande avremo che il rumore elettronico casuale diviene nullo. Pertanto:

Livello di Luminosità [mediato su N scatti] = offset + rumore elettronico non casuale.

Se l’elettronica così come il sensore utilizzato è stata progettata bene e la camera risulta isolata dal punto di vista elettromagnetico, allora il rumore elettronico non casuale dovrebbe essere nullo e il Livello di Luminosità mediato dovrebbe tendere al valore dell’offset del pixel. In caso contrario tale rumore elettronico non casuale, noto come rumore di lettura, sarà presente e non eliminabile dalle nostre immagini astronomiche. Questo può essere ottenuto sottraendo al Livello di Luminosità di un pixel il Livello di Luminosità mediato.

IL BIAS FRAME

Ciascun pixel di un sensore, sia esso CCD o CMOS, possiede quindi un offset. Siamo sicuri che tale offset sia lo stesso per tutti i pixel? Ovviamente no. Ogni pixel (dall’elemento fotosensibile alla catena elettronica) è diverso l’uno dall’altro e pertanto presenta un proprio offset, che mediamente è quello riportato nelle schede tecniche dei sensori. Come fare quindi a normalizzare i nostri pixel, in modo che se fotografiamo il buio otteniamo 0 ADU in ogni pixel? Per fare questo dobbiamo conoscere il valore dell’offset per ogni pixel e sottrarlo ai rispettivi pixel dell’immagine astronomica ripresa. Come fare?

Prendiamo la nostra macchina fotografica digitale (DSLR) o la nostra camera CCD astronomica e poniamo il tappo di fronte all’ottica al fine di non far arrivare fotoni sul sensore ricreando pertanto la condizione di buio. Settiamo come tempo di esposizione il minimo imposto dalle specifiche tecniche della nostra DSLR o camera CCD astronomica (ad esempio 1/8000 secondo per una Canon EOS 40D o 1/1000 di secondo per una ATIK 314L+ B/W). Ricordiamo che per le reflex dobbiamo impostare gli stessi ISO utilizzati per riprendere la nostra immagine astronomica al fine di porsi nelle stesse condizioni di scatto (la catena elettronica funziona in modo diverso a seconda degli ISO impostati). Per lo stesso motivo anche il binning della nostra camera CCD non dovrà essere modificato. Con questi settaggi si riprendano un certo numero di immagini che verranno successivamente mediati al fine di ottenere il Livello di Luminosità medio e quindi l’offset per ciascun pixel del sensore. Tali scatti prendono il nome di bias frame. Quindi, maggiore sarà il numero di bias frame acquisiti, minore sarà l’entità del rumore casuale presente nell’immagine e quindi migliore sarà la determinazione dell’offset. Ricordiamo infatti che, dal punto di vista statistico, la precisione con cui determiniamo l’offset aumenta come la radice quadrata del numero di bias frame acquisiti.

La presenza di rumori non casuali purtroppo va ad aumentare aumentando il numero di bias frame acquisiti e pertanto un basso rumore di lettura è una richiesta importante per un astrofotografo esigente.

Riportiamo di seguito lo studio di un bias frame e della media di 50 bias frame, nota con il nome di master bias frame, per una ATIK 314L+ B/W (sensore CCD) e per una Canon EOS 40D (sensore CMOS).

ATIK 314L+ B/W

L’ATIK 314L+ monocromatica monta un sensore CCD da 1392 x 1040 pixel. Abbiamo ripreso 50 bias frame con binning 1 x 1 e tempo di esposizione pari a 1/1000 secondo. In figura 1 è mostrato il livello di luminosità di un pixel del sensore CCD. Come si vede questo fluttua intorno al valore medio pari a 262.9 ADU con una varianza pari a 15.4 ADU. Lo stesso comportamento è stato mostrato da tutti gli altri pixel che costituisce la matrice del sensore.

Figura 1: Il Livello di Luminosità al variare del bias frame. Come descritto in precedenza questo fluttua intorno al valore “vero” dell’offset pari a circa 262 ADU.

In Figura 2 mostriamo invece la distribuzione dei Livelli di Luminosità (istogramma) dei pixel che costituiscono il sensore per un dato bias frame. La distribuzione è dominata da un rumore di tipo casuale, come dimostra il buon accordo con un fit di tipo gaussiano. Il valore medio della distribuzione è 265.999 ± 0.015 ADU con larghezza pari a 17.774 ± 0.012  ADU. Come atteso, mediando su 50 si ottiene una riduzione della larghezza pari a circa 5.77. Questo non è esattamente quanto previsto teoricamente (7.07) a causa della presenza nel picco gaussiano di contributi non gaussiani (rumori non casuali).

Figura 2: in azzurro la distribuzione dei Livelli di Luminosità di un sensore CCD in un bias frame. In rosso il risultato di un fit gaussiano della distribuzione. Ricordiamo che la larghezza della distribuzione del bias frame è spesso detta readout noise.

Al fine di comprendere l’entità di tali rumori non gaussiani si riporta in figura 3 la distribuzione dei Livelli di Luminosità del master bias frame in scala semi-logaritmica. Come si può notare esistono delle piccole code non gaussiane sicuramente imputabili a del rumore di tipo non casuale. Al fine di determinare se tale rumore è dovuto a fenomeni di interferenza elettronica, abbiamo deciso di sottrarre al bias frame il bias frame mediato (su 50 immagini) e di effettuare su tale differenza l’analisi di Fourier FFT. Il risultato, riportato sempre in figura 3 è uno spettro bianco, sintomo di totale assenza di rumore a frequenza spaziale.

Figura 3: a sinistra la distribuzione dei Livelli di Luminosità del master bias frame in scala semi-logaritmica. A destra lo spettro di Fourier ottenuto con il software ImageJ

 Interessante è l’analisi del master bias. In particolare (Figura 4) è possibile vedere un gradiente tra la zona alta e bassa del sensore. Questo perché durante il seppur breve periodo di trasporto delle cariche, queste stazionano con tempi diversi a seconda della loro posizione sul sensore. I pixel più vicini all’HCCD risultano quindi meno soggetti al rumore termico rispetto a quelli più lontani che integrano tale rumore su un tempo effettivamente maggiore. Questo effetto è invece invisibile nel caso di bias frame acquisiti con sensori di tipo CMOS dove i pixel vengono “svuotati” tutti nello stesso istante. Per maggiori informazioni si legga l’articolo “La Generazione del Segnale: CCD e CMOS”.

Figura 4: master bias. Si osservi come la regione più bassa e vicina al HCCD sia più buia (minor rumore di tipo termico) della regione più alta. A destra inoltre è visibile ad un pattern legato al supporto del sensore.

Concludendo la camera ATIK 314L+ monocromatica risulta tecnologicamente ben realizzata sia dal punto di vista fisico che elettronico. In particolare il rumore è sostanzialmente di natura casuale mentre la componente dovuta al rumore di lettura risulta praticamente trascurabile.

CANON EOS 40D

Anche nel caso della DSLR Canon EOS 40D, dotata di sensore CMOS da 3888 x 2592 pixel, il Livello di Luminosità dei singoli pixel fluttuano intorno al valor medio dell’offset. La distribuzione di tali valori all’interno di un singolo bias frame è mostrato in figura 5. Il valore medio della distribuzione è 1025.66 ± 0.002 ADU con larghezza pari a 7.631 ± 0.002  ADU (il valore più basso di quello ottenuto per la camera astronomica ATIK314L+ è dovuto alla minor dinamica della Canon EOS 40D). Come atteso, mediando su 50 frame si ottiene una riduzione della larghezza pari a circa 7.86. Questo è paragonabile a quanto previsto teoricamente (7.07) dovuto molto probabilmente al maggior numero di pixel presenti rispetto al CCD precedentemente preso in esame.

Figura 5: a sinistra in azzurro la distribuzione dei Livelli di Luminosità di un sensore CMOS in un bias frame. In rosso il risultato di un fit gaussiano della distribuzione. A destra lo stesso grafico in scala semi-logaritmica.

In questo caso la distorsione dello spettro è più evidente rispetto alla CCD ATIK sintomo della presenza non trascurabile di rumori non casuali. Questo è evidenziato dal medesimo plot in scala semi-logaritmica dove si nota la presenza di code a bassi e alti valori di ADU. Per un’analisi dettagliata del rumore di lettura si è proceduto come in precedenza attraverso la sottrazione degli spettri e l’analisi di Fourier. In questo caso si osserva però un rumore a frequenza spaziale fissata di tipo sinusoidale (Figura 6).

Figura 6: spettro di Fourier ottenuto con il software ImageJ. In questo caso l’immagine non è uniforme e si vede un rumore di tipo sinusoidale con frequenza spaziale fissata.

Riassumendo quindi, sia la ATIK 314L+ che la Canon EOS 40D mostrano un bias frame dominato sostanzialmente dal rumore casuale, quindi riducibile mediando molti frame. Per quanto riguarda la componente non casuale (rumore di lettura) nel caso dell’ATIK non presenta pattern spaziali, mentre per la Canon è stata verificata la presenza di un rumore spaziale di tipo sinusoidale.

CONDIZIONI DI BIAS FRAME

Sino ad ora abbiamo considerato completamente trascurabile il rumore termico presente in ciascun bias frame. Tale assunzione è corretta dato che la variazione della larghezza della distribuzione dei Livelli di Luminosità nel bias frame in funzione della temperatura del sensore è praticamente trascurabile e stimabile intorno allo 0.52%/°C . Purtroppo però spesso non si considera un altro fattore molto importante. Al variare della temperatura del sensore anche l’elettronica ad esso connesso risponde in modo differente ed in particolare abbiamo una variazione del valore assoluto dell’offset in funzione della temperatura. Tale confronto è ben visibile in Figura 7 dove si riporta la distribuzione dei Livelli di Luminosità per bias frame effettuati a diverse temperature del sensore.

Figura 7: Distribuzione dei Livelli di Luminosità in bias frame effettuate a diverse temperature del sensore CCD ATIK 314L+ B/W.

In particolare si osserva una variazione della posizione dell’offset pari al 3.47% in soli 5°C di escursione da +10°C a +5°C. Tale variazione è stata osservata anche per lunghe esposizioni (con conseguente aumento della temperatura del sensore) come riportato nell’articolo Canon EOS 40D”.

Ulteriori test saranno effettuati per verificare nuovamente ed in modo più dettagliato questo tipo di fenomeno. Per il momento possiamo comunque affermare che, data la dipendenza dalla temperatura del valore dell’offset, è sempre consigliabile acquisire i bias frame nelle stesse condizioni ambientali presenti al momento della ripresa astronomica.

MEDIA O MEDIANA?

Sino ad ora abbiamo parlato di rumori, ovvero fenomeni fisici sempre presenti in ogni singolo bias frame. Esistono però altri fenomeni che possono verificarsi solo in alcuni bias frame e non in tutti. Questi fenomeni sporadici rischiano però di introdurre un segnale nella media spurio che al netto andrà a peggiorare la qualità dell’immagine astronomica finale. Un segnale sporadico è ad esempio quello generato dai raggi cosmici (per maggiori informazioni si legga l’articolo “I raggi cosmici e l’astrofotografia digitale”) i quali possono rilasciare parte della loro energia in uno o più pixel liberando un gran numero di elettroni.

Un modo per non considerare in una media i pixel che subiscono solo sporadicamente una grossa variazione del loro Livello di Luminosità è utilizzare invece della classica media aritmetica delle immagini, la mediana. Per maggiore informazioni sui vari algoritmi di media di immagini o più precisamente stacking delle immagini si legga l’articolo “Metodi di Stacking.

IRIS ED IL BIAS FRAME

IRIS permette di creare il master bias, partendo dai singoli bias frame. Il metodo utilizzato per combinare le singole immagini è il metodo della mediana. Per quanto riguarda la procedura operativa da seguire si rimanda alla Guida per l’elaborazione delle immagini astronomiche con IRIS. Chi fosse interessato allo studio metodico del bias frame o semplicemente vuole integrare questo articolo con ulteriori considerazioni e schede teniche, è pregato di invare una e-mail a ricerca@astrotrezzi.it