1

PixInsight | Costruire un’immagine LRGB

Nel post “Creazione di un’immagine RGB” abbiamo imparato a realizzare un’immagine a colori a partire da tre immagini monocromatiche (canali) R, G e B. Ripetiamo quindi le operazioni di riduzione dei gradienti residui (DBE) e allineamento delle immagini anche per il canale di luminanza L. Questo potrebbe non avere lo stesso binning dell’immagine RGB. Non importa!!! Utilizzate il tool Resample presente nel tab Process Explorer o nel menù Process → Geometry → Resample che vi permette di rebinnare i vostri frame. Una volta fatto tutto dovreste avere nel vostro spazio di lavoro le due immagini: una a colori (RGB) ed una ad alta risoluzione in bianco e nero (Luminanza).

Figura 1: Gli ingredienti base per una composizione LRGB, l'immagine a colori a bassa risoluzione e quella monocromatica ad alta risoluzione

Giunti a questo punto combiniamo le due immagini con il tool LRGBCombination. Questo è disponibile sia nel tab Process Explorer che da menù Process → ColourSpaces → LRGBCombination. Andiamo quindi a selezionare il canale di luminanza cliccando sull’apposita icona a lato del campo L e deselezioniamo gli altri canali (R,G e B) rimuovendo il segno di spunta. Agiamo sui cursori Lightness e Saturation per modificare l’effetto dell’applicazione del canale di Luminanza. Lasciate pure privo di spunta il quadrato Chrominance Noise Reduction. A questo punto applicate LRGBCombination trascinando il triangolo in basso a sinistra sull’immagine RGB (Figura 2).

Figura 2: Impostazioni tipiche per il tool LRGBCombination.

Il gioco è fatto! Avete realizzato la vostra prima composizione LRGB.




PixInsight | Creazione di un’immagine RGB

Nel post Calibrazione delle immagini astronomiche abbiamo imparato ad ottenere il master light a partire dai nostri bias, dark e flat field frame. In questo post vedremo come utilizzare le immagini così calibrate per i canali R, G e B al fine di ottenere l’immagine a colori (RGB). Partiamo quindi creando una cartella RGB dove metteremo i master light dei tre canali realizzati con PixInsight. Questi sono visualizzabili attraverso l’utility File Explorer, disponibile nei tab a destra (Figura 1). Le tre immagini, prese singolarmente, sono ben calibrate ma confrontate mostrano gradienti differenti. Al fine di ridurre questi gradienti possiamo utilizzare l’importante tool di PixInsight noto come DynamicBackgroundExtractor o per gli amici DBE.

Figura 1: i canali R,G e B calibrati con PixInsight.

Apriamo DBE cliccando su Process → BackgroundModelization → DynamicBackgroundExtraction oppure utilizzando il Process Explorer. Apriamo quindi la prima immagine (canale R) attraverso il menù File → Apri… . Chiudete i file di eliminazione dei pixel caldi e fredde e lasciate aperta solo l’immagine calibrata. Premete CTRL+A al fine di visualizzare correttamente l’immagine (Figura 2).

Figura 2: Pronti per utilizzare DBE sul canale R?

Clicchiamo quindi in vari punti dell’immagine evitando di selezionare parti del soggetto (nebulosità o alone galattico). Non sono necessari molti punti, l’importante è che abbiate una copertura (se possibile) di tutta l’immagine. Nel nostro esempio abbiamo selezionato 21 punti lontani dalla galassia (Figura 3).

Figura 3: Selezione dei punti utilizzati da DBE per uniformare il campo

Lasciamo i parametri Model Parameters (1), Model Parameters (2), Sample Generation e Model Image invariati. Andiamo invece in Target Image Correction e selezioniamo Division in Correction se l’immagine non presenta gradienti dovuto all’inquinamento luminoso, Subctraction altrimenti. Lasciamo non spuntato il quadrato Normalize. Se i parametri settati sono corretti infatti il background ottenuto dal tool DBE dovrebbe essere neutro. Lasciamo deselezionato anche Discard background model al fine di ottenere una mappa della correzione applicata. Infine anche Replace target image deve rimanere non spuntata se vogliamo che le modifiche apportate vengano visualizzate in una nuova finestra. Lasciamo invariati i parametri dei campi Identifier e Sample format. Clicchiamo sulla spunta verde per eseguire il tool DBE. La nuova immagine e la relativa mappa saranno come al solito “nere”. Premete CTRL+A per avere una visualizzazione corretta (Figura 4).

Figura 4: l'applicazione del tool DBE.

Salvate l’immagine “spianata” è disponibile tramite il menù File → Save As… . Applichiamo la stessa procedura anche per gli altri due canali (G e B). Al termine del processo avremo i tre canali con eventuali gradienti residui rimossi (Figura 5). A questo punto non ci resta che allineare i tre canali. Per far questo utilizzeremo il tool StarAlignment disponibile nel tab Process Explorer o dal menù Process → ImageRegistration → StarAlignment.

Figura 5: i tre canali pronti per l'allineamento e quindi la composizione RGB. Come si vede i gradienti residui sono stati praticamente eliminati dal tool DBE

Una volta aperta la finestra del tool StarAlignment ci portiamo sulla sezione Target Images e aggiungiamo le immagini da allineare attraverso il pulsante Add Files. Una volta caricate le immagini relative ai tre canali, queste dovrebbero apparire con una spunta verde nel riquadro centrale come illustrato in Figura 6.

Figura 6: primo passo è caricare le immagini relative ai tre canali.

A questo punto nella sezione principale andiamo ad indicare File in Reference image e attraverso il triangolino laterale andiamo a selezionare il canale di riferimento. Prendiamo per esempio il canale blu (B). In generale questo canale dovrebbe essere quello con il soggetto meglio inquadrato e miglior rapporto segnale/rumore. Ovviamente, se i singoli frame sono stati acquisiti correttamente non dovrebbe esserci molta differenza tra i vari canali. Lasciamo in bianco il campo Disctorsion model dove è possibile inserire una matrice di distorsione. In Registration model indichiamo Projective Transformation, utile nel caso in cui le immagini da allineare sono simili. Se il telescopio non è soggetto a particolari aberrazioni lasciamo non spuntato il campo Distorsion correction. Come Working mode lasciamo quello di default ovvero Register/Match Images. Questo è il modo in cui le immagini vengono allineate. Ci sono varie opzioni a seconda che si stiano allineando immagini per una somma, composizione RGB/LRGB o realizzazione di un mosaico. L’opzione Generate masks va lasciata non spuntante, in quanto al momento non è richiesta la generazione di una mappa delle stelle messe a registro. Frame adaption invece può essere utile per ottenere immagini simili (come nei mosaici) ma in questo caso è consigliabile lasciarlo non spuntato (Figura 7).

Figura 7: impostazioni del tool StarAlignment.

Andiamo quindi nella sezione Output Images, lasciando invariate le impostazioni di Format Hints e selezioniamo la cartella di output cliccando sul pulsante a forma di cartella. Il suffisso _r verrà aggiunto alle immagini allineate dal tool StarAlignment (Figura 8).

Figura 8: Determinazione della cartella di output del tool StarAlignment

 Quindi lasciando tutti gli altri parametri delle sezioni Star Detection, Star Matching e Interpolation invariati, clicchiamo sul pallino pieno in basso a sinistra per applicare il tool alle nostre immagini. A questo punto nella cartella di lavoro dovremmo avere le tre immagini (canali) originali, tre con suffisso _DBE relative alla riduzione dei gradienti e tre con suffisso _DBE_r ovvero le precedenti allineate rispetto al canale B (Figura 9).

Figura 9: le immagini corrette ed allineate pronte per essere sottoposte alla combinazione RGB.

COMPOSIZIONE RGB

Sino ad ora ci siamo limitati a preparare le tre immagini relative ai canali rosso (R), verde (G) e blu (B). In questo paragrafo vedremo come comporli in una sola immagine a colori grazie al tool ChannelCombination. Ovviamente la parte di riduzione dei gradienti residui nei singoli canali può essere tralasciata nel caso le vostre immagini non presentino inquinamento luminoso o siano state corrette perfettamente attraverso i flat field frame. Prima di procedere dobbiamo però far si che tutti e tre i canali siano “confrontabili” in modo da non ottenere un’immagine a colori completamente sbilanciata. Per far questo cominciamo con l’aprire le immagini monocromatiche relative ai tre canali (allineate e con gradienti residui ridotti). Per far questo utilizziamo il menù File → Open… . Apriamo quindi il tool LinearFit o cercandolo nel tab Process Explorer o tramite il menù Process → ColorCalibration → LinearFit (Figura 10).

Figura 10: Il tool LinearFit per la calibrazione dei vari canali monocromatici.

Nel campo Reference image andiamo a selezionare l’immagine relativa al canale di normalizzazione. In particolare nell’esempio considerato utilizzeremo il canale blu (B). A questo punto andremo a “normalizzare” le altre due immagini al blu trascinando il triangolino in basso a sinistra sulle due immagini relative ai canali R e G, dopodiché chiudiamo la finestra relativa a LinearFit. Non ci resta quindi ora che unire i tre canali al fine di ottenere l’immagine a colori RGB. Cerchiamo quindi il tool ChannelCombination nel nostro ProcessExplorer oppure cliccando sul menù Process → ChannelManagement → ChannelCombination (Figura 10).

Figura 11: Il tool ChannelCombination

Cliccando sul simbolo a lato di ciascun canale andiamo a selezionare le nostre immagini allineate ed eventualmente corrette per gradenti residui e “normalizzate” con l’utility LinearFit, dopodiché clicchiamo sul pallino pieno in basso a sinistra. Il risultato ottenuto è un’immagine a colori (RGB) in prima approssimazione bilanciata correttamente (Figura 11). Per ottenere colori verosimili utilizziamo il tool ScreenTransferFunction disponibile sempre nel Process Explorer oppure dal menù Process → IntensityTransformationScreenTransferFunction. Selezioniamo l’icona con la catena (ovvero i tre canali sono vincolati) e premiamo sul simbolo “nucleare” ovvero AutoStretch. Dopo l’applicazione del tool l’immagine apparirà con i colori ben bilanciati (Figura 12).

Figura 12: l'immagine RGB prodotta a partire dai tre canali R,G e B.

Non ci resta quindi che salvare l’immagine RGB tramite il menù File → Save As… . Il piccolo gradiente rosso in basso a sinistra è dovuto alla formazione di ghiaccio sul CCD (eliminabile attraverso un crop dell’immagine).




PixInsight | Calibrazione delle immagini astronomiche

Dopo aver effettuato le operazioni preliminari mostrate in Operazioni preliminari dovremmo ora avere tra le mani una cartella con il nome dell’oggetto ripreso strutturata secondo canali e tipo di frame (bias, dark, flat e light) ripresi. In questo post analizzeremo in particolare i processi che ci porteranno ad ottenere il master light frame ovvero l’immagine finale calibrata. Riportiamo quindi le procedure relative al solo canale di Luminanza. Ovviamente queste dovranno essere ripetute per ciascun canale (nel nostro esempio: Rosso, Verde e Blu).

Fortunatamente il processo di calibrazione, allineamento e somma può essere svolto automaticamente da PixInsight attraverso il potente script BatchPreprocessing che troviamo o nel tab Process Explorer oppure attraverso il menù Script → Batch Processing → BatchPreprocessing. A questo punto si aprirà una finestra di dialogo simile a quella riportata in Figura 1. In questa finestra potremo inserire i nostri frame di calibrazione nonché i light.

Figura 1: lo script BashPreprocessing.

Procediamo quindi con l’inserimento dei vari frame utilizzando i pulsanti Add Bias, Add Darks, Add Flats e Add Lights andando a selezionare volta per volta i nostri file nell’hard disk. Come vedete la classificazione in cartelle mostrata nel postOperazioni Preliminari fa si che questa operazione risulti il più semplice possibile. Una volta caricati i file bisognerà settare i parametri di combinazione. Riportiamo di seguito le impostazioni a seconda del frame considerato (ricordo che tali impostazioni sono visualizzabili agendo sui tab bias, darks, flats e lights).

BIAS FRAME

La natura del bias frame è stata analizzata in dettaglio nel post Il bias frame e pertanto rimandiamo il lettore a quell’articolo tecnico. Riassumendo possiamo dire che questo contiene le informazioni sull’offset dei singoli pixel ovvero sul valore di zero che questi assumono in assenza di radiazione luminosa. Generalmente questo valore rimane pressoché costante durante una sessione fotografica e in alcuni modelli di CCD può essere controllato tramite una regione del sensore detta overscan region. PixInsight permette di calibrare i bias utilizzando come riferimento questa regione che può essere settata spuntando la sezione Overscan del tab bias. Al momento non è noto se il modello ATIK 383L+ monocromatico possiede un’overscan region dato che non esistono documenti tecnici a riguardo forniti dall’azienda produttrice. Proprio per questo nel nostro caso non spunteremo la sezione Overscan (vedi Figura 2).

Figura 2: Settaggi dei bias frame.

Dopodiché PixInsight chiede la procedura da utilizzare per l’integrazione delle immagini (Image Integration). Tra quelli proposti quelli utili per la calibrazione delle immagini astronomici sono la media (Average) e la mediana (Median). Le due stime, nel caso dei bias, vanno teoricamente a coincidere dato l’elevato numero di frame acquisiti. In ogni caso malgrado sia previsto un sistema di cancellazione di fenomeni occasionali quali raggi cosmici, passaggio di aerei/satelliti o interferenze noto come Rejection algorithm, il metodo Median è consigliato in Combination in quanto è in grado di escludere, a prescindere, fenomeni transitori. Tra i metodi di rigetto di pixel spuri consigliamo il Winsorized Sigma Clipping. Ovviamente questo metodo è in grado di eliminare eventuali pixel caldi o freddi oltre a raggi cosmici (rari in un bias frame). I parametri di default ovvero 4.00 per Sigma low e 3.00 per Sigma high sono generalmente buoni.

DARK FRAME

Anche in questo caso possiamo applicare in Image Integration le stesse impostazioni del bias frame ovvero Median come Combination e Winsorized Sigma Clipping con i parametri di default come Rejection algorithm. Il tab darks ci propone però l’opzione Exposure tolerance ovvero la massima differenza in secondi tollerata per dire che due dark appartengono allo stesso gruppo di calibrazione. Ovviamente se avrete seguito alla lettera il post “Il dark frame” a questo punto dovreste avere dark frame con esattamente lo stesso tempo di esposizione e pertanto questa utility è inutile e il valore di default (di 10 secondi) può essere lasciato senza problemi. I parametri del tab darks sono riportati in Figura 3.

Figura 3: i parametri del tab darks dello script BatchPreprocessing. Facciamo notare come il tempo di esposizione dei dark frame sia riportato subito sotto il binning

FLAT FRAME

Per i flat frame le impostazioni sono le stesse utilizzate per i bias ed i dark frame, quindi in Image Integration bisogna settare Median come Combination e Winsorized Sigma Clipping come Rejection algorithm. I parametri sono riportati in Figura 4.

Figura 4: i settaggi del tab flats relativi allo script BashPreprocessing.

LIGHT FRAME (parte 1)

Questo script molto potente permette di ottenere il master light frame oppure i singoli light frame calibrati. Come abbiamo detto in precedenza il Rejection algorithm dovrebbe aver eliminato tutti i pixel caldi e freddi dai nostri frame di calibrazione. Questo è vero se i settaggi sono corretti ovvero se ad esempio i Sigma low e high del metodo Winsorized Sigma Clipping sono stati impostati correttamente. Questo ovviamente richiede del tempo e numerosi test dato che ogni camera e ripresa sono differenti. Proprio per questo PixInsight ha sviluppato la correzione cosmetica, attivabile spuntando il quadrato apply nella sezione Cosmetic Correction. Questo però non può essere fatto subito dato che è richiesto un Template icon, ovvero un oggetto che dica allo script BatchPreprocessing come ridurre i restanti pixel caldi o freddi rimasti. Procediamo quindi con la realizzazione del Template icon. Per fare questo però abbiamo bisogno del master dark e quindi è necessario fare un primo run dello script BatchPreprocessing.

Spuntiamo quindi il rettangolo Calibrate only in quanto non abbiamo ancora tutti gli ingredienti per realizzare il master light. Nella categoria Options togliete l’eventuale spunta da CFA images dato che le nostre riprese sono state effettuate con una camera CCD monocromatica. Togliete la spunta anche da Optimize dark frames dato che la nostra camera è raffreddata e quindi i dark (dovrebbero) essere stati ripresi tutti nelle medesime condizioni. Spuntate invece Generate rejection maps dato che queste serviranno per vedere come ha operato il Rejection algorithm ovvero avrete un’immagine in cui sono presenti i pixel esclusi nel processo di cancellazione dei fenomeni transitori. Spuntate up-bottom FITS che serve per definire quale è l’origine delle coordinate del file immagine. Nel caso up-bottom comune alla maggior parte delle camere (astronomiche e non) l’origine è nell’angolo in alto a sinistra. Per le camere monocromatiche il sistema di coordinate non è fondamentale ma lo diventa per quelle che possiedono una matrice di Bayer (ovvero sensori “a colori”). Eventualmente togliamo la spunta dai quadrati Use master bias, Use master dark, Use master flat. Clicchiamo infine due volte sull’immagine che riteniamo migliore in termini di qualità (inseguimento, rapporto segnale/rumore …) e come per magia apparirà il path nella categoria Registration Reference Image. Andiamo infine ad indicare a PixInsight quale sarà la cartella dove metterà i file calibrati nella categoria Output directory. I settaggi finali sono riportati in Figura 5.

Figura 5: i settaggi del tab lights relativi allo script BashPreprocessing.

A questo punto clicchiamo sul tasto Diagnostics al fine di verificare se tutto è stato settato correttamente, altrimenti seguite le indicazioni proposte. Se tutto è andato a buon fine dovreste visualizzare la scritta “Diagnostic completed OK.”. Clicchiamo quindi su Run e attendiamo (non poco!) che lo script BatchPreprocessing faccia il lavoro per noi. Al termine del processo si riaprirà la finestra dello script BatchPreprocessing ma nella directory di Output troveremo due cartelle frutto del lavoro di PixInsight: master e calibrated (vedi Figura 6).

Figura 6: i risultati prodotti dallo script BatchPreprocessing

Nella prima cartella troviamo il master bias, il master dark ed il master flat. Nella seconda invece troviamo i frame calibrati nelle rispettive sottocartelle flat e light. Dimentichiamoci al momento di questi e torniamo al nostro script BatchPreprocessing. Tenendo premuto il tasto sinistro del mouse trasciniamo il triangolino in basso a sinistra della finestra fino all’area di lavoro. Apparirà un’icona come mostrato in Figura 7. Cliccate su Exit e confermate per uscire.

Figura 7: l'area di lavoro una volta chiuso lo script BatchPreprocessing.

COSMETICA

Abbiamo ora tutti gli ingredienti per applicare la cosmetica ai nostri light frame ovvero identificare quei (spero) pochi pixel caldi/freddi che ancora sono presenti nei nostri frame malgrado il processo di calibrazione. Per fare questo utilizziamo lo script CosmeticCorrection disponibile come sempre nel Process Explorer oppure nel menù Process → ImageCalibration → CosmeticCorrection. Si aprirà quindi una finestra come quella mostrata in Figura 8.

Figura 8: lo script CosmeticCorrection

A questo punto cominciamo con lo spuntare il tab Use Master Dark ed andiamo a selezionare il master dark appena generato tramite lo script BaschPreprocessing. Spuntiamo inoltre i quadratini Enable nella categoria Hot Pixels Threshold e Cold Pixels Threshold (Figura 9).

Figura 9: Selezione del master dark nello script CosmeticCorrection.

Aprimo ora un light frame non calibrato (potremmo usare ad esempio il reference image ovvero quella con qualità migliore tra tutti i nostri light frame). Per farlo andiamo sul menù File → Open… . Una volta aperta l’immagine cliccate CTRL+A al fine di effettuare uno stretch automatico dell’immagine. Il risultato di queste operazioni è mostrato in Figura 10.

Figura 11: l'apertura di un light frame calibrato al fine di determinare i parametri dello script CosmeticCorrection

Premiamo ora i tasti ALT+N e selezioniamo una regione dell’immagine. Questa verrà contornata da un rettangolo verde e a sinistra della finestra dell’immagine verrà mostrato un tab con la scritta Preview01. In questo modo abbiamo creato una finestra di anteprima che possiamo visualizzare a tutta finestra cliccando su quest’ultimo tab (Figura 12).

Figura 12: la selezione di una preview per lo studio dello script CosmeticCorrection.

Torniamo ora alla finestra dello script CosmetiCorrection e clicchiamo sul pallino vuoto in basso a destra (Real-Time Preview). Si aprirà una nuova finestra che ci mostrerà l’effetto della cosmetica implementata dallo script CosmeticCorrection. Muoviamo ora il cursore Sigma di Hot Pixels Threshold verso sinistra finché gli ultimi pixel caldi residui non spariranno dall’immagine. Lo stesso lo facciamo con il Cold Pixels Threshold, muovendo il cursore Sigma verso sinistra (vedi Figura 13). Ora, come fatto per lo script BatchPreprocessing, portiamo cliccando sulla freccia in basso a sinistra CosmetiCorrection sullo spazio di lavoro, dopodiché possiamo chiudere tutte le finestre (quella del Real-Time Preview, dello script e del light frame).

Figura 13: impostazioni dello script CosmeticCorrection con relativa anteprima delle modifiche.

LIGHT FRAME (parte 2)

Facciamo doppio click sul Process01 presente nel nostro spazio di lavoro. Si aprirà una finestra. Cliccate una volta sul pallino pieno presente in basso a sinistra. Come per magia si riaprirà la finestra dello script BatchPreprocessing con le impostazioni che avevate settato precedentemente. A questo punto andate sul tab Lights e spuntate il quadratino Apply di Cosmetic Correction. Come Template icon selezionate Process02 ovvero quello relativo allo script CosmeticCorrection (nell’esempio è Process04, vedi Figura 14).

Figura 14: aspetto dello script BatchPreprocessing dopo aver definito la cosmetica con CosmeticCorrection.

A questo punto non ci resta che rimuovere il segno di spunta da Calibrate only e cominciare a settare i campi Image Registration e Image Integration. Clicchiamo quindi sulla prima freccia e ci si aprirà un nuovo campo dove ci viene chiesto il pixel interpolation ovvero il metodo utilizzato per allineare le immagini. PixInsight ci offre molte possibilità e nel caso di esigenze non specifiche consigliamo il metodo Auto (il programma decide quale è la migliore strategia) con i parametri settati di default ovvero Clamping threshold 0.30, Maximum stars 500 e Noise reduction Disabled. Spuntiamo anche il rettangolo Use triangle similarity. Cliccando sulla freccia rossa torniamo al campo di partenza. Da qui clicchiamo sulla freccia Image Integration e come combinazione utilizziamo Average o Median. Quale scegliere? Dipende da voi. Average mantiene un rapporto segnale/rumore più elevato di Median ma allo stesso tempo Median sopprime maggiormente raggi cosmici e fenomeni transienti (come passaggio di satelliti o aerei). Dato che però PixInsight offre la possibilità di impostare un Rejection algorithm (consigliato il solito Winsorized Sigma Clipping) che dovrebbe ridurre se non eliminare i fenomeni transienti, allora consigliamo come metodo di integrazione Average. I valori di Sigma low e high possono essere mantenuti ai valori di default pari rispettivamente a 4.00 e 3.00. Questi valori vanno regolati in funzione dell’immagine al fine di ottenere il risultato migliore.

Finalmente siamo giunti alla fine. Non ci resta che provare a cliccare ancora una volta su Diagnostics per verificare che tutte le impostazioni siano corrette e, in caso positivo, cliccare ancora una volta su Run. Una finestra vi ricorderà che i parametri dello script BatchPreprocessing vanno regolati bene per ottenere il massimo dalle nostre foto. Clicchiamo su Continue ed attendiamo che PixInsight abbia terminato il suo lavoro di calibrazione, allineamento e somma delle immagini astronomiche (vedi Figura 15).

Figura 15: La Process Console di PixInsight durante la fase di generazione del master light.

Al termine del processo si riaprirà di nuovo la finestra dello script BatchPreprocessing. Chiudetelo premendo Exit, confermate e chiudete tutte le altre finestre rimaste attive. Cancellate pure i processi sull’area di lavoro cliccandovi sopra con il tasto destro e quindi Delete Script Icon: ProcessX dove X sta per il numero di processo aperto. In questo modo la vostra area di lavoro dovrebbe essere completamente pulita da icone e finestre. Se verificate la cartella di Output, oltre alle cartelle originali e le calibrated e master (che ora contiene anche il master light) esiste la cartella registred contenente i light frame calibrati, cosmetizzati (li si trovano nella sottocartella cosmetized di calibrated/light) ed allineati.

RISULTATO FINALE

Non ci resta quindi che aprire il master light. Per fare questo cliccate su File → Open e selezionare il master light nella cartella master di Output. Verranno aperte tre finestre. La prima si chiama rejection high rappresenta i pixel rigettati perché di valore troppo elevato rispetto al valore centrale (ovvero quello atteso). La seconda, rejection low, rappresenta i pixel rigettati perché di valore troppo basso rispetto al valore centrale. La terza e ultima è il vero e proprio master light. In particolare, per ogni immagine premete CTRL+A. In rejection high dovreste individuare eventuali scie di aerei e satelliti rimossi dai light frame attraverso il processo di “rejection”. Riportiamo in Figura 16 il risultato ottenuto per il canale di luminanza L. Ovviamente questa procedura andrà rifatta per tutti i canali utilizzati (R,G e B).

Figura 16: A sinistra il master light. In centro il "rejection low" dove si vedono i bordi del sensore non funzionanti e a destra il "rejection high" dove sfortunamente (!) non sono passati aerei o satelliti.





PixInsight | Operazioni preliminari

Dopo una lunga notte passata al freddo sotto le stelle è giunto il momento di elaborare le nostre immagini astronomiche. Nei post relativi a PixInsight considereremo il caso in cui le immagini astronomiche sono state acquisite con una CCD monocromatica. Se tutto è andato per il verso giusto dovreste quindi avere nel vostro hard disk numerosi light, bias, dark e flat frame relativi a ciascuno dei tre/quattro canali che avete previsto di utilizzare, come ad esempio: Rosso (R), Verde (G), Blu (B), Luminanza (L), H-alpha (Hα), Ossigeno (OIII), Zolfo (SII), Luminanza filtrata (L|UHC, L|CLS, L|UHC-E,…) e molti altri.

Cominciamo quindi con l’ordinare i frame in cartelle e sottocartelle. In particolare create nella cartella con il nome dell’oggetto (ad esempio “M33”) le sottocartelle di canale che nel caso in esame (composizione LRGB) saranno “L”, “R”, “G” e “B”. In ogni sottocartella di canale create le sottocartelle di calibrazione “bias”, “dark”, “flat” e “light”. Spostate quindi i vostri file nelle relative sottocartelle e fate una copia di backup della cartella principale (vedi Figura 1).

Figura1: struttura della sottocartella ”L”. La cartella principale è ”M33” e contiene tutte le immagini riprese nella notte.

Ora che avete fatto ordine nel vostro PC ed avete messo al sicuro le vostre immagini non vi resta che aprire PixInsight. Il programma aprirà di default la finestra Process Console che vi darà il benvenuto mostrando le caratteristiche del programma e del vostro computer. Siamo quindi pronti per iniziare? Diciamo di si ma dato che non ci fidiamo di noi stessi è sicuramente buona consuetudine verificare che  binning e tempo di esposizione siano stati impostati correttamente per ogni categoria di frame (light e di calibrazione). Per fare questo utilizziamo il tab File Explorer e navighiamo nel nostro hard disk sfogliando i vari frame che andremo ad utilizzare. Per ogni frame verranno visualizzati i dati di scatto tra cui appunto Exposure e XBINNING, YBINNING ovvero il tempo di esposizione ed il binning orizzontale e verticale. In Figura 2 ad esempio è mostrato un light frame errato con tempo di esposizione di 480 secondi rispetto agli 800 di tutti gli altri light frame.

Figura 2: Esempio di light frame errato e che quindi dovrà essere escluso nei processi di calibrazione delle immagini astronomiche.

Una volta che siamo sicuri di quali sono i frame corretti, cominciamo a valutarne la qualità. Generalmente i frame di calibrazione (bias, dark e flat) sono tutti di buona qualità nel senso che durante le fasi di realizzazione dei rispettivi master frame esistono metodi per eliminare eventuali imperfezioni (come ad esempio la presenza di raggi cosmici o di fenomeni transienti). Per i light è invece importante studiare i singoli frame per capire se si è ottenuto del mosso o se delle nubi o velature hanno rovinato le nostre immagini. Per fare questo dobbiamo andare a “misurare” i nostri light frame e questo può essere fatto utilizzando lo script SubframeSelector eseguibile cliccando due volte sull’apposita icona nel tab Process Explorer (vedi Figura 3) oppure cliccando sul menù Script → Batch Processing → SubframeSelector.

Figura 3: Lo script SubframeSelector. Cliccando una volta sull'icona è possibile visualizzare la descrizione dello script.

Una volta cliccato sullo script si aprirà una finestra divisa in varie sezioni. La prima, About, fornisce alcune informazioni generali sullo script. Passiamo quindi alla seconda, Target Subframes che ci permette di indicare quali saranno i light frame da analizzare (vedi Figura 4). Nel nostro caso selezioniamo (attraverso il pulsante Add Files…) i light frame relativi al canale di luminanza L. Ovviamente questa operazione andrà effettuata per ciascun canale ripreso (nel nostro caso L, R, G e B). Spuntando Full paths è possibile visualizzare il percorso completo dei files. Consigliamo di spuntare anche Use file cache che permette di mantenere in  memoria alcuni dati utili nel caso si voglia analizzare di nuovo le immagini selezionate. Questo permette di minimizzare i tempi di elaborazione di PixInsight.

Figura 4: Lo script SubframeSelector ed in particolare la sezione ''Target Subframes''.

Nella sezione System Parameters dobbiamo inserire i dati relativi alla nostra camera di ripresa, in particolare: il Subframe scale ovvero la scala di ripresa misurata in arcosecondi per pixel (vedi il post “Determinare il fattore di scala”) il Camera gain ovvero il guadagno della nostra CCD (vedi il post “Il guadagno di una camera digitale”) il Camera resolution espresso in bit (questo è riportato nelle specifiche tecniche della camera), il Site local midnight ovvero l’ora della mezzanotte UT misurata nel paese dove è stata ripresa l’immagine. Nel caso dell’Italia è 1, dato che siamo a +1 ora dal meridiano di Greenwich. Scale unit va settata in arcsecondi e Data unit in elettroni. Per la camera ATIK 383L+ monocromatica i valori da settare (binning 1×1) sono riportati in Figura 5.

Figura 5: I settaggi "System Parameters" per una ATIK 383L+ monocromatica in binning 1x1.

A questo punto lasciamo invariati i settaggi delle categorie Star Detection and Fitting, Expressions e Output e clicchiamo sul tasto Measure. PixInsight comincerà così a misurare le nostre immagini come visibile nella finestra Process Console che si aprirà automaticamente appena cliccato su Measure. I risultati dell’analisi saranno riportati nelle categorie Table e Plots e potranno (dovranno) essere salvati su file cliccando sui tasti “Save Table As…” e “Save Plot As…” (vedi Figure 6 e 7).

Figura 6: La categoria Table dove sono mostrati i risultati numerici dell'analisi.

Figura 7: La categoria Plots dove sono mostrati i grafici relativi all'analisi dei frame.

Per concludere la procedura di calcolo clicchiamo sul pulsante Output Maps ed attendiamo che PixInsight faccia i suoi calcoli. A questo punto possiamo chiudere lo script cliccando su Dismiss e confermandone la chiusura.

Se tutto è andato a buon fine a questo punto nella vostra sottocartella M33/L/light dovreste avere oltre ai light frame anche un file di excel che contiene la tabella con i dati numerici dell’analisi, un file FIT con i grafici associati ed un file FIT per ogni light frame contenente le mappe d’analisi. Vediamo ora quali, di tutte queste informazioni, ci servono per identificare i frame di qualità scarsa ossia da escludere nel processo di calibrazione.

Al fine di identificare il passaggio di nuvole o velature utilizziamo la grandezza fisica Median ovvero la mediana del numero di elettroni accumulati nei pixel del sensore. Se una nuvola o una velatura è passata nel campo di ripresa, questa può o aumentare la luminosità del soggetto nel caso di luoghi inquinati oppure diminuirla nel caso di luoghi bui. Apriamo quindi il grafico relativo al parametro Median utilizzando o la categoria Plots dello script subframeSelector (in questo caso non dovevate chiuderlo) oppure aprendo con PixInsight (File → Open…) il file dei Plot selezionando quello relativo al parametro Median. Nel nostro il risultato dell’analisi è riportato in Figura 8.

Figura 8: la mediana degli elettroni accumulati nei pixel del sensori relativa ai light frame del canale L.

Come si vede dal grafico tutte le immagini hanno mantenuto lo stesso valore di mediana. Piccole variazioni come quelle riportate possono essere dovute ad una variazione di inquinamento luminoso, assorbimento atmosferico o fenomeni di minore importanza.

Al fine di identificare invece eventuali problemi di inseguimento utilizziamo la grandezza Eccentricity ovvero la mediana dell’eccentricità delle stelle individuate da PixInsight nel frame. Sia data una stella ellittica e siano a il diametro maggiore e b il minore, l’eccentricità è data dalla radice quadrata di 1-b^2/a^2. Quindi se le stelle sono circolari e quindi a = b abbiamo che l’eccentricità è 0, mentre se la stella è oblunga l’eccentricità è diversa da zero. Stelle con valore di eccentricità inferiore a 0.42 sono ritenute circolari. Il risultato relativo al nostro caso, visualizzabile nella categoria Plots o nel relativo file FIT, è mostrato in figura 9.

Figura 9: la mediana dell’eccentricità relativa ai light frame del canale L.

L’immagine mostra che l’eccentricità per i frame 1, 2 e 4 si è mantenuta sempre inferiore a 0.67 mentre per i frame 3 e 5 è superiore a 0.80. Questo significa che questi ultimi presentano del mosso evidente. Un po’ meno mossa è l’immagine 4 mentre la 1 e la 2 hanno eccentricità media (mediana) intorno a 0.60, abbastanza tipica per un telescopio Newton dovuta alla presenza di coma residuo. Per verificare quanto detto possiamo aprire la mappa relativa al frame 2 (sempre cliccando su File → Open…) ed in particolare considerare quella dell’eccentricità. Per comodità l’abbiamo sovrapposta all’immagine stessa (Figura 10). Si noti come il massimo valore di eccentricità è ottenuta in prossimità dell’angolo del campo dove è presente maggior coma residuo.

Figura 10: la mappa di eccentricità sovrapposta al relativo light frame. Per la gran parte del fotogramma l'eccentricità mediana è pari a circa 0.60

Infine verifichiamo una variazione del fuoco durante il processo di ripresa delle immagini. Per fare questo utilizziamo la quantità fisica FWHM ovvero la mediana dell’ampiezza a metà altezza delle stelle rivelate da PixInsight nel frame considerato. Visualizziamo quindi il grafico FWHM dalla categoria Plots o aprendo il file FIT associato. Il risultato per i frame in esame è riportato in Figura 11.

Figura 11: la mediana della FWHM relativa alle stelle rivelate da PixInsight nei singoli frame.

Come si vede dal grafico la FWHM è aumentata nel tempo mantenendosi comunque entro valori accettabili. In questo caso i dati sono inficiati da un continuo e progressivo peggioramento nella qualità dell’inseguimento con aumento dell’eccentricità e quindi della FWHM associata alle stelle. Anche in questo caso si può notare come i frame 3 e 5 siano i peggiori. Piccole variazioni di FWHM sono possibili a seguito di una variazione del seeing. Se osserviamo la mappa associata al frame numero 1 è possibile vedere (Figura 12) come le stelle siano puntiformi in gran parte del campo inquadrato sintomo di una complessiva buona qualità dello strumento ottico.

Figura 12: Mappa della mediana della FWHM relativa al frame 1.

La mappa mostra come la FWHM sia pari a 4.0/4.2 arcsec nella regione centrale del fotogramma, praticamente 4 volte il potere risolutivo teorico del telescopio (l’immagine risulta comunque sottocampionata). Questo mostra come (vedi post “Il potere risolutivo”) la turbolenza atmosferica e la qualità ottica contribuiscono in maniera importante alla risoluzione complessiva del nostro setup astronomico.

Come detto precedentemente, questa procedura preliminare di verifica dei frame deve essere eseguita per ogni canale che vogliamo utilizzare al fine di comporre l’immagine finale. Fatto questo siamo pronti per passare alla fase di “Calibrazione delle immagini astronomiche”.