1

Pixel effettivi e pixel totali

Capiterà spesso, sfogliando schede tecniche relative a fotocamere digitali, di leggere due diciture che riportano numeri simili: pixel effettivi e pixel totali (vedi Figura 1). Cosa rappresentano questi numeri? Dietro a una così piccola differenza numerica esiste in realtà una profonda differenza tra i due concetti. Cominciamo quindi con il calcolare il numero di pixel relativo ad una determinata macchina fotografica. Come fare? Basta scattare un’immagine alla massima risoluzione possibile (RAW) e calcolarne la dimensione in pixel. A titolo d’esempio consideriamo le due reflex digitali di Figura 1. La Canon EOS 500D produrrà immagini da 4752 x 3168 pixel, mentre la Nikon D7000 da 4928 x 3264. Queste manterranno il rapporto tra i lati del sensore pari rispettivamente a 22.3 x 14.9 mm e 23.6 x 15.6 mm. Quindi secondo il nostro ragionamento, il numero di pixel di una fotocamera digitale sarà il prodotto tra la dimensione in pixel dei due lati delle immagini RAW riprese, quindi:

  •  pixel CANON EOS 500D: 4752 x 3168 pixel = 15054336 pixel = 15.1 Mpixel
  • pixel NIKON D7000: 4928 x 3264 pixel = 16084992 pixel = 16.1 Mpixel

dove ricordiamo che 1 Mpixel (Megapixel) è pari ad un milione di pixel. Andando a vedere le specifiche delle due camere, noteremo che questi valori sono prossimi a quelli denominati pixel effettivi. I pixel effettivi sono quei pixel del sensore CMOS che concorrono alla realizzazione dell’immagine a colori.

Figura 1: Dati tecnici delle camere Nikon D7000 e Canon EOS 500D così come riportati nei siti ufficiali delle due maggiori case produttrici di DSLR.

Questa è costruita, come riportato nel post Costruire un’immagine a colori dalla combinazione di tre immagini monocromatiche ottenute combinando i vari pixel della matrice di Bayer dotati di identico filtro colorato (RGB). Sempre in quel post abbiamo visto che esistono diversi algoritmi per demosaicizzare un’immagine RGB i quali richiedono il livello di luminosità dei pixel vicini d’ugual colore. Questo è sempre possibile per i pixel posizionati al centro dell’immagine, ma cosa succede ai pixel presenti sul bordo? È necessario in tal caso conoscere il livello di luminosità appena all’esterno del fotogramma. Proprio per questo motivo i produttori di fotocamere digitali hanno dedicato alcuni pixel ai bordi dell’immagine per questa funzione i quali però non contribuiranno all’immagine finale. Quindi hai 15.1 Mpixel e 16.1 Mpixel dell’esempio sopra riportato andranno aggiunti dei pixel “di cornice” utilizzati nel processo di demosaicizzazione dell’immagine. Il risultato finale pari a 15.1 e 16.2 Mpixel rappresenterà il numero effettivo di pixel che hanno contribuito alla formazione dell’immagine, i pixel effettivi.

Il numero di pixel totali del sensore CMOS sono un numero ancora superiore che negli esempi precedenti corrispondono a 15.5 Mpixel per la Canon EOS 500D e 16.9 Mpixel. Questi rappresentano i pixel che realmente costituiscono il sensore. Ma se 15.1 e 16.2 Mpixel concorrono nella formazione dell’immagine, a cosa servono gli altri 0.4 e 0.7 Mpixel? Sono i pixel utilizzati dalle case produttrici di fotocamere digitali per altri aspetti, molti protetti da segreto industriale, atti ad esempio alla valutazione e quindi riduzione del rumore. I valori di pixel effettivi e totale deve essere indicato per legge ai fini di valutare quanti dei pixel che costituiscono il sensore prendono effettivamente parte alla realizzazione dell’immagine.

Quale dei due numeri è utile a fini astrofotografici? Pixel reali o pixel effettivi? Ovviamente i secondi, dato che i pixel i quali non contribuiscono alla formazione dell’immagine, oltre a non essere accessibili dai più comuni software astrofotografici, sono spesso inutilizzabili a causa del segreto industriale che ne protegge la lettura. È possibile determinare il numero di pixel effettivi? Nel nostro esempio ci siamo fidati della scheda tecnica del produttore, ma possiamo accedere direttamente alla quantità di pixel periferici utilizzati nel processo di demosaicizzazione i quali però non contribuiscono alla dimensione in pixel dell’immagine finale? Ovviamente si, grazie al programma gratuito IRIS (o al costoso PixInsight). Infatti, aprendo un’immagine e digitando al terminare il comando info, ci apparirà la risoluzione reale dell’immagine pre-debayerizzazione:

 pixel effettivi CANON EOS 500D: 4770 x 3178 pixel = 15159060 pixel = 15.2 Mpixel

Questo valore differisce però da quanto riportato da casa Canon (15.1 Mpixel). I motivi di tale discordanza al momento non sono del tutto chiari 🙁 (appena avremo informazioni credibili aggiorneremo questa pagina web).

 




PixInsight | Operazioni preliminari

Dopo una lunga notte passata al freddo sotto le stelle è giunto il momento di elaborare le nostre immagini astronomiche. Nei post relativi a PixInsight considereremo il caso in cui le immagini astronomiche sono state acquisite con una CCD monocromatica. Se tutto è andato per il verso giusto dovreste quindi avere nel vostro hard disk numerosi light, bias, dark e flat frame relativi a ciascuno dei tre/quattro canali che avete previsto di utilizzare, come ad esempio: Rosso (R), Verde (G), Blu (B), Luminanza (L), H-alpha (Hα), Ossigeno (OIII), Zolfo (SII), Luminanza filtrata (L|UHC, L|CLS, L|UHC-E,…) e molti altri.

Cominciamo quindi con l’ordinare i frame in cartelle e sottocartelle. In particolare create nella cartella con il nome dell’oggetto (ad esempio “M33”) le sottocartelle di canale che nel caso in esame (composizione LRGB) saranno “L”, “R”, “G” e “B”. In ogni sottocartella di canale create le sottocartelle di calibrazione “bias”, “dark”, “flat” e “light”. Spostate quindi i vostri file nelle relative sottocartelle e fate una copia di backup della cartella principale (vedi Figura 1).

Figura1: struttura della sottocartella ”L”. La cartella principale è ”M33” e contiene tutte le immagini riprese nella notte.

Ora che avete fatto ordine nel vostro PC ed avete messo al sicuro le vostre immagini non vi resta che aprire PixInsight. Il programma aprirà di default la finestra Process Console che vi darà il benvenuto mostrando le caratteristiche del programma e del vostro computer. Siamo quindi pronti per iniziare? Diciamo di si ma dato che non ci fidiamo di noi stessi è sicuramente buona consuetudine verificare che  binning e tempo di esposizione siano stati impostati correttamente per ogni categoria di frame (light e di calibrazione). Per fare questo utilizziamo il tab File Explorer e navighiamo nel nostro hard disk sfogliando i vari frame che andremo ad utilizzare. Per ogni frame verranno visualizzati i dati di scatto tra cui appunto Exposure e XBINNING, YBINNING ovvero il tempo di esposizione ed il binning orizzontale e verticale. In Figura 2 ad esempio è mostrato un light frame errato con tempo di esposizione di 480 secondi rispetto agli 800 di tutti gli altri light frame.

Figura 2: Esempio di light frame errato e che quindi dovrà essere escluso nei processi di calibrazione delle immagini astronomiche.

Una volta che siamo sicuri di quali sono i frame corretti, cominciamo a valutarne la qualità. Generalmente i frame di calibrazione (bias, dark e flat) sono tutti di buona qualità nel senso che durante le fasi di realizzazione dei rispettivi master frame esistono metodi per eliminare eventuali imperfezioni (come ad esempio la presenza di raggi cosmici o di fenomeni transienti). Per i light è invece importante studiare i singoli frame per capire se si è ottenuto del mosso o se delle nubi o velature hanno rovinato le nostre immagini. Per fare questo dobbiamo andare a “misurare” i nostri light frame e questo può essere fatto utilizzando lo script SubframeSelector eseguibile cliccando due volte sull’apposita icona nel tab Process Explorer (vedi Figura 3) oppure cliccando sul menù Script → Batch Processing → SubframeSelector.

Figura 3: Lo script SubframeSelector. Cliccando una volta sull'icona è possibile visualizzare la descrizione dello script.

Una volta cliccato sullo script si aprirà una finestra divisa in varie sezioni. La prima, About, fornisce alcune informazioni generali sullo script. Passiamo quindi alla seconda, Target Subframes che ci permette di indicare quali saranno i light frame da analizzare (vedi Figura 4). Nel nostro caso selezioniamo (attraverso il pulsante Add Files…) i light frame relativi al canale di luminanza L. Ovviamente questa operazione andrà effettuata per ciascun canale ripreso (nel nostro caso L, R, G e B). Spuntando Full paths è possibile visualizzare il percorso completo dei files. Consigliamo di spuntare anche Use file cache che permette di mantenere in  memoria alcuni dati utili nel caso si voglia analizzare di nuovo le immagini selezionate. Questo permette di minimizzare i tempi di elaborazione di PixInsight.

Figura 4: Lo script SubframeSelector ed in particolare la sezione ''Target Subframes''.

Nella sezione System Parameters dobbiamo inserire i dati relativi alla nostra camera di ripresa, in particolare: il Subframe scale ovvero la scala di ripresa misurata in arcosecondi per pixel (vedi il post “Determinare il fattore di scala”) il Camera gain ovvero il guadagno della nostra CCD (vedi il post “Il guadagno di una camera digitale”) il Camera resolution espresso in bit (questo è riportato nelle specifiche tecniche della camera), il Site local midnight ovvero l’ora della mezzanotte UT misurata nel paese dove è stata ripresa l’immagine. Nel caso dell’Italia è 1, dato che siamo a +1 ora dal meridiano di Greenwich. Scale unit va settata in arcsecondi e Data unit in elettroni. Per la camera ATIK 383L+ monocromatica i valori da settare (binning 1×1) sono riportati in Figura 5.

Figura 5: I settaggi "System Parameters" per una ATIK 383L+ monocromatica in binning 1x1.

A questo punto lasciamo invariati i settaggi delle categorie Star Detection and Fitting, Expressions e Output e clicchiamo sul tasto Measure. PixInsight comincerà così a misurare le nostre immagini come visibile nella finestra Process Console che si aprirà automaticamente appena cliccato su Measure. I risultati dell’analisi saranno riportati nelle categorie Table e Plots e potranno (dovranno) essere salvati su file cliccando sui tasti “Save Table As…” e “Save Plot As…” (vedi Figure 6 e 7).

Figura 6: La categoria Table dove sono mostrati i risultati numerici dell'analisi.

Figura 7: La categoria Plots dove sono mostrati i grafici relativi all'analisi dei frame.

Per concludere la procedura di calcolo clicchiamo sul pulsante Output Maps ed attendiamo che PixInsight faccia i suoi calcoli. A questo punto possiamo chiudere lo script cliccando su Dismiss e confermandone la chiusura.

Se tutto è andato a buon fine a questo punto nella vostra sottocartella M33/L/light dovreste avere oltre ai light frame anche un file di excel che contiene la tabella con i dati numerici dell’analisi, un file FIT con i grafici associati ed un file FIT per ogni light frame contenente le mappe d’analisi. Vediamo ora quali, di tutte queste informazioni, ci servono per identificare i frame di qualità scarsa ossia da escludere nel processo di calibrazione.

Al fine di identificare il passaggio di nuvole o velature utilizziamo la grandezza fisica Median ovvero la mediana del numero di elettroni accumulati nei pixel del sensore. Se una nuvola o una velatura è passata nel campo di ripresa, questa può o aumentare la luminosità del soggetto nel caso di luoghi inquinati oppure diminuirla nel caso di luoghi bui. Apriamo quindi il grafico relativo al parametro Median utilizzando o la categoria Plots dello script subframeSelector (in questo caso non dovevate chiuderlo) oppure aprendo con PixInsight (File → Open…) il file dei Plot selezionando quello relativo al parametro Median. Nel nostro il risultato dell’analisi è riportato in Figura 8.

Figura 8: la mediana degli elettroni accumulati nei pixel del sensori relativa ai light frame del canale L.

Come si vede dal grafico tutte le immagini hanno mantenuto lo stesso valore di mediana. Piccole variazioni come quelle riportate possono essere dovute ad una variazione di inquinamento luminoso, assorbimento atmosferico o fenomeni di minore importanza.

Al fine di identificare invece eventuali problemi di inseguimento utilizziamo la grandezza Eccentricity ovvero la mediana dell’eccentricità delle stelle individuate da PixInsight nel frame. Sia data una stella ellittica e siano a il diametro maggiore e b il minore, l’eccentricità è data dalla radice quadrata di 1-b^2/a^2. Quindi se le stelle sono circolari e quindi a = b abbiamo che l’eccentricità è 0, mentre se la stella è oblunga l’eccentricità è diversa da zero. Stelle con valore di eccentricità inferiore a 0.42 sono ritenute circolari. Il risultato relativo al nostro caso, visualizzabile nella categoria Plots o nel relativo file FIT, è mostrato in figura 9.

Figura 9: la mediana dell’eccentricità relativa ai light frame del canale L.

L’immagine mostra che l’eccentricità per i frame 1, 2 e 4 si è mantenuta sempre inferiore a 0.67 mentre per i frame 3 e 5 è superiore a 0.80. Questo significa che questi ultimi presentano del mosso evidente. Un po’ meno mossa è l’immagine 4 mentre la 1 e la 2 hanno eccentricità media (mediana) intorno a 0.60, abbastanza tipica per un telescopio Newton dovuta alla presenza di coma residuo. Per verificare quanto detto possiamo aprire la mappa relativa al frame 2 (sempre cliccando su File → Open…) ed in particolare considerare quella dell’eccentricità. Per comodità l’abbiamo sovrapposta all’immagine stessa (Figura 10). Si noti come il massimo valore di eccentricità è ottenuta in prossimità dell’angolo del campo dove è presente maggior coma residuo.

Figura 10: la mappa di eccentricità sovrapposta al relativo light frame. Per la gran parte del fotogramma l'eccentricità mediana è pari a circa 0.60

Infine verifichiamo una variazione del fuoco durante il processo di ripresa delle immagini. Per fare questo utilizziamo la quantità fisica FWHM ovvero la mediana dell’ampiezza a metà altezza delle stelle rivelate da PixInsight nel frame considerato. Visualizziamo quindi il grafico FWHM dalla categoria Plots o aprendo il file FIT associato. Il risultato per i frame in esame è riportato in Figura 11.

Figura 11: la mediana della FWHM relativa alle stelle rivelate da PixInsight nei singoli frame.

Come si vede dal grafico la FWHM è aumentata nel tempo mantenendosi comunque entro valori accettabili. In questo caso i dati sono inficiati da un continuo e progressivo peggioramento nella qualità dell’inseguimento con aumento dell’eccentricità e quindi della FWHM associata alle stelle. Anche in questo caso si può notare come i frame 3 e 5 siano i peggiori. Piccole variazioni di FWHM sono possibili a seguito di una variazione del seeing. Se osserviamo la mappa associata al frame numero 1 è possibile vedere (Figura 12) come le stelle siano puntiformi in gran parte del campo inquadrato sintomo di una complessiva buona qualità dello strumento ottico.

Figura 12: Mappa della mediana della FWHM relativa al frame 1.

La mappa mostra come la FWHM sia pari a 4.0/4.2 arcsec nella regione centrale del fotogramma, praticamente 4 volte il potere risolutivo teorico del telescopio (l’immagine risulta comunque sottocampionata). Questo mostra come (vedi post “Il potere risolutivo”) la turbolenza atmosferica e la qualità ottica contribuiscono in maniera importante alla risoluzione complessiva del nostro setup astronomico.

Come detto precedentemente, questa procedura preliminare di verifica dei frame deve essere eseguita per ogni canale che vogliamo utilizzare al fine di comporre l’immagine finale. Fatto questo siamo pronti per passare alla fase di “Calibrazione delle immagini astronomiche”.




Il campionamento

Nel post Il potere risolutivo, abbiamo visto come la risoluzione delle nostre immagini astronomiche dipendano dalla qualità ottica dello strumento, dalla turbolenza atmosferica e dal limite di diffrazione stimato utilizzando il criterio di Rayleigh. In particolare la risoluzione complessiva θ di un telescopio sarà data dalla somma in quadratura di tutti questi contributi.

Ma non è tutto. L’immagine digitale è infatti costituita da un insieme discreto di punti (quadratini) noti come pixel e che non sono altro che la mappatura degli elementi fotosensibili presenti nel sensore (CMOS o CCD). Quindi, quando riprendiamo una fotografia digitale, trasformiamo quella che è un’immagine continua (l’immagine reale dell’oggetto) in un’immagine discreta (l’immagine visualizzata sullo schermo del nostro PC). Tale processo di discretizzazione obbedisce alle leggi della teoria dei segnali che definiscono il numero minimo di pixel necessari al fine di non perdere informazioni ovvero la risoluzione del nostro telescopio (campionamento). Questo è fissato dal criterio di Nyquist che stima come 3.33, il minimo numero di pixel necessari per coprire la FWHM (Full Width at Half Maximum) della risoluzione del nostro telescopio senza perdere informazioni sull’immagine (vedi Figura 1 e 2). Ricordiamo che FWHM è l’altezza a metà altezza di una distribuzione gaussiana ovvero 2.355 volta la deviazione standard σ.

Figura 1: Simulazione di due stelle separate tra loro dal limite di diffrazione di cui la prima posta nel punto di incrocio di quattro pixel. Si noti come in questo caso un campionamento di soli 2 pixel per FWHM sia sufficiente per risolvere le stelle.

Figura 2: simulazione delle stesse condizioni di Figura 1 dove la stella è stata spostata dall'incrocio tra quattro pixel al centro di un pixel. Come si vede in questo caso un campionamento di 2 pixel per FWHM non è più sufficiente per distinguere le due stelle. In generale quindi sono necessari almeno 3.33 pixel per FWHM per separare due stelle al limite di diffrazione (criterio di Nyquist).

Se ora supponiamo di possedere un telescopio otticamente corretto e di porci nelle condizioni di riprendere un oggetto celeste puntiforme in assenza di turbolenza atmosferica, allora la risoluzione complessiva del nostro strumento si ridurrà al limite di diffrazione α.

Data la FWHM associata alla risoluzione del nostro strumento allora è possibile stimare la dimensione massima dei pixel al fine di ottenere un buon campionamento dell’immagine ovvero FWHM/3.33. Se i pixel risultassero più grandi allora l’immagine risulterebbe sottocampionata ovvero perderemmo informazioni sull’oggetto mentre con pixel più piccoli otterremmo immagini di grandi dimensioni ma senza conseguente aumento di dettagli (immagine sovracampionata).

Proviamo quindi a stimare le dimensioni che deve possedere un elemento fotosensibile (pixel) per ottenere immagini ben campionate con un telescopio Newton da 150mm di diametro a f/5 per luce verde (dove solitamente si ha la massima efficienza quantica).

Innanzitutto dobbiamo calcolare la risoluzione lineare e non angolare dello strumento. Per fare questo basta solo moltiplicare α(rad) per la lunghezza focale F del telescopio espressa in micron (nel nostro caso F = 750000 μm). Il risultato per la luce verde risulta essere α(μm) = 3.33 μm. Questa però non è la FWHM ma la larghezza del primo anello del disco di Airy dal picco centrale. È possibile calcolare la deviazione standard della distribuzione gaussiana associata al disco di Airy come:

σ(μm) = 0.34493 α(μm)=1.15 μm

Prima di applicare il criterio di Nyquist è necessario calcolare la FWHM associata a σ(μm) ovvero:

FWHM = 2.355 σ(μm) = 2.70 μm

Quindi la dimensione massima dei pixel necessari per ottenere un buon campionamento dell’immagine è FWHM/3.33 = 0.81 μm. Si può quindi facilmente notare come tutti i pixel oggi in commercio offrano immagini sottocampionate.

Pertanto oggi nessun telescopio è praticamente in grado di raggiungere fotograficamente il relativo limite di diffrazione. Ovviamente la situazione “reale” è molto differente dato che la FWHM non è determinata unicamente dalla risoluzione teorica ma anche dalla qualità ottica dello strumento e dalla turbolenza atmosferica. È proprio quest’ultima in grado di aumentare la risoluzione complessiva dello strumento dai 3.33 μm forniti dal limite di diffrazione ai 11.41 μm complessivi (turbolenza media italiana pari a 3 arcsec). Malgrado questo in molti casi l’immagine risulta comunque sottocampionata.

Possiamo ora considerare il problema opposto, ovvero quale è la risoluzione efficace basata sul criterio di Nyquist associata ad un sensore con pixel di una certa dimensione d. A titolo d’esempio consideriamo una Canon EOS 500D dotata di pixel da d = 4.3 μm. Se consideriamo il criterio di Nyquist al fine di ottenere il massimo dal nostro strumento dobbiamo avere una risoluzione complessiva con FWHM associata pari a:

FWHM = 3.33 d = 14.32 μm

A questa, utilizzando le relazioni precedenti, possiamo associare una deviazione standard σ(μm) = 6.080 μm e quindi una risoluzione complessiva lineare pari a θ(μm) = 17.6275 μm.

Questa risoluzione complessiva lineare deve essere sempre superiore al limite di diffrazione. Nel caso fosse inferiore allora otterremmo immagini ben campionate ma senza dettagli aggiuntivi.

Al fine di calcolare la risoluzione complessiva angolare è necessario conoscere la focale dello strumento utilizzato che nel nostro caso è F = 750000 μm. Quindi:

 θ(rad) = θ(μm) / F(μm) = 2.3e-5 rad = 4.85 arcsec

come si vede questo valore è ben superiore ai 0.92 arcsec forniti dal limite di diffrazione.

Quindi un telescopio Newton da 150mm di diametro e 750mm di focale fornirà con una Canon EOS 500D buone immagini di oggetti con dimensioni angolari pari ad almeno 4.85 arcsec. È possibile osservare come la turbolenza atmosferica non influenzi immagini riprese a questa lunghezza focale (Figura 3).

Figura 3: un sistema di stelle doppie separate dal limite di diffrazione di un Newton 150mm f/5 riprese con una Canon EOS500D. E' possibile osservare come indipendentemente dalla turbolenza atmosferica (seeing) non è mai possibile raggiungere a focale nativa il limite di diffrazione.

 È possibile però utilizzare lenti addizionali (di Barlow) in grado di aumentare la focale del nostro telescopio mantenendone ovviamente invariato il diametro. Calcoliamo quindi la focale massima associata al nostro telescopio in grado di fornire una risoluzione pari al limite di diffrazione. Quindi:

F(μm) = θ(μm)/α(rad) =  17.6275 μm / 4.4e-6 rad = 3’968’716 μm

corrispondente ad una lunghezza focale F(mm) pari a 3969 mm che si può ottenere applicando una lente di Barlow 5x.

Riassumendo, nel nostro caso utilizzando il telescopio Newton a fuoco diretto con una Canon EOS 500D otterremo immagini sottocampionate con risoluzione angolare efficace pari a 4.85 arcsec.

Applicando al medesimo telescopio una lente di Barlow 5x avremo un’immagine ben campionata con risoluzione angolare efficace pari al limite di diffrazione (0.92 arcsec). Ovviamente sarà impossibile praticamente raggiungere tale risoluzione a causa della turbolenza atmosferica. Nel caso in esame le lunghezze focali utili in condizioni di turbolenza atmosferica saranno:

  • perfetta calma atmosferica (0.4 arcsec): 3637 mm – Barlow 5x
  • calma atmosferica (1 arcsec): 2681 mm – Barlow 4x
  • condizioni atmosferiche standard (3 arcsec): 1159 mm – Barlow 1.5x
  • elevata turbolenza atmosferica (5 arcsec): 715 mm

Si può facilmente notare come in condizioni di elevata turbolenza atmosferica l’utilizzo di lenti di Barlow con questo strumento è sostanzialmente inutile. È possibile rifare i calcoli riportati in questo post per qualsiasi telescopio e sensore di ripresa. Le dimensioni dei pixel espressi in micron sono riportati in numerosi siti di fotografia (astronomica e non). Ricordiamo inoltre che il sovracampionamento non comporta nessuna perdita di informazioni e quindi è favorito al sottocampionamento. Il sottocampionamento invece può essere utile nel caso di oggetti molto deboli. Infatti dato che il numero di fotoni emessi dagli oggetti celesti è costante, si ottiene un migliore rapporto segnale/rumore aumentando il numero di fotoni per pixel ovvero le dimensioni del pixel stesso.

Infine, nel caso di eccessivo sovracampionamento è possibile, nel caso di CCD astronomiche, unire più pixel. Questo processo noto come binning permette di accorpare più pixel che lavorano in sinergia come fossero un solo elemento fotosensibile. Allo stesso tempo prestate attenzione ad utilizzare binning elevato quando non necessario ottenendo un eccessivo sottocampionamento. In tal caso oggetti di piccole dimensioni angolari come galassie o sistemi stellari multipli si ridurranno a semplici puntini (pixel) luminosi privi di struttura.