1

Fill Factor e Full Well Capacity

Analizzando in dettaglio le caratteristiche di un sensore a semiconduttore, possiamo notare come la capacità di raccogliere i “fotoni cosmici” dipende strettamente dal tipo di architettura utilizzata. Infatti a differenza dei sensori CCD dove l’area sensibile coincide con il pixel stesso (ad esclusione degli Interline Transfer), nei sensori CMOS parte è occupata dall’elettronica. I pixel dei sensori CMOS risulteranno pertanto meno sensibili alla luce. Ma quanto?

Per quantificare questo effetto è stato introdotto il concetto di pixel fill factor (FF) definito come il rapporto percentuale tra l’area fotosensibile e quella del pixel. Il FF sarà quindi tanto maggiore quanto più estesa sarà la superficie attiva del sensore. Per i CCD valori tipici di pixel fill factor si aggirano intorno al 90% scendendo al 30% nel caso dei CMOS.

Il basso pixel fill factor dei sensori CMOS è stato originariamente un limite invalicabile. Fortunatamente, grazie al progresso tecnologico in ambito opto-meccanico, si è riusciti a produrre lenti convergenti del diametro di alcune decine di micrometri (!) capaci di convogliare i raggi luminosi incidenti nelle regioni sensibili del pixel. Queste lenti prendono il nome di microlenti.

Grazie alle microlenti è stato pertanto possibile aumentare quello che definiremmo “l’effettivo pixel fill factor” fino a valori prossimi al 100%. Non fatevi  quindi ingannare dalle apparenze e cercate informazioni sul pixel fill factor reale e non quello corretto dalle microlenti. Oltre ad aumentare l’FF, le microlenti hanno l’effetto di ridurre l’alone generato dalla luce diffusa dalle parti non fotosensibili del pixel. Questo effetto è importante soprattutto nel caso di sorgenti di luce intensa. Recentemente, l’azienda CentralDS fornisce un servizio di debayerizzazione delle reflex digitali al fine di ottenere camere monocromatiche. Questo avviene rimuovendo sia i filtri colorati della matrice di Bayer che le microlenti poste di fronte a ciascun pixel. Così facendo si ha una riduzione del pixel fill factor effettivo (dal 90% al 30% circa) compensato però dall’aumento di trasmittanza dovuto alla rimozione dei filtri colorati (dal 40% al 100% circa). Ovviamente permane il problema dell’alone per le sorgenti luminose, fortunatamente marginale in ambito astrofotografico.

Aumento del fill factor a seguito dell’applicazione di microlenti. Nel caso in figura si passa dal 60% (A) al 100% (B)

Un’altra caratteristica dei pixel che costituiscono il sensore digitale è la full well capacity (FWC). Questa grandezza fisica è definita come la quantità massima di elettroni che possono essere accumulati all’interno di un elemento fotosensibile. Tale caratteristica dipende dal potere capacitivo del fotoelemento (capacity), immaginato come un pozzo dove vengono raccolti i fotoelettroni (well). La FWC, che varia generalmente tra le decine e le centinaia di migliaia di elettroni, fissa la quantità massima di fotoni che può raggiungere un fotoelemento prima che questo raggiunga la saturazione. Di conseguenza verrà fissata anche la dinamica della camera stessa. Quest’ultima, definita come il numero di sfumature di grigio tra il bianco ed il nero è importante in astrofotografia dove spesso abbiamo forti contrasti tra soggetti luminosi (stelle) e deboli (nebulose o galassie). Ma cosa influenza la FWC? Sono numerosi i fattori che entrano in gioco come l’architettura del pixel e la grandezza della regione di svuotamento ma quello principale rimane la superfice dell’elemento fotosensibile o, in breve, il pixel fill factor.

Se le microlenti riescono infatti ad aumentare il pixel fil factor, queste non sono in grado di aumentarne anche la full well capacity che quindi rimane bassa per i sensori CMOS rispetto a quelli CCD. Questa caratteristica si traduce in un sostanziale aumento della dinamica delle camere CCD rispetto alle normali reflex digitali. Questo è uno dei motivi che, ancor oggi, fa prevalere le CCD in ambito astronomico.

Avere una maggiore FWC comporta un aumento della dinamica. In figura si vede un’immagine (sinistra) rirpesa con una dinamica a 16bit e (destra) con una dinamica inferiore. Il centro galattico risulta completamente bruciato così come le stelle di fondo nel caso dell’immagine a dinamica ristretta.



Istogramma e stretching dinamico: come ottenere il massimo dalla dinamica del nostro sensore

In ADC: dal mondo analogico a quello digitale abbiamo approfondito il concetto di dinamica, ovvero il numero di livelli tonali a disposizione di un’immagine digitale.

Le DSLR sono in grado oggi di fornire immagini a 14 bit mentre le camere CCD 16. Dato che l’occhio riesce a distinguere solo un range tonale ad 8 bit, perché avere immagini con un numero così elevato di livelli?

Per capirlo dobbiamo introdurre il concetto di istogramma. Ogni fotoelemento del sensore può generare un segnale digitale (proporzionale al numero di fotoni incidenti) che costituisce il tono del pixel. In effetti alcuni astrofotografi tendono a distinguere tra fotoelemento, elemento fisico del sensore ed pixel, ovvero la parte più piccola di un’immagine digitale.

Supponiamo ora di avere un’immagine ad 8 bit, allora ci saranno un certo numero di pixel N0 che avranno tono 0, un certo numero N1 che avranno tono 1, un certo numero N2 che avranno un tono 2 e così via. Se ora rappresentiamo in un grafico i valori N0, N1, N2, … in funzione del tono 0, 1, 2, … otterremo quello che prende il nome di istogramma.

L’istogramma sarà quindi una funzione continua che varia da 0 al massimo numero di toni possibile (255 nel caso di immagini ad 8 bit) come mostrato in figura.

Istogramma dell'immagine di NGC 7000 in Adobe Photoshop CS3

 Supponiamo ora di avere una DSLR in grado di produrre immagini a 14 bit. L’istogramma associato sarà una funzione continua tra 0 e 16383 toni (misurati in ADU). Purtroppo Adobe Photoshop collassa tutto il range tonale in soli 8 bit, quindi utilizzeremo per questo tipo di analisi il software astronomico IRIS. In figura è mostrato un esempio di istogramma a 14 bit.

Istogramma di un'immagine a 14 bit in IRIS

Come si vede dall’immagine il range tonale varia tra 0 e 16383 ADU mentre il segnale (ovvero l’immagine) occupa solo i primi 3000 ADU circa. È possibile pertanto tagliare l’istogramma in modo da limitare il range tonale al solo segnale. In figura è mostrato ad esempio il taglio dell’istogramma ai primi 3000 toni.

Riduzione del range tonale nei dintorni del segnale

Il taglio dell’istogramma può essere ottimizzato ricordando di ottenere un range tonale comunque superiore o uguale a 8 bit. Infatti se limitiamo il range tonale ad un valore inferiore a 8 bit, quello che succede è che l’occhio umano non vede più come continuo il passaggio da un tono di grigio a quello successivo. L’immagine subisce pertanto una specie di discretizzazione tonale che prende il nome di posterizzazione.

Nell’immagine in figura si nota che ci sono un certo numero di pixel con valore intorno ai 300 ADU mentre la maggior parte di essi è compreso tra 700 e 2500 ADU. Il valore 700 ADU rappresenta i pixel del fondo cielo, che a seguito dell’esposizione, dell’inquinamento luminoso, nonché del colore naturale del cielo assumono un valore diverso da 0 ADU (in realtà diverso dal valore dell’offset). I pixel a 300 ADU sono molto probabilmente pixel non funzionanti che quindi sono rimasti spenti dando un valore simile a quello dell’offset. Se limitiamo inferiormente l’istogramma in modo che 0 ADU coincida con 700 ADU otterremmo un fondo cielo nero ed i pixel non funzionanti assumerebbero lo stesso valore in ADU degli altri pixel del fondo cielo.

In figura potete osservare l’istogramma opportunamente tagliato, trasformando quella che era l’immagine a 14 bit sottoesposta in una a 12 bit correttamente esposta.

Istogramma di NGC7000 opportunamente tagliato

Abbiamo parliamo di immagine a 14 bit sottoesposta perché dei 16384 toni possibili, l’immagine effettiva ne utilizzava soltanto 3000. Quindi, se 16383 ADU corrispondono al bianco, l’oggetto più luminoso dell’immagine prima del taglio era un grigio scuro. La nuova immagine invece è correttamente esposta perché il massimo valore assunto in ADU (3000) è molto vicino al colore bianco di un’immagine a 12 bit (4095 ADU) e allo stesso tempo nessun pixel assume un valore tonale superiore a 4095 ADU.

Cosa succede se un pixel ha un valore tonale superiore al range tagliato? Il suo valore tonale viene posto uguale al massimo valore della dinamica. Questo porta ad un accumulo di pixel nella parte destra dell’istogramma che corrisponde ad un’immagine con stelle (o addirittura parti di nebulosa) “bruciate”.

Una volta tagliato l’istogramma è necessario scalarlo in modo che 3001 ADU vengano compressi in soli 256. Ridotta così ad 8 bit, l’immagine può essere elaborata con programmi di fotoritocco come Adobe Photoshop.

Esiste un secondo metodo utile per ottimizzare il range tonale di un’immagine che è noto come stretching dinamico. Questo consiste nello stirare il segnale in modo che questo occupi tutto il range tonale. Un esempio di stretching è mostrato in figura.

Immagine (eccessivamente) stretchata. Il segnale dopo il processo di stretching occupa praticamente tutto il range tonale.

 Come nel caso del taglio di un istogramma con numero di bit superiore ad 8, anche in questo caso l’istogramma stretchato dovrà essere scalato.

La disponibilità di un numero sempre maggiore di livelli permette di ridurre l’effetto dell’inquinamento luminoso sul risultato finale dell’immagine deep sky. Infatti se il range tonale è limitato, dopo pochi secondi o minuti di posa il fondo cielo (ed il soggetto della ripresa) risulteranno essere all’estremo destro dell’istogramma fornendo un’immagine priva di contrasto e dettaglio. Nel caso di sensori ad alta dinamica, sarà possibile ritagliare senza perdere informazioni parti dell’istogramma, fornendo immagini dettagliate e contrastate anche dai cieli inquinati. Questo lo si osserva già oggi confrontando riprese effettuate con DSLR e CCD da centri cittadini.