1

Vedere i pianeti ad occhio nudo

Se non fosse per le fasi lunari e le strutture variabili del nostro Sole come le macchie o le protuberanze, l’Universo può apparire statico, dato che i tempi “evolutivi” del Cosmo sono ben più lunghi della vita di un essere umano. Il lettore potrebbe quindi pensare che dopo anni di osservazioni e di riprese fotografiche la vita dell’astrofilo sia destinata a diventare noiosa e poco stimolante. Eppure non tutte le “stelle” del cielo rimangono “fisse” nel corso dei mesi e degli anni; alcune si muovono percorrendo nel cielo lo stesso tragitto compiuto dal Sole e dalla Luna e noto come eclittica. Tali stelle presero in passato il nome di pianeti ovvero stelle erranti. Ecco quindi che i pianeti appaiono sotto tutti gli effetti come stelle e non solo: alcuni di essi rappresentano le “stelle” più luminose del cielo e quindi facilmente visibili ad occhio nudo anche da centri cittadini. Il movimento dei pianeti rispetto alle stelle fisse non è così veloce come uno potrebbe aspettarsi: nell’arco di un’intera notte è infatti difficile avvertirne lo spostamento. Tale moto diviene evidente solo con il passare dei giorni o dei mesi, specialmente se il pianeta si trova basso sull’orizzonte.
I pianeti più luminosi visibili da Terra sono Venere di colore bianco e Giove di colore giallo. A seguire Marte, di colore rosso mattone, che per motivi orbitali varia di molto la sua luminosità passando dall’essere una tra le stelle più luminose del cielo ad una stella di media luminosità. Mercurio, di colore arancione, è piuttosto luminoso ma essendo sempre vicino al Sole è difficile da distinguere tra le luci di alba e tramonto. Infine via via più deboli troviamo Saturno e Urano. Il primo di colore giallo ed il secondo, al limite della visibilità ad occhio nudo, di colore azzurro. Per osservare l’ultimo pianeta del Sistema Solare è invece necessario utilizzare un binocolo di medie dimensioni o un piccolo telescopio.
Tutti i pianeti ruotano intorno al Sole muovendosi su un piano che visto in sezione rappresenta l’eclittica. Rispetto all’orbita descritta dal nostro pianeta, è possibile distinguere tra pianeti interni ed esterni. I primi si trovano sempre tra noi ed il Sole e pertanto è impossibile osservarli nel cuore della notte. Questi inoltre potranno apparire in fase o transitare sul disco solare. I pianeti esterni d’altronde potranno essere visibili anche nel cuore della notte. Il punto di massima visibilità e di minima distanza dal nostro pianeta è quella in cui il pianeta esterno si trova allineato con la Terra ed il Sole. Tale condizione prende il nome di opposizione. I pianeti esterni non presenteranno quindi una fase visibile, mantenendosi sempre prossima al 100%, e soprattutto non potranno mai transitare sul disco solare. Ricordiamo infine che i pianeti interni sono Mercurio e Venere, mentre quelli esterni sono Marte, Giove, Saturno, Urano e Nettuno.

Come appare Saturno in un telescopio amatoriale.

I pianeti però non sono gli unici astri “erranti”. Esistono infatti corpi minori, e quindi meno luminosi, che si spostano tra le stelle fisse. Uno di questo venne addirittura ad occupare la posizione di pianeta fino al 24 Agosto del 2006: Plutone. Stiamo parlando di pianeti nani e asteroidi. I primi sono corpi celesti simili ai pianeti ma di piccole dimensioni, mentre i secondi sono corpi rocciosi di piccole dimensioni con orbita compresa tra quella di Marte e Giove. I pianeti nani classificati sino ad oggi sono cinque: Cerere, Plutone, Haumea, Makemake ed Eris. Gli asteroidi sono invece migliaia e spesso più che con un nome vengono identificati con una sigla.
Oggetti tanto misteriosi quanto affascinanti sono infine le comete, palle di neve sporca che per instabilità gravitazionali vengono a modificare la propria orbita “cadendo” verso le regioni interne del Sistema Solare. Quando si avvicinano al Sole ecco quindi che il ghiaccio sublima dando luogo a quella che è l’atmosfera cometaria: la chioma. Gas e polveri vengono così emessi nello spazio e conseguentemente spazzati via dal vento solare formando quella che è la coda cometaria. Ricordiamo che il 2013 sarà ricordato per gli abitanti dell’emisfero boreale come l’anno delle comete dato che ben tre comete luminose varcheranno i nostri cieli: la cometa PAN-STARRS, LEMMON ed ISON.  Quando il nostro pianeta, durante il suo moto di rivoluzione intorno al Sole, attraversa i detriti lasciati nello spazio dalle comete abbiamo il manifestarsi del fenomeno degli sciami meteorici. Quindi le meteore o “stelle cadenti” non sono altro che detriti di origine cosmica che, cadendo verso Terra, si “incendiano” emettendo luce. Se una meteora cade sino a sfiorare la superficie terrestre si parla di bolidi. I bolidi possono essere udibili anche a grandi distanti o persino creare danni al suolo. Quando una meteora infine si impatta sulla Terra viene denominata meteorite.
Concludiamo infine ricordando che oltre ai corpi celesti abbiamo i satelliti artificiali e la stazione spaziale internazionale (ISS) che appaiono in cielo come stelle luminose in moto tra le stelle fisse. Queste possono poi scomparire magicamente nel nulla quando passano attraverso il cono d’ombra generato dalla Terra. Alcuni satelliti invece possono ruotare su se stessi velocemente riflettendo come dei flash la luce del Sole. Tali flash che appaiono ad occhio nudo come dei bolidi sono chiamati iridium flash.
Non siete soddisfatti della vastità di oggetti da osservare e riprendere con le vostre fotocamere digitali che vi offre l’Universo? Allora ve ne aggiungiamo altri. Infatti, oltre ai corpi celesti “erranti” esistono altri che variano la loro luminosità nel tempo. Esempi sono le stelle variabiliche cambiano la loro luminosità passando dall’essere visibili ad occhio nudo ad essere faticosamente distinguibili con un binocolo. Il motivo di tale variazione di luminosità dipende dalla natura della stella (sistema doppio che si eclissa reciprocamente, stelle instabile, …).

Esempio di supernova esplosa nella galassia M65

Altri esempi sono le novae, ovvero stelle che per un certo periodo della loro vita vanno incontro a fenomeni esplosivi violenti in grado di aumentarne vertiginosamente la luminosità. Ultimo fenomeno transitorio è l’esplosione di supernova. In questo caso la luminosità della stella, giunta ormai al termine della propria vita, aumenta vertiginosamente, diventando così il corpo più luminoso dell’intera galassia che la ospita. L’esplosione di supernova è un fenomeno raro all’interno di una stessa galassia, ma considerando la quantità enorme di galassie alla portata dei telescopi amatoriali, scopriamo che ogni mese è possibile riprenderne almeno una (vedi Figura). Ben diverso è osservare una supernova all’interno della Via Lattea. L’ultima ad essere esplosa è la nota “stella di Keplero”, osservata nell’ormai lontano 9 Ottobre del 1604. Alcune delle nebulose che oggi osserviamo nel cielo sono resti di quelle imponenti esplosioni.




Vita e Morte delle Stelle

Seppur in quantità minore rispetto al Sole, anche la luce lunare viene diffusa dalla nostra atmosfera donando al cielo notturno una colorazione bluastra. Purtroppo a seguito dell’inquinamento luminoso questo fenomeno non è più osservabile da cieli urbani e suburbani dove la volta celeste appare perennemente di colore giallo-arancione.

Una stella risulta visibile a occhio nudo quando è distinguibile dal fondo cielo. Questo ovviamente nei limiti imposti dalla natura stessa dell’occhio umano. Quindi se il cielo aumenta la sua luminosità discostandosi dal colore nero, se ne deduce che il numero di stelle visibili ad occhio nudo tende mano a mano a diminuire. Il caso limite è ovviamente il cielo diurno dove la diffusione della luce solare cela all’occhio umano la visione di tutte le stelle presenti. Se pertanto vogliamo osservare un cielo ricco di stelle dobbiamo cercare un cielo buio che si traduce in basso inquinamento luminoso e assenza di Luna in cielo. Questo spiega perché gli astrofili osservano gli oggetti celesti prevalentemente in condizioni di Luna Nuova e perché gli Osservatori Astronomici aprono le loro porte al pubblico in Luna Piena.
È giunto quindi il momento di fare il grande balzo. Scegliete quindi il weekend più vicino alla Luna Nuova, prendete la vostra automobile e correte il più lontano dai centri cittadini. Dato che a diffondere la luce sono principalmente le particelle di acqua presenti in atmosfera, cercate un posto asciutto come i valichi alpini o le cime di colli. A questo punto, aspettate due ore circa dopo il tramonto in modo da dare il tempo al Sole di andare sufficientemente sotto l’orizzonte con la sua luce accecante e alzate gli occhi al cielo: ciò che vedrete sarà un’esperienza unica e indimenticabile. Le stelle in cielo saranno tantissime e le più luminose sembreranno cadervi in testa. Solo dopo una mezz’ora riuscirete ad orientarvi e a distinguere quelle poche stelle che avete imparato a riconoscere dai cieli inquinati di casa vostra.
Ora che avete cominciato a ritrovare le vostre stelle di guida, siete pronti per cominciare a navigare tra le stelle che inondano la volta celeste. Ma prima di fare ciò osservate con attenzione le stelle più luminose. Non sono tutte dei puntini bianchi. Alcune di esse avranno una colorazione più giallognola, alcune rosso mattone, altre azzurro chiaro. Le stelle assumono infatti colorazioni differenti a seconda della loro natura e del loro stato evolutivo. Purtroppo anche l’esperienza di osservare i colori delle stelle sta diventando un lontano ricordo per gli astrofili che vivono sotto cieli urbani o suburbani.
Quei puntini luminosi (ora potremmo dire anche colorati) che chiamiamo abitualmente stelle sono in realtà sfere di gas del tutto simili al nostro Sole, poste a distanze enormi da noi. Le dimensioni di questi “Soli” variano moltissimo passando da circa 20 km di diametro a 2600 volte il diametro del nostro Sole.
Ancora una volta le dimensioni di una stella dipendono dalla loro natura e dal loro stato evolutivo. Infatti, come gli esseri viventi, anche le stelle nascono, crescono e muoiono. Volendo semplificare e generalizzare l’evoluzione stellare potremmo affermare che, da una nube di gas primordiale, condensarono in un passato più o meno lontano una o più stelle, così come le gocce di pioggia condensano dalle nuvole. La forza di gravità responsabile di tale condensazione ha permesso alle regioni centrali della stella neonata di raggiungere temperature elevatissime in grado di innescare reazioni di fusione termonucleari. Saranno proprio queste ultime a permettere alla stella di non collassare ulteriormente e di brillare per miliardi di anni. In questa condizioni di stabilità si trova ad esempio ora il nostro Sole. Dopo miliardi di anni però il “combustibile nucleare” presente nel cuore della stella tende ad esaurirsi. Ecco quindi che con il venire meno delle reazioni di fusione termonucleare la stella ritorna in una fase di instabilità e a seconda della sua massa può procedere attraverso vie più o meno tormentose che la porteranno a liberarsi di quasi tutto il gas che la compone attraverso processi più o meno esplosivi. Il gas così liberato nello spazio prende il nome di nebulosa. Proprio in queste nebulose potranno successivamente nascere nuove stelle. Quando la stella libera il proprio gas in maniera non violenta, allora la nebulosa assume una forma sostanzialmente sferica e si parla di nebulose planetarie (vedi Figura).

Nebulosa planetaria nella costellazione della Volpetta

Il nostro Sole finirà la propria esistenza generando una nebulosa planetaria. Il nome “planetario” deriva dal fatto che in passato, quando la qualità ottica dei telescopi era piuttosto bassa, queste nebulose venivano confuse con dischi planetari.
Seppur deboli rispetto alle stelle, le nebulose sono visibili sia ad occhio nudo che ovviamente attraverso binocoli o telescopi. Come detto in precedenza, da una nube primordiale possono nascere più stelle contemporaneamente che pertanto appariranno in cielo in forma di gruppi, per poi dissolversi nel corso di miliardi di anni. Tali gruppi di stelle, alcuni dei quali visibili facilmente ad occhio nudo, prendono il nome di ammassi aperti.
La distanza tra una stella e l’altra dell’ammasso è però molto grande tanto da ritenere le stelle come sistemi indipendenti. Altre volte però due o più stelle possono trovarsi così vicine da cominciare a ruotare le une intorno alle altre. In questo caso si parla di sistemi multipli a possono essere osservate con piccoli telescopi. Quando le stelle del sistema sono solo due si parla di stelle doppie. Ovviamente due stelle molto vicine in cielo non è detto che siano legate fisicamente. Infatti potrebbe essere solo un allineamento prospettico tra stelle molto lontane tra loro. In questo caso si parla di stelle doppie prospettiche. Una stella doppia prospettica assai nota è la coppia Alcor e Mizar che costituisce una delle sette stelle dell’Orsa Maggiore.
Ma le stelle sono distribuite uniformemente nella volta celeste? Se la osservate in primavera la risposta sembrerebbe essere si, ma osservando il cielo notturno in tutte le altre stagioni osserverete una striscia lattiginosa attraversare il cielo. Proprio in questa striscia troverete il maggior numero di nebulose ed ammassi aperti visibili ad occhio nudo. Si chiama Via Lattea è rappresenta una vera e propria “nube” di stelle. Se infatti prendete un binocolo e percorrete la Via Lattea scoprirete che quella macchia lattiginosa non è altro che una distesa quasi infinita di stelle. In realtà tutte le stelle visibili di notte ed il nostro stesso Sole appartengono a questo vastissimo insieme di stelle che chiamiamo Galassia.
Se ora guardiamo nel cielo più profondo è possibile osservare altri insiemi di stelle del tutto simili alla nostra Galassia. Sono le galassie (con la “g” minuscola) di cui la più vicina, nota come galassia di Andromeda, è visibile persino ad occhio nudo da cieli particolarmente bui.
Scopo di questo post è di dare al lettore la terminologia astronomica necessaria per comprendere i soggetti di future riprese astrofotografiche. Non è nostro scopo dare una descrizione completa di tali corpi e fenomeni celesti. Il lettore interessato potrà trovare tali informazioni in qualsiasi libro di Astronomia.




Luna e Sole

Potremmo affermare che tra tutti i corpi celesti, la Luna e il Sole sono quelli più noti anche tra quelle persone non appassionate di Astronomia. In passato erano importantissimi, dato che con il loro moto, determinavano il passaggio del tempo. Il Sole è la stella più vicina alla Terra e questo fa si che essa appaia come l’oggetto più luminoso del cielo. La sua luminosità è così elevata che la luce solare viene diffusa dall’atmosfera terrestre che pertanto si illumina coprendo così la luce delle altre stelle. Questo è il motivo per cui di giorno non riusciamo ad osservare nessun corpo celeste ad eccezione della Luna, del pianeta Venere e di eventuali fenomeni transienti come comete, meteore o esplosioni di supernovae. Grazie all’ausilio di filtri specializzati è possibile osservare una regione della nostra stella nota come fotosfera, che potremmo definire come la “superficie” del Sole. Questa appare come una superficie luminosa uniforme, solcata a volte da macchie scure e filamenti brillanti. Le prime sono note come macchie solari e rappresentano delle regioni più fredde della fotosfera. Queste prendono parte alla rotazione solare e evolvono nel tempo modificando continuamente la loro forma e dimensione. Il Sole presenta dei periodi in cui è ricco di macchie solari, alternati a periodi di apparente quiescenza. Tali periodi prendono rispettivamente il nome di massimo e minimo solare. La distanza temporale tra due massimi solari è nota come ciclo solare ed è pari a circa 11 anni. Le regioni più brillanti della fotosfera sono le facole e in contrapposizione alle macchie solari sono regioni particolarmente calde. Grazie a particolari telescopi, noti come telescopi solari H-alfa, è possibile osservare la regione sovrastante la fotosfera, nota come cromosfera. La cromosfera potremmo interpretarla come “l’atmosfera solare”. Le strutture più evidenti della cromosfera sono le protuberanze solari; immensi getti di gas e plasma che raggiungono spesso dimensioni enormi pari a parecchie volte il diametro dell’intera Terra. La cromosfera è visibile, insieme alla regione ancor più esterna costituita da gas rarefatto e nota con il nome di corona, durante le eclissi totali di Sole.

Eclissi Totale di Sole - 11/08/1999. Dall'immagine è ben visibile la corona solare.

Durante questi fenomeni visibili da Terra, la Luna si interpone tra il Sole e il nostro pianeta, oscurando così la luce della fotosfera e rendendo visibile la cromosfera. Quando la sovrapposizione non è perfetta e la Luna non riesce a coprire perfettamente il Sole allora si parla di eclissi anulare.
La Luna appare vista dal Terra delle stesse dimensioni angolari del Sole. Questo è dovuto al fatto che il diametro della nostra stella sia circa 400 volte quello lunare e, nello stesso tempo, la Luna sia 400 volte più vicina alla Terra. Condizione fortuita ma che permette il manifestarsi delle eclissi totali così come le conosciamo. La Luna è il nostro unico satellite naturale e ruota intorno a noi, così come su se stessa, con un periodo di circa un mese. Conseguenza di questo sincronismo tra periodo di rivoluzione e rotazione è che la Luna mostra a noi terrestri sempre la stessa faccia. Malgrado questo, a causa del moto di rivoluzione intorno alla Terra, la Luna presenta le fasi. Quando la Luna è completamente illuminata dal Sole si parla di Luna Piena, quando è illuminata per metà Luna al Primo o Ultimo Quarto infine quando non è illuminata e quindi invisibile tra le luci del giorno si dice essere Luna Nuova. Se, durante la fase di Luna Piena, il nostro satellite viene completamente oscurato dal cono d’ombra terrestre, allora si manifesta un’eclissi totale di Luna. Potrete ben capire che le eclissi di Sole avvengono unicamente in Luna Nuova, quando il nostro satellite si trova tra noi ed il Sole. Ingrandendo il disco lunare attraverso un semplice binocolo, teleobiettivo o telescopio è possibile notare alcune conformazioni tipiche quali crateri da impatto, pianure note anche come mari lunari, vallate o catene montuose. Come per la durata del giorno, anche il periodo tra due Lune Piene non è esattamente 27 giorni 7 ore e 42 minuti ovvero il periodo di rivoluzione della Luna detto mese siderale ma 29 giorni 12 ore e 44 minuti a seguito del moto della stella intorno al Sole. Quest’ultimo periodo è detto mese sinodico.




E pur si muove!

Nel post “La volta celeste da cieli urbani e suburbani” abbiamo posto le basi necessarie per individuare i quattro punti cardinali e in particolare la posizione della stella Polare. Ciò, abbiamo detto, è particolarmente semplice nei mesi compresi tra Marzo e Giugno, ossia quando la costellazione dell’Orsa Maggiore è alta sopra l’orizzonte. Quest’ultima frase sottende il fatto che le costellazioni in cielo si muovono. Questo moto non coinvolge le singole stelle ma la volta celeste nel suo complesso, lasciando pertanto invariata la forma delle costellazioni.

Infatti è possibile notare come durante la notte tutte le stelle, fisse nella loro reciproca posizione relativa, sembrano ruotare da est verso ovest tracciando delle circonferenze intorno alla stella Polare ed intorno ad un punto posto sotto l’orizzonte a sud come mostrato in figura.

Figura 1: A sinistra è visibile il moto relativo delle stelle intorno al polo celeste (nord). A destra invece è possibile notare come le stelle più basse a sud incominciano a ruotare intorno all'altro polo celeste (sud)

In realtà questo effetto è una diretta conseguenza del fatto che la Terra ruota su se stessa. Esistono quindi solo due punti nel cielo che non partecipano al moto della volta celeste ovvero quelli che giacciono esattamente sull’asse di rotazione terrestre. Questi punti a seconda che si trovano sopra il polo nord o sud terrestre prendono rispettivamente il nome di polo celeste nord e polo celeste sud. La stella Polare si trova a pochissima distanza dal polo celeste nord e questo spiega perché è l’unica stella che dalle nostre latitudini non cambia mai la sua posizione nel cielo. Purtroppo non esiste una stella luminosa nei pressi del polo celeste sud e questo fa si che, in termini di orientamento il nostro emisfero (boreale) sia sicuramente avvantaggiato rispetto all’altro (australe).

Visto dallo spazio i poli celesti si trovano esattamente sopra i rispettivi poli terrestri. Pertanto un osservatore posto a una latitudine λsulla superficie terrestre osserverà il polo celeste a un’altezza λ (in gradi) sopra l’orizzonte. Per gli astrofili e astrofotografi Italiani quindi la stella Polare si troverà ad un’ altezza compresa tra 35° (Lampedusa) e 47° (Alto Adige) dall’orizzonte nord.

Riassumendo, nel corso della notte, tutta la volta celeste e quindi le stelle, sembrano ruotare rigidamente in senso antiorario intorno ad un unico punto fisso identificato nel nostro emisfero dalla stella Polare. Questo è lo stesso moto che ogni giorno percorrono il Sole, la Luna e tutti i corpi del Sistema Solare. Se ora supponiamo di registrare la posizione di una stella a una determinata ora della notte allora, dopo una rotazione completa della Terra intorno al suo asse, ovvero dopo un giorno, questa dovrebbe trovarsi nella stessa identica posizione. Questo sarebbe vero solo se la Terra non partecipasse al moto di rivoluzione intorno al Sole. Il moto di rivoluzione intorno al Sole fa si che al normale moto di rotazione terrestre si debba aggiungere un moto di rotazione “fittizio” di periodo 365 giorni 6 ore 9 minuti e 10 secondi (anno siderale). Ecco quindi che una stella si troverà nello stesso punto del cielo non dopo 23 ore 56 minuti e 4 secondi, noto come giorno siderale ma dopo circa 24 ore noto come giorno solare vero. In realtà a seguito dell’orbita non perfettamente circolare della Terra e dell’angolo di inclinazione del pianeta rispetto al piano orbitale, il giorno solare vero varia durante l’anno con un minimo di 23 ore 59 minuti e 39 secondi a cavallo del 17 Settembre ed un massimo di 24 ore 0 minuti e 30 secondi a cavallo del 24 Dicembre. Per tale motivo spesso si preferisce usare il giorno solare medio pari a 24 ore esatte.

In questo post abbiamo scoperto quali sono le caratteristiche del moto relativo della volta celeste e l’importanza che la stella Polare ricopre per l’emisfero boreale.




La volta celeste da cieli urbani e suburbani

Soffermarsi ad ammirare un cielo stellato rilassandosi sotto di esso, magari immersi in un fresco prato estivo è un’esperienza fantastica. Ma da questa a sapersi orientare tra quei puntini luminosi vi è un abisso. Abisso che spesso appare profondo e impenetrabile.

I più caparbi solitamente acquistano libri di Astronomia per neofiti pensando di trovarvici la chiave di lettura, la bussola necessaria per orientarsi nel cielo notturno. Eppure sfogliando le mappe celesti non si riesce, almeno le prime volte, a trovare un riscontro con le stelle che vediamo scrutando dalle finestre di casa. Ecco quindi che se non si hanno amici astrofili ci si sente smarriti. In questo post non riporteremo mappe celesti o informazioni generiche ma cercheremo di dare le informazioni necessari per interpretare con la giusta chiave di lettura i libri di introduzione all’Astronomia che trovate in libreria o su ebook.

Cominciamo con il dire che le mappe celesti che trovate nei libri riportano le stelle visibili ad occhio nudo da un cielo a medio-basso inquinamento luminoso. Oggi è possibile ritrovarsi in tali condizioni salendo in montagna o allontanandosi il più possibile da centri abitati. La prima condizione è fondamentale per gli abitanti della Pianura Padana al fine di evitare la presenza di nebbia o foschia che inevitabilmente attenua la luce delle stelle e diffonde la luce artificiale delle città. Sono infatti tali luci, spesso non necessarie o mal progettate, a generare quel bagliore luminescente noto come inquinamento luminoso che va a nascondere la tenue luce delle stelle.

Per imparare ad osservare il cielo notturno con i tradizionali libri di Astronomia è pertanto necessario allontanarsi da casa. Questa condizione sfortunata è purtroppo esperienza comune per la maggior parte degli Italiani che vivono in regioni urbane o suburbane. Inoltre, al fine di comprendere i moti relativi della volta celeste il cielo notturno deve essere osservato con continuità. Questo rende all’apparenza inutile ai fini pratici qualsiasi libro di Astronomia oggi in commercio.

Vediamo quindi di imparare a nuotare nei nostri cieli inquinati per poi tuffarci, i fine settimana, nelle profondità di cieli bui trapuntati da miriadi di stelle.

Cominciamo quindi con il considerare le notti di cielo sereno, senza eccessiva nebbia o foschia. In questa fase di apprendimento sono ideali le notti ventose, capaci di abbassare l’umidità e rendere il cielo particolarmente trasparente.

L’ideale è cominciare ad osservare il cielo in assenza di Luna. Il bagliore del nostro satellite naturale infatti va a peggiorare la qualità della nostra osservazione. Per lo stesso motivo attendete due ore dopo il tramonto in modo che le luci del tramonto abbiano ormai lasciato il passo alla notte. Ovviamente d’estate vi toccherà rimanere svegli più a lungo.

Siete quasi pronti per iniziare il vostro primo viaggio; vi rimane però ancora una cosa da fare: osservare il Sole. Mi chiederete che senso ha osservare il Sole per orientarsi di notte, ma presto lo scoprirete da soli.

Osservate così il moto del Sole durante il giorno da casa vostra, individuando il punto dove sorge al mattino e dove tramonta la sera. Non serve una determinazione precisa, basta solo localizzare l’area di cielo relativa ad alba e tramonto.

A questo punto avete già imparato un concetto astronomico importante: la regione di cielo dove sorge il Sole è l’est. La regione di cielo dove tramonta il Sole è l’ovest. Avrete sicuramente notato come est ed ovest si trovino in punti diametralmente opposti del cielo. A questo punto indicate con il braccio sinistro l’est e con il braccio destro l’ovest. La regione di cielo di fronte a voi è il sud. Alle vostre spalle non vi rimane che il nord. Osservando il moto diurno del Sole sarete così riusciti ad individuare i quattro punti cardinali.

Scegliamo ora una serata di cielo sereno nel periodo dell’anno compreso tra Marzo e Giugno e puntiamo il nostro sguardo verso nord. Dovremmo individuare sette stelle molto luminose, alte sull’orizzonte (praticamente sopra la nostra testa nel mese di Maggio), la cui disposizione oltre ai nomi delle singole stelle è riportata in Figura 1.

Figura 1: la costellazione dell'Orsa Maggiore (immagine ottenuta con il programma Stellarium)

Tale agglomerato di stelle, d’ora in poi parleremo di costellazione, è noto come Orsa Maggiore. A questo punto tracciamo una linea immaginaria tra le stelle Merak e Dubhe. Muoviamoci così lungo questa linea nella direzione indicata dalle stelle Alioth, Mizar e Alkaid. La prima stella luminosa che troveremo è la stella Polare.

Se sino a questo punto avete fatto tutto correttamente, la stella polare dovrebbe trovarsi esattamente nella regione di cielo che voi avete identificato come nord.

Questa stella è molto importante perché, mentre la costellazione dell’Orsa Maggiore si muoverà notte dopo notte e nel corso stesso della notte, la Polare non si sposta mai.

Primo passo da fare per navigare tra le stelle è quella di cercare la stella Polare. Per fare questo dovrete innanzitutto cercare nel cielo l’Orsa Maggiore che si trova alta nel cielo solo nei mesi compresi tra Marzo e Giugno. Trovata la stella polare, indicatela con il braccio destro. Il braccio sinistro indicherà così il sud, di fronte a voi avrete l’ovest e alle vostre spalle l’est. Individuata la stella Polare siete così in grado di riconoscere i quattro punti cardinali senza dover osservare il moto del Sole per un’intera giornata.

Perché non usare una bussola? Il motivo principale è che utilizzando la stella Polare cominciate ad avere un contatto con il cielo ed a stimare le dimensioni di una costellazioni (alcuni confondono le Pleiadi con la costellazione dell’Orsa Minore). Inoltre gran parte delle bussole economiche non segnano mai il nord.

Come procedere ora? A questo punto dovrete prendere una mappa del cielo o utilizzare software gratuiti come Stellarium. Posizionate il punto cardinale della mappa o della simulazione virtuale in modo che sia di fronte a voi. Alzate gli occhi al cielo e cercate di individuare le costellazioni presenti utilizzando come metro la costellazione dell’Orsa Maggiore. Ovviamente dai cieli di casa vostra non riuscirete mai a vedere tutte le stelle riportate nelle mappe astronomiche. Cominciate con le costellazioni più appariscenti che nei mesi compresi tra Marzo e Giugno sono: Leone, Gemelli, Boote e la Lira. Di queste dovreste individuare quasi tutte le stelle principali. Dopodiché provate a trovare tutte le altre costellazioni che potrebbero però apparire prive di qualche stella nascosta tra le luci dell’inquinamento luminoso.

Divertitevi quindi cercando, notte dopo notte, di ricostruire la mappa del cielo visibile da casa vostra. Se vi imbattete in qualche stella molto luminosa che però non appare nelle vostre mappe astronomiche non vi preoccupate: è un pianeta. Avete così quattro mesi per imparare ad individuare le costellazioni dopodiché l’Orsa Maggiore non sarà più visibile e dovrete quindi utilizzare le costellazioni studiate in questo periodo per ritrovare il nord e la stella Polare.

Quando vi sentirete pronti a fare il grande balzo prendete l’automobile e andate lontano dalle città sotto un cielo buio. In queste condizioni le costellazioni appariranno ben visibili in cielo in tutte le loro parti e la prima impressione sarà quella di un completo smarrimento. Le prime volte non riuscirete persino a ritrovare la costellazione dell’Orsa Maggiore, persa tra migliaia di stelle.

Siete ormai pronti per navigare in mare aperto. Buon viaggio!




Guida all’Astrofotografia Digitale

Le Digital Single Lens Reflex (DSLR), note ai più come reflex digitali, sono delle semplici macchine fotografiche in cui la pellicola è stata sostituita da un sensore a semiconduttore. Mentre in passato era possibile ottenere il massimo da una fotografia agendo sul processo di sviluppo, oggi gioca un ruolo fondamentale il processo di acquisizione ed elaborazione delle immagini digitali. Inoltre a differenza delle macchine fotografiche analogiche dove la pellicola esposta alla luce diventava, una volta sviluppata, la vera e propria fotografia, nelle DSLR le informazioni accumulate nel sensore a semiconduttore vengono convertite in immagini che noi osserviamo sul monitor del nostro computer. Quindi nell’era digitale è importante conoscere a fondo il funzionamento del sensore e come, a partire da questo, viene costruita l’immagine finale. In particolare in questa sezione analizzeremo:

  • Il sensore
  • Dal fotoelemento al pixel
  • La matrice di Bayer
  • L’immagine digitale
  • I file RAW, TIFF, JPEG e FITS
  • Somma di immagini astronomiche:
    • Light frame
    • Segnale termico
    • Bias frame
    • Dark frame
    • Flat frame
    • Rumore e calibrazione del light frame
    • Allineamento e combinazione delle immagini
  • Elaborazione di immagini astronomiche:
    • Livelli di luminosità e l’istogramma
    • Correzione della gamma
    • Calibrazione del colore

IL SENSORE

Lo sviluppo della fotografia digitale deve la sua origine all’invenzione dell’elemento fotosensibile a semiconduttore o photosite. Il funzionamento di questo componente elettronico è piuttosto semplice ragionando in termini di fotone. Un fotone possiamo immaginarlo come un singolo raggio di luce emesso dall’oggetto celeste che vogliamo riprendere. Una galassia, seppur debole, emette un numero incredibile di fotoni al secondo! Questi fotoni vengono focalizzati dallo schema ottico posto di fronte alla fotocamera digitale, sia esso un telescopio o un “semplice” obbiettivo, su un piano (focale) dove è situato l’elemento fotosensibile costituito da atomi di Silicio. I nuclei di questi ultimi, in condizioni normali, trattengono fortemente i propri elettroni che si dicono essere in banda di valenza. Quando arriva un fotone questo può urtare l’atomo di Silicio e strappargli un elettrone. Tale elettrone si dice essere così in banda di conduzione. A questo punto il fotoelemento è in grado di catturare questo elettrone “libero” ed accumularlo in una cella capacitiva. Il numero di elettroni nella cella genera così un segnale analogico (differenza di potenziale) proporzionale al numero di fotoni che hanno colpito il fotoelemento durante l’intera esposizione.

Ma che cos’è allora un sensore? Un sensore è semplicemente una griglia o matrice di elementi fotosensibili a semiconduttore e può essere di tipo CCD o CMOS. Nel primo caso (si parla di Charge-Coupled Device) il segnale analogico globale viene creato a partire da quello generato in ogni singolo fotoelemento. Questo successivamente viene amplificato, convertito in segnale digitale e mandato al computer della fotocamera.

Nel secondo caso (si parla di Complementary Metal Oxide Semiconductor) il segnale analogico di ogni cella viene amplificato uno per uno tramite piccoli amplificatori. Questo verrà poi trasformato in segnale digitale e mandato al computer.

Se anni fa vi era una differenza sostanziale tra CCD e CMOS, oggi i due tipi di sensori sono praticamente equivalenti sotto quasi tutti gli aspetti (rumore, risoluzione, …).

Ogni singolo fotoelemento a semiconduttore nelle DSLR è un quadrato con dimensione tipica pari a circa 5-8 μm e può accumulare sino a circa 40.000 elettroni. Nel caso particolare del sensore CMOS montato sulla DSLR Canon EOS 40D le dimensioni del fotoelemento sono pari a 5.7 μm. Il numero totale di fotoelementi presenti in un sensore determinano il numero di pixel della DSLR (vedremo che la parola pixel è, in questo caso, un abuso di notazione). Nel caso della Canon EOS 40D il sensore è costituito da 3.888 x 2.592 fotoelementi ovvero 10.077.696 pixel (10.1 Megapixel).

Un altro parametro importante per quanto riguarda i sensori è la discretizzazione. Con questo termine si vuole indicare il fatto che il numero di elettroni accumulati in un fotoelemento è necessariamente discreto. Questo spiega perché una fotocamera digitale non può distinguere tra un numero infinito di livelli di luminosità.

I livelli di luminosità vengono assegnati durante la fase di conversione del segnale analogico generato dai fotoelementi in segnale digitale. In particolare il numero di tali livelli dipendono dal numero di bit impiegati nella digitalizzazione del segnale. Nel caso della Canon EOS 40D la digitalizzazione avviene a 14 bit (processore DIGIC III) e quindi si hanno a disposizione 16.384 livelli dove al numero 0 è associato il nero e al numero 16.383 il bianco.

Come si può vedere il numero di livelli è inferiore al massimo numero di elettroni accumulabili in un fotoelemento con una perdita di segnale. Lo studio di processori che utilizzano un numero di bit sempre più grandi sono una richiesta fondamentale per lo sviluppo delle DSLR.

Prima di concludere questa digressione sui sensori è necessario ricordare che per le fotocamere digitali con ISO intendiamo il fattore di amplificazione del segnale durante il processo di digitalizzazione. Ovviamente il rumore, dettato dall’amplificatore, giocherà un ruolo importantissimo nell’aumento del numero di ISO. Per la Canon EOS 40D il massimo numero di ISO è fissato a 3.200.

DAL FOTOELEMENTO AL PIXEL

In questo paragrafo vedremo il passaggio dal concetto di fotoelemento a quello di pixel. Spesso i due termini vengono confusi malgrado abbiano significati completamente differenti. Come abbiamo visto, il fotoelemento è il componente elettronico elementare del sensore. I fotoni che colpiscono un fotoelemento generano un segnale proporzionale al loro numero. Questi segnali vengono poi discretizzati durante il processo di conversione analogico – digitale. Alla matrice fisica di fotoelementi del sensore è così associata una matrice numerica dove ogni elemento è detto pixel. A partire dalle informazioni contenute in ciascun pixel sarà poi possibile costruire l’immagine che vedremo visualizzata sullo schermo. In figura è rappresentata la relazione tra fotoelemento e pixel nel caso di illuminazione da parte di un disco stellare (cerchio rosso).

Quando parliamo di DSLR a colori cadiamo spesso in errore pensando che il sensore CMOS o CCD sia realmente sensibile al colore. In realtà il sensore, così come i fotoelementi sono in bianco e nero. Allora come è possibile che le immagini riprese con la nostra macchina fotografica digitale appaiano a colori? Il segreto sta nell’interposizione di quattro filtri colorati di fronte ad ogni fotoelemento. La configurazione più comune è la RGBG o comunemente RGB in cui i quattro filtri sono due verdi, uno rosso ed uno blu. In questo modo, nel caso della Canon EOS 40D dei 10 milioni di fotoelementi del sensore, circa 2.5 milioni sono sensibili al rosso, 2.5 milioni al blu e 5.0 milioni al verde. Il fatto che i fotoelementi sensibili al verde siano in sovrannumero è dovuto alla maggior sensibilità dell’occhio umano a queste frequenze.

A partire dai segnali nei canali rosso, verde e blu è possibile tramite un’opportuna combinazione estrarre informazioni sulla luminosità e colore dell’oggetto. Questo metodo venne inventato da B. Bayer per la Kodak nel 1975 ed ancor oggi è utilizzato nella maggior parte delle DSLR. La matrice di pixel RGBG disposti come in figura prende il nome di “matrice di Bayer”.

Molteplici sono i metodi che permettono di estrarre informazioni sul colore e luminosità dell’immagine a partire dalla matrice di Bayer. Tra i più noti ricordiamo il metodo dell’interpolazione e del super-pixel. Nel caso invece della somma di più immagini a colori è possibile utilizzare anche il metodo Bayer drizzle. Per maggiori informazioni su questi metodi di combinazione si legga la guida tecnica di DeepSkyStacker.

L’IMMAGINE DIGITALE

Dopo aver distinto tra fotoelemento e pixel è possibile definire l’immagine digitale come una matrice di numeri che rappresentano, per ogni canale (ad esempio rosso, verde e blu), i livelli di luminosità. Tali numeri sono definiti pixel.

I livelli di luminosità abbiamo visto dipendere dal numero di bit utilizzati nel processo di digitalizzazione del segnale analogico generato dal sensore. Per quanto riguarda la Canon EOS 40D, per ogni canale, i livelli di luminosità sono 16.384 (14 bit). L’occhio umano non sa però distinguere più di 256 livelli di luminosità e quindi immagini a 8 bit possono ritenersi più che buone. Questo non è però vero per quanto riguarda la somma di immagini dove la qualità del risultato aumenta all’aumentare del numero di livelli di luminosità delle singole immagini.

Concludendo, un’immagine digitale è quindi costituita, per ciascun canale (RGB), da una matrice di pixel. Ciascun pixel è rappresentato a sua volta da un numero compreso tra 0 e NNbit-1, dove Nbit è il numero di bit che rappresenta il suo livello di luminosità. Al fine di non perdere queste preziose informazioni è necessario memorizzare la nostra immagine digitale in un file.

I FILE RAW, TIFF, JPEG e FITS

File RAW (CR2)

Il formato RAW significa appunto immagine “grezza”, non processata. Questa immagine non è visualizzabile a video direttamente ma contiene tutte le informazioni così come generate dal sensore CCD o CMOS. In particolare nella maggior parte delle DSLR le informazioni sono memorizzate basandosi su uno schema a matrice di Bayer la quale può essere successivamente processata secondo uno degli schemi precedentemente accennati. Questo è il formato ideale per la somma di immagini astronomiche e non solo, dato che nei file RAW sono contenute tutte le informazioni che possono essere estratte dalla nostra DSLR. Nel caso della Canon EOS 40D le immagini in formato CRW (estensione *.CR2) sono, per quanto detto precedentemente, immagini a 14 bit. I file RAW contengono inoltre informazioni sulla posa che vengono opportunamente scritte nell’header del file.

File TIFF

Il formato TIFF (Tagged Image File Format) è il migliore dopo il RAW. Di file TIFF ne esistono una grande varietà: a 8 bit, a 16 bit, in scala di grigio, RGB o CMYK, non compressi, compressi LZW o RLE, su piani multipli o no (immagini su più pagine). Dato che la compressione LZW è proprietaria dal 2006, molti software gratuiti o a basso prezzo non la supportano.

File JPEG

Questo è il formato più utilizzato dalle DSLR, automaticamente elaborato dalla fotocamera. Il file JPEG è compresso e se da un lato occupa meno spazio su disco, dall’altro abbiamo una perdita di dettagli a basso contrasto. Il grado di compressione è regolabile e un file JPEG compresso al minimo è confrontabile in termini di qualità con un file TIFF. File JPEG in colore RGB è lo standard utilizzato per la pubblicazione di fotografie su internet.

File FITS

Questo è il formato più utilizzato per le immagini astronomiche. Sfortunatamente fuori da questo contesto i file FITS sono poco utilizzati e spesso non sono supportati da software non propriamente astronomico. I file FITS sono i più adattabili e possono essere utilizzati a 8 bit, 16 bit, 32 bit e 64 bit con o senza compressione. Questo formato contiene un header in cui sono memorizzate informazioni sulla ripresa e possono essere lette con un comune editor di testo.

LIGHT FRAME

Consideriamo un esempio pratico in cui noi riprendiamo con il nostro telescopio o obbiettivo fotografico una galassia. I fotoni emessi dalla galassia interagiranno con gli atomi di Silicio dei 10 milioni di fotoelementi del sensore e verranno convertiti in elettroni che costituiranno il nostro segnale analogico. Questo sarà proporzionale al numero di fotoni che avranno interagito con ciascun fotoelemento durante l’intero tempo di esposizione. Successivamente il segnale analogico (uno per canale) viene convertito in un segnale digitale da cui il concetto di pixel. Il risultato complessivo è la matrice di Bayer RGB in cui in ogni pixel è riportato un valore numerico che rappresenta il livello di luminosità compreso tra 0 (nero) e 2Nbit-1 (bianco) dove Nbit è il numero di bit utilizzato per la codifica analogico – digitale. Nel caso della Canon EOS 40D Nbit = 14. A questo punto i dati relativi alla ripresa (tipo di fotocamera, tempo di esposizione, diaframma, ISO …) insieme alla matrice di Bayer per i canali RGB vengono memorizzati in un file RAW.

Alla fine della nostra ripresa fotografica avremo quindi un file RAW che, anche se non è ancora un’immagine digitale vera e propria, contiene tutte le informazioni necessarie per crearla.

Con un abuso di notazione chiameremo con la parola “immagini” tali file RAW. Definiamo perciò light frame l’immagine della galassia ripresa. Questo light frame è importantissimo e rappresenta l’immagine originale, senza modifiche, elaborazione o compressioni ed è perciò importante crearne una copia di backup.

Il light frame non contiene però solo il segnale della galassia, ovvero l’immagine della galassia vera, così come la vedono i nostri occhi (o anche meglio), ma altri tipi di segnali indesiderati a ciascuno dei quali è associato un certo livello di rumore. Tra i segnali indesiderati ricordiamo i più importanti:

  • Segnale di BIAS e segnale termico,
  • Non uniformità del campo di ripresa, vignettatura, polvere, differente sensibilità di ciascun fotoelemento, …

Analizziamo ora uno ad uno questi segnali.

SEGNALE TERMICO

Il primo dei segnali indesiderati presenti nel light frame è il segnale termico o corrente di buio. Per capire questo segnale bisogna fare un passo indietro e considerare di nuovo il funzionamento del fotoelemento a semiconduttore. Abbiamo visto come il segnale generato dal singolo fotoelemento sia dovuto all’accumulo di elettroni “strappati” ai nuclei di Silicio a seguito dell’urto di un fotone. Naturale pensare quindi che se non ci sono fotoni (ovvero il fotoelemento è al buio) i nuclei di Silicio trattengono i loro elettroni e quindi non abbiamo segnale. Ebbene non è esattamente così. L’agitazione termica può infatti indurre alcuni elettroni a passare dalla banda di valenza a quella di conduzione e quindi generare un segnale spurio. Tale segnale è appunto il segnale termico.

BIAS FRAME

Un altro segnale indesiderato presente nel light frame è il segnale elettronico o di lettura. Immaginiamo ora che i fotoelementi a semiconduttore si comportino in maniera ideale. Se questi non vengono illuminati allora non ci sono fotoni e quindi elettroni liberi. Questa condizione genererebbe un segnale analogico nullo. Tale segnale poi sarà processato da una catena elettronica (dal fotoelemento al sensore, convertitore analogico – digitale, …). Dato che questa non è ideale ma costituita da componenti reali, il segnale finale non sarà una matrice di pixel con livello di luminosità 0 ma quello che prende il nome di BIAS frame.

Il BIAS frame non è quindi legato al processo di fotorivelazione ma unicamente all’elettronica della nostra SLDR. Il light frame conterrà quindi, oltre al segnale della galassia anche il segnale elettronico che dovrà essere quindi sottratto. Come fare ciò?

Quello che si deve realizzare è un BIAS frame ovvero la risposta dell’elettronica all’assenza di segnale da parte del sensore. Come detto precedentemente avremmo bisogno di un sensore ideale che riprenda un’immagine di buio assoluto. Sensore ideale significa privo di segnale termico. Per fare questo dovremmo concettualmente esporre con tempo di esposizione nullo. Questo non è possibile. Quello che possiamo fare è quindi esporre con il tempo più veloce possibile. Nel caso della Canon EOS 40D tale tempo di esposizione è 1/8000 di secondo. Ovviamente l’esposizione deve avvenire al buio e questo può essere ottenuto tappando il nostro sistema ottico (telescopio o obbiettivo). Ecco quindi che oltre al light frame, memorizzato in un file RAW, abbiamo anche il BIAS frame, sempre memorizzato in un file RAW.

DARK FRAME

Definito il BIAS frame, come ricostruire un’immagine del segnale termico (detto thermal frame) associato al nostro light frame? La risposta è con il dark frame. Il Dark frame è un’immagine con tempo di esposizione uguale a quello del light frame ma ripresa in condizioni di buio. Tale immagine è però soggetta come il light frame al segnale elettronico. Il thermal frame sarà quindi dato dalla sottrazione del BIAS frame dal dark frame. Per realizzare il dark frame basta quindi tappare il nostro sistema ottico (telescopio o obbiettivo) e riprendere un’immagine (altro file RAW) con lo stesso tempo di esposizione del light frame.

FLAT FRAME

A questo punto non ci rimane che studiare l’ultimo tipo di segnale ovvero quello che dipende dalle non uniformità della ripresa come campo distorto, vignettatura, povere, non idealità dei fotoelementi, …

Per fare questo è necessario riprendere una superficie uniformemente illuminata senza modificare l’ottica e la posizione della fotocamera digitale. Se il nostro sensore fosse ideale allora ogni fotoelemento è irraggiato dallo stesso numero di fotoni e quindi medesima altezza del segnale prodotto. Questo non avviene poiché ogni fotoelemento ha una differente sensibilità. Inoltre dei granelli di polvere depositati sul filtro IR posto di fronte al sensore potrebbero parzialmente oscurare alcuni fotoelementi. Infine ricordiamo che anche l’ottica utilizzata (obbiettivo o telescopio) potrebbero trasformare una sorgente uniforme di luce in una non uniforme sul sensore a causa di difetti ottici come la vignettatura. Riprendendo quindi l’immagine di una sorgente uniformemente illuminata è possibile estrarre informazioni su tutti questi tipi di “difetti”. Tale immagine prende il nome di flat frame. Per realizzare il flat frame è quindi necessario riprendere una superficie uniformemente illuminata (con una flat box per esempio) senza modificare l’ottica e la posizione della fotocamera digitale. Il tempo di esposizione deve essere scelto in modo che il livello di luminosità medio sia circa il 50% di quello di saturazione. Per fare questo è consigliabile farsi aiutare dall’istogramma (vedi il post sull’elaborazione di immagini astronomiche). Gli ISO ed il diaframma dovranno essere impostati con lo stesso valore del light frame. Ovviamente anche il flat frame sarà soggetto al segnale di BIAS e termico che dovranno essere sottratti. Se le condizioni di ripresa del BIAS frame per il light frame sono le stesse in cui è stato ripreso il flat frame (condizioni ambientali invariate) allora non è necessario riprendere un altro BIAS frame. Dato che invece il tempo di esposizione del flat frame è generalmente diverso da quello del light frame sarà necessario riprendere anche il dark frame relativo al flat frame.

RUMORE E CALIBRAZIONE DEL LIGHT FRAME

Si è discusso di segnali spuri di tipo termico, elettronico o di flat. Abbiamo sempre utilizzato la parola segnale al fine di indicare la riproducibilità degli stessi. Infatti un dark frame, un BIAS frame o un flat frame effettuati nelle stesse condizioni riproducono “quasi” lo stesso tipo di immagine. Il quasi sta ad indicare che ogni ripresa e sempre diversa da un’altra in quanto soggetta a rumore. Nella parola “rumore” riassumiamo una serie di fenomeni che non permettono la perfetta riproducibilità di un’immagine pur operando nelle stesse identiche condizioni. Quindi se illuminiamo uniformemente un fotoelemento con una sorgente di luce, alla valle della catena di acquisizione vedremo un livello di luminosità che varia nel tempo in modo sostanzialmente casuale. Ora supponiamo di avere un fotoelemento che riceve per ogni esposizione 100 fotoni. Supponendo di trascurare i segnali spuri, il solo rumore farà si che alla fine il livello di luminosità del pixel sia 100, 101, 99, 100, 101, 99, 99, 101, 100, … variando di esposizione in esposizione malgrado le condizioni di posa siano rimaste inalterate. Se ora però supponiamo di effettuare 9 pose identiche ed effettuiamo, per il fotoelemento considerato, la media del livello di luminosità del pixel allora (100 + 101 + 99 + 100 + 101 + 99 + 99 + 101 + 100)/9 = 100. Questo significa che se il singolo scatto può fluttuare tra 99 a 101 in modo casuale, la media fornisce un valore più simile a quello vero. Quanto simile? Dipende dall’operazione che si effettua sul pixel. Per la maggior parte dei metodi (media, mediana, kappa – sigma clipping, media pesata auto adattiva, …) il rapporto segnale rumore aumenta con la radice quadrata del numero di scatti (frame). Se in una posa una stella ha un livello di luminosità 100 con rumore 1 il relativo rapporto segnale rumore è S/N = 100/1 = 100 (S/N è il simbolo del rapporto segnale rumore dove N sta per noise ovvero rumore in inglese). Se ora facciamo 10 riprese “identiche” della stessa stella allora il rapporto segnale rumore diviene S/N = 100 10 = 316. Cosa significa questo? Che se prima avevo una fluttuazione sull’immagine pari all’1.0% mediando 10 frame avrò una fluttuazione sull’immagine pari al 0.3%.

La riduzione del rumore o meglio l’aumento del rapporto segnale rumore significa un aumento dei dettagli dell’immagine. Maggiori quindi saranno il numero di frame e maggiore sarà la qualità dell’immagine finale.

Questo può (deve) essere fatto con tutti i frame precedentemente analizzati: light frame, dark frame, bias frame, flat frame, dark flat frame e bias flat frame. Il procedimento più corretto è ridurre il rumore di tutti i frame contenenti segnali spuri. Tali frame si chiameranno master. Quindi il primo passo per la combinazione delle immagini digitali è creare i master dark frame, master bias frame, master flat frame, master dark flat frame e se necessario il master bias flat frame.

A questo punto si procede con il processo di calibrazione del light frame, ovvero per ogni light frame si effettua la seguente operazione pixel a pixel:

light frame calibrato = [(light frame-master bias frame)-(master dark frame-master bias frame)] : [(master flat frame-master bias flat frame)-(master dark flat frame-master bias flat frame)]

Alla fine di questo procedimento avremo tanti light frame calibrati ovvero light frame a cui sono stati sottratti i segnali spuri.

ALLINEAMENTO E COMBINAZIONE DELLE IMMAGINI

Una volta ottenuto il nostro insieme di light frame calibrati, non ci resta che ridurne il rumore operando su di essi come abbiamo fatto per i dark, flat, … . Quindi pixel per pixel è possibile effettuare la media, la mediana, … dei livelli di luminosità ottenendo il master light frame calibrato. Dato però che l’inseguimento effettuato da una qualsiasi montatura astronomica non è mai perfetto, è necessario allineare le immagini prima di combinarle. Infine è possibile anche sottrarre ai singoli light frame calibrati i pixel caldi e freddi ovvero i fotoelementi a semiconduttori del sensore non funzionanti e che quindi generano sempre un segnale identico e ovviamente sbagliato. Tutte queste funzioni oltre a quelle di costruzione dei master frame dei segnali spuri vengono effettuati da molti software dedicati, tra cui ricordiamo il gratuito DeepSkyStacker (ricordiamo che stacker in inglese significa combinazione di immagini) o IRIS. Per maggiori dettagli sul funzionamento dei suddetti programmi vi invitiamo a leggere i manuali utente disponibili agli indirizzi http://deepskystacker.free.fr/english/index.html e http://www.astrosurf.com/buil/us/iris/iris.htm .

LIVELLI DI LUMINOSITÀ E ISTOGRAMMA

Abbiamo visto come il processo di digitalizzazione del segnale prodotto dal sensore produce una matrice di pixel in cui il numero di elettroni raccolto in ogni fotoelemento viene tradotto in un numero compreso tra 0 e 2Nbit-1, dove Nbit è il numero di bit con cui viene digitalizzato il segnale. Tale numero viene spesso indicato come livello di luminosità e l’unità di misura è detta ADU (Analog to Digital Unit). L’occhio umano non può però distinguere più di 256 livelli (ovvero i nostri occhi sono a 8 bit) e per questo, qualsiasi sia il numero di bit dell’immagine RAW, alla fine del nostro processo di elaborazione dovremo convertire l’immagine in una a 8 bit. Per lo stesso motivo alcuni programmi di elaborazione come Photoshop presentano sempre scale di livelli di luminosità a 8 bit anche se l’immagine è stata digitalizzata a valori di bit superiori. Come facilmente intuibile 0 ADU rappresenta il colore nero e 255 ADU il colore bianco. Tra 0 e 255 si trova tutta la varietà di grigi (ricordiamo che le immagini prodotte dalla DSLR sono in bianco e nero).

Quando riprendiamo un’immagine digitale quindi, ogni pixel avrà per ogni canale (ad esempio RGB) un livello di luminosità misurato in ADU. Se ora rappresentiamo in un grafico la distribuzione dei pixel per un dato valore di luminosità otteniamo quello che comunemente prende il nome di istogramma.

Per quanto riguarda la fotografia astronomica l’istogramma può assumere diverse forme a seconda del soggetto ripreso. Se siamo di fronte ad un oggetto diffuso come una nebulosa allora l’istogramma avrà un picco per bassi valori di ADU associato al fondo cielo ed una lunga coda che si prolungherà fino al valore di 256 ADU che rappresenta le stelle e le parti più luminose (bianche) della nebulosa. Nella coda troviamo tutta la varietà di grigi associata alle varie sfumature della nebulosa.

Nel caso invece di riprese planetarie allora avremo nuovamente un picco nella zona a bassi ADU associato al fondo cielo ma invece della coda avremo una distribuzione complessa che dipenderà dalla colorazione della superficie (o atmosfera) del pianeta.

Anche se in modo diverso dalla fotografia diurna l’istogramma può darci informazioni riguardo alla corretta esposizione della nostra immagine. Immagini sottoesposte avranno un istogramma sostanzialmente concentrato intorno ad un valore basso di ADU, mentre immagini sovraesposte avranno lo stesso picco ma intorno a valori alti di ADU. Ovvio che molto dipende anche dal soggetto che stiamo riprendendo. Ma cosa succede se l’immagine non ha tutte le varietà di grigio? L’istogramma sarà allora diverso da zero solo in una zona limitata di ADU. In questo caso è possibile elaborare l’immagine in modo da estendere questa zona a tutti i possibili valori di ADU. Tale processo prende il nome di equalizzazione dell’istogramma.

CORREZIONE DELLA GAMMA

Abbiamo visto nei precedenti capitoli come l’immagine RAW sia una “traduzione” in pixel della carica elettrica accumulata nei singoli fotoelementi. Tale carica è proporzionale (o in relazione lineare) al numero di fotoni e quindi alla luminosità dell’oggetto ripreso. L’occhio umano a sua volta trasformerà i fotoni prodotti dai singoli pixel in segnale in grado di generare l’immagine nel nostro cervello. Questa seconda trasformazione è però non lineare, dato che l’occhio è più sensibile ai mezzi toni ed alle differenze chiaro – scuro. Matematicamente questo si traduce in una risposta logaritmica dei nostri occhi alla luce. In generale è quindi necessario tarare lo strumento con cui osserviamo l’immagine digitale in modo che la sua risposta alla luminosità fornita dal sensore sia il più possibile simile a quella dell’occhio umano. Questo per evitare che l’occhio umano percepisca come sottoesposta un’immagine ricca di mezzi toni scuri. In generale possiamo definire:

 

luminosità percepita (come frazione del massimo) = (valore luminosità del pixel : massimo valore di luminosità del pixel)γ

 

dove γ 2.2. Il parametro gamma ci dice quanto la luminosità percepita differisca dalla vera rispetto ad una relazione di tipo lineare data da γ = 1. Lo schermo dei nostri LCD, monitor, stampanti a colori o fotografiche devono simulare il più possibile la luminosità percepita dal nostro occhio. In questo modo, per non perdere informazioni, è necessario correggere l’immagine digitale in modo da rimettere in relazione lineare il numero di fotoni dell’oggetto e la luminosità dello stesso cosi come si raffigura nel nostro cervello. Tale correzione può essere realizzata attraverso la formula:

pixel corretti = massimo valore dei pixel corretti (pixel non corretti : massimo valore dei pixel non corretti)1/γ

Questa correzione è necessaria per rendere correttamente visibile l’immagine all’occhio umano e normalmente viene effettuata dai software di elaborazione di immagini astronomiche o dalla DSLR nel caso scattassimo le nostre fotografie in formato JPEG.

CALIBRAZIONE DEL COLORE

Una volta elaborata la nostra immagine astronomica digitale, otteniamo un’immagine a colori corretta in tutti i canali (per esempio RGB). A questo punto non è detto che i colori della nostra immagini siano esattamente quelli reali o in ogni caso l’immagine potrebbe avere una dominante. Per risolvere questo problema alcuni programmi di elaborazione come Photoshop ma anche lo stesso IRIS permette di pesare (regolare) i tre canali in modo differente, correggendo così l’eventuale colore dominante. Nel caso della Canon EOS 40D i pesi dei tre canali sono generalmente: Rosso 1.96, Verde 1.00, Blu 1.23.

Questi dovrebbero fornire un’immagine con colori in buona approssimazione simili a quelli reali. Se invece si vuole effettuare delle misure fotometriche (ovvero avere un’immagine con i colori reali) allora la calibrazione del colore può divenire più complicata.

Una volta calibrato il colore è possibile, sempre con i software per l’elaborazione delle immagini digitali, agire sulla luminosità e il contrasto dell’immagine, le curve, oppure sulla correzione dei colori per i chiari, i scuri o i mezzi toni in modo da dare all’immagine l’aspetto che preferiamo. Questi metodi insieme all’applicazione di maschere, deconvoluzione dell’immagine, riduzione dell’inquinamento luminoso, eccetera saranno trattati in futuri post.