Stacken von Mond/Sonne und Planeten

„Ein Bild, ist kein Bild“ lautet einer der Sprüche in der Astrofotografie, denn die erzielbare Bildqualität wird erheblich gemindert durch verstärktes Rauschen und der Luftunruhe.  Ersteres durch dem wenigen Licht das uns zur Verfügung steht, sodass wir über längere Zeit belichten müssen und dabei natürlich auch eine höhere ISO verwenden. Die Luftunruhe merkt man, je stärker man vergrößert. Sie schwankt sehr, und es kann durchaus sein, dass ein Bild kurzer Belichtungszeit fast perfekt ist, das nächste aber sehr verschwommen.

Bei der Fotografie des Nachhimmels steht eher das Bildrauschen eine Rolle, es sind ja großflächigere Bereiche und Objekte mit Brennweiten von den üblichen Fotooptiken bis so 1000mm, aber die Belichtungszeiten liegen eben in etwa zwischen 1 und 8 Minuten bei ISO800, je nach verfügbarer Lichtstärke.

Mond, Sonne und Planeten sind dagegen hell bis sehr hell, daher bleiben die Belichtungszeiten oft deutlich unter einer Sekunde, oft unter 1/100-1/4000s. Daher spielt hier das Sensorrauschen weniger eine Rolle, dafür aber die Luftunruhe. Die Planeten sind dazu sehr klein und bedürfen dann einer extrem starken Vergrößerung.

Ein Methode um 1 gutes Bild zu erhalten ist es: Viele Bilder zu machen und dann das Bild heraussuchen, wo die Luft am ruhigsten war. Das nennt sich „Lucky Image„.  Wer auf höchste Auflösung steht, wird aber auch da Bildrauschen vorfinden, weil man ja dann oft eine 100% Ansicht herausschneidet um eine vernünftige Größe zu bekommen. Und die Waffe gegen Rauschen ist es halt, möglichst viele Bilder zu mitteln. Wer nämlich ein verrauschtes Bild versucht zu schärfen wird die Artefakte mitverstärken, wer entrauscht, wird feine Details mit entsorgen. Daher wird man möglichst viele Bilder stacken wollen und zwar nur möglichst viele der spärlichen „Lucky Images“.

Anders als bei „Deep Sky“ Bildern, wo es ja jede Menge Sterne gibt, die der Stacking Software als Anhaltspunkt zum Zusammenrechnen dienen, hat man es bei Mond/Sonne und Planeten mit großflächigen Strukturen zu tun. Man braucht also spezielle Software, die solches erkennt.
Auch hat man es bei den „Deep Skybildern“ mit einer vergleichsweisen überschaubaren Anzahl von Einzelbildern zu tun, so um die 30-300 Bilder um eine Zahl zu nennen, bei Planeten bewegt man sich da dann schon eher zwischen 1000 und 10.000 Bilder pro Serie!  Das muss man erstmals speichern, beurteilen und dann bearbeiten wollen/können.

Daher ist die Planetenfotografie immer schon ein Domaine der „Webcams“: Man benötigt nur einen kleinen Sensor und produziert ein möglichst unkomprimiertes Video. Je höher die Framerate (USB2 vs. USB3), aus desto mehr Einzelbilder besteht das Video. Da man fast nur das winzige Objekt am Film hat, bleibt die Dateimenge noch im Rahmen. Bei Mond wird bei diesen Vergrößerungen nur mehr ein kleiner Teil abgebildet, das aber perfekt! Ein Mosaik aus 10-50 Bildern ergibt dann ein höchst aufgelöstes Mond Bild. Dagegen kann kein Stack aus der Fotokamera mithalten…..aber wir wollen hier betrachten, was wir mit unseren Fotokameras anstellen können:

Mond und Sonne sind bei unseren FT Sensoren bei ca 1,1m Brennweite formatfüllend. Wer einen 1,4x Telekonverter sein eigen nennt, kommt also bequem mit 800mm Brennweite dahin. Mit „Silent Shutter“ kann man bis zu 60 Bilder / Sekunde hochauflösend erhalten. Also man kann relativ leicht seine vielen  hundert Einzelbilder erhalten. Natürlich verwenden wir RAW. Bei einem HD-Video reichen aber 800mm Brennweite, weil selbst ein HD-Video nur ein Bruchteil der maximal möglichen Auflösung eines 16 oder 20 MPixel Sensors besitzt. Bei Jupiter kommt ein Problem dazu: Er dreht sich sehr schnell (nur etwas über 9 Stunden) sodass man ab 1 Minute bereits Verwischung sehen könnte.

Wer die HQ-Auflösung (50-70 MPixel derzeit) für seine Bilder vom Mond/Sonne benützt, erhält zwar wirklich eindrucksvolle Bilder, aber da 8 Bilder in der Kamera versetzt zusammengerechnet werden müssen wird das wohl nur bei absolut perfekten Seeing einen Sinn machen. Und diesen sehr sehr seltenen Moment muss man erst mal erwischen. Zwischendurch probieren kann man es ja mal….

Seit langem gibt es  spezialisierte Software für die Planetenfotografie: Giotto oder Registax zum Beispiel. Aber sie werden seit geraumer Zeit nicht mehr weiterentwickelt und sind nur für kleine Dateigrößen ausgelegt. Einzig mit FITSworks konnte ich bis 20 MPixel  Bilder des Mondes erfolgreich stacken. Bei HR Dateien, skalierte FITSWork stark herunter. Eine Stack von ausgewählten 100 Bildern dauert so einen halben bis ganzen Tag….

Schon ein „Lucky Image“ aus der Fülle der Bilder herauszufischen ist sehr anstrengend. Zum Glück gibt es da aber jetzt Hilfe: AutoStakkert (AS!). Wer sich dann noch mit Planetenfotografie herum schlägt, wird schnell den Wunsch verspüren, das viele schwarze Rundherum wegzuschneiden. Das erledigt souverän PIPP (Planetary Imaging PreProcessor). Als Startdatei kann man sowohl Video (AVI/MOV etc) wie auch TIFF oder ORF Files verwendet. Das Ergebnis dann als TIFF/FITS oder unkomprimiertes AVI Speichern lassen. Das versteht dann AS!.
Wer sich ffmpeg herunterlädt und das ffmpeg.exe in das Verzeichnis von AS! legt, der kann direkt auch die MOV Datei seiner Kamera als Ausgangsbasis verwenden. Wer allerdings ORF Files in AS! stacken will, muss sie vorher in TIFF Files umwandeln . Also entweder mit OlyViewer, oder PIPP oder was auch immer das ORF File als TIFF exportieren.

Stacken mit Autostakkert:

1.) Zuerst seine Dateien (TIFF) öffnen oder als AVI Video (MOV wenn ffmpeg vorhanden).
2.) Analyse: Es erfolgt eine Analyse der Einzelbilder

Man sieht dann eine Status der Verteilung der Bildqualität der Bilder in der Kombigrafik: Die Schwankung der Bildqualität der Reihenfolge der Einzelbilder, die Grüne Linie zeigt in etwa den Verlauf der Qualität der gesamten Bildserie.

In der Vorschau wählt man die Bereiche, die dann beim Stacken analysiert werden und herangezogen werden. Der Clou dabei: Es werden von den gewählten Ausschnitten nur die Bildinformationen gestackt, die am besten sind, was bei großflächigen Objekten wie Mond / Sonne ja durchaus abweicht, denn mal ist ein einem Bereich ein Teil scharf, der andere aber nicht. Es wird also nicht stur einfach Bild x + y + z gestackt sondern wirklich nur der Bereich aus den Bildern der jeweils am besten ist. Daher sollten diese Bereiche auch überlappen. Aber dazu gibt es auch Anleitungen auf der AS! Seite (wenn auch nur auf Englisch).  Da ist viel Platz zum Optimieren seiner Bildserie.

Stack Option:
Man wählt sein Ausgabeformat des Stacks. Dann kann man sich aussuchen. AS! kann verschieden viele „der am besten befundenen“ Bildern stacken und legt dann ein Verzeichnis an wo die fertigen Stacks hineinkommen, mit entsprechender Bezeichnung im Filenamen. (liegt ein Verzeichnis unterhalb des Stammverzeichnis der Input Datei(en). Man kann also gleich mal je 4 verschiedene Stack’s anfertigen lassen: Entweder eine fixe Anzahl der gestackten Bilder oder Prozent Zahl. Wie viele der Bilder gestackt werden sollen, hängt sehr von der Qualität der Rohbilder ab. Sind sehr viele Bilder schlecht, wird man eher mit wenigen Bildern zum stacken sein Auslangen finden müssen.

Das ganze geht überraschend schnell !!

Da ich die gestackten Bilder hinterher erst bearbeite und brauch ich keine der angebotenen Bildverbesserungen die PIPP oder AS! bieten.

Hier ein 1:1 Ausschnitt eines Stacks der 4 besten Bilder aus 347:

180325 1:1 Crop Mond

Die kleineren klar sichtbaren Krater messen um die 4-5 km Durchmesser.

Hier noch ein erster Versuch am  Jupiter:

50 aus 200 Bildern 1:1

Mittlerweile habe ich auch probiert HR Files aus der E-M1.II (70 MPixel !) zu stacken. Ich hatte dazu 28 Bilder zur Verügung die ich als TIFF exportierte. Das als Beste durch AS! gezeigte Bild habe ich dann quasi als OOC (out of cam) bearbeitet. Weiters lies ich dann AS! jeweils folgende Stacks erstellen:  4,5,6,7 beste Frames und 12, 15, 25 und 30%. Mit einem Computer mit einer Ryzen7 1700 CPU und 32GB RAM klappte das innerhalb 10-15 Minuten. Während der Bearbeitung wurden 27 GB RAM genutzt und alle 16 Threads der 8 Kern CPU  wurden benutzt.

Die richtige Belichtung

Wie in der Fotografie auch, ist das Ausgangsmaterial entscheidend für ein gutes Bild. Aus einem falsch belichteten Bild kann man zwar noch versuchen durch Bildbearbeitung einiges zu retten oder besser: kaschieren, aber es erfordert sehr hohes Können.

Leider ist der Himmel meist nicht von bester Qualität, aber man kann zumindest bei der Standortwahl schon einiges berücksichtigen. Möglichst nicht über Lampen hinwegfotografieren oder Dächer. Ersteres verursacht unbeherrschbare Helligkeitsgradienten im Bild, letzteres kann durch aufsteigende Wärme zusätzliches „seeing“ (flimmern der Luft und damit stärker herumtanzende Sterne) bewirken.

Wichtig für uns: Um einen möglichst großen Kontrastumfang aufs Bild zu bekommen so zu belichten, dass im Histogramm der Buckel an der dunklen Seite deutlich vom (meist) linken Rand wegkommt. Er repräsentiert die vielen Pixel des Himmelshintergrund. Alles was heller ist, einige Sterne halt meist, sind in ein paar hellen Pixel die dann auch rechts (die helle Seite) oft  nicht mal sichtbar sind zu finden.
Ist der Himmel heller, wandert der Histogrammbuckel immer weiter Richtung hell. Wenn das zu weit wird, vergibt man Dynamik. Es steht ja nur noch der restliche Teil für Objektinformationen zur Verfügung.

170421 Histogramm der Kamera

Natürlich fotografieren wir nicht in JPG sondern in RAW der Kamera. Heutige Digitalkameras haben ca. 12 Bit Farbtiefe.
Ein JPG Bild aber nur 8 Bit Tiefe. Mit 8 Bit hat man gerade mal 256 Abstufungen (2^8) zwischen Dunkel und Hell. Bei  Farbbildern hat man ja 3 Farben: Rot/Grün/Blau = RGB das ergibt dann die besagten 16,77 Mio Abstufungen. Klingt viel, ist es auch, denn für unsere Auge reicht das vollkommen aus.
12 Bit bedeuten schon 4096 Abstufungen (8*2*2*2*2). Das bedeutet schon ein gewaltiger Anstieg der Dynamik!
Merke: Jedes Bit mehr bedeutet: Man kann bei einem gerade gesättigten Pixel doppelt so lange belichten, ohne dass es ausbrennt.Das bedeutet aber auch, wenn man hinterher, wenn viele Bilder addiert werden, dass man bald nicht mehr mit einem 16 bit Format auskommt, sondern dann mit 32 Bit Fileformat arbeiten muß.  Bei TIFF ist man ja in der Farbtiefe an sich nicht begrenzt, aber nur wenige Programme können mit 32 bit TIFF umgehen. Speziell in der Astrofotobearbeitung hat sich da das FITS Format durchgesetzt. Am Ende der Bearbeitung reduziert man dann das Bild wieder auf das übliche JPG.Vom fixen Fotostativ wird man aber schnell merken: Man kann, abhängig von der Brennweite nur im Sekunden Bereich belichten, ohne dass die Sterne merklich zu Eiern oder Strichen verformt werden. Bedingt durch die Erdrotation. Dabei ist die Geschwindigkeit bei den Himmelspolen am langsamsten, am schnellsten beim Himmelsäquator.Als Anhaltspunkt:
Beim Olympus Extremweitwinkel 7mm (=14mm KB) ist gerade noch eine Belichtungszeit von 15-20 Sekunden möglich, ohne dass Sterne all zu sehr in die Länge gezogen werden! Bei weniger Weitwinkel entsprechen viel kürzer!

Die Bewegung der Sterne am Himmel ist je nach dem auch unterschiedlich schnell. Am Himmelsäquator ist sie am schnellsten, an den Polen am langsamsten. Für 08/15 Bilder der Milchstraße  kann man bei Olympus Kameras noch mit der Formel 120/Brennweite rechnen, dennoch wird man bei kleinen Lichtpunkten sehen, dass sie in die Länge gezogen werden. Bei dicken fetten, Sternen oder wenn man nicht genau scharf stellen konnte, wird man die kleine Wanderung nicht so schnell sehen. Wer z.B. das hochauflösende mFT75/1.8 mal in Himmelsäquatornähe einsetzt und ganz kritisch das Ergebnis begutachtet, wird sehen, dass die Faustregel für die längst mögliche Belichtungszeit nur 60/Brennweite betrifft. Das währen also nicht mal 0,8 Sekunden bei den 16 MPixel Sensoren (Pixelgröße 3,8µm). Bei einer E-M1.II / PenF die den 20 MPixelsensor haben ist die Pixelgröße nur noch 3,3 µm, entsprechend müsste man noch kürzer belichten.

Also einfach probieren, wie weit man gehen kann / will. Um also mehr benötigtes Licht in dieser Zeit auf den Sensor zu bringen gibt es nur ein paar Möglichkeiten: Lichtstärkere Optik oder höhere ISO. Für einen Einstieg und Sternenfelder zu fotografieren um in aller Ruhe dann am Bild den Sternenhimmel kennen zu lernen, reicht das. Probatestes Mittel aber ist eine Nachführung, wie z.b. der SkyWatcher „StarAdventurer„. Wenn man mal die Hürden einer genauen Ausrichtung überwunden hat, kommt man da je nach Brennweite auf jeden Fall auf 2 Minuten Belichtungszeit. Bei ISO800 und F4 ist das Zentrum der Andromeda Galaxie gerade noch nicht überbelichtet.Hat man jetzt ein gut belichtetes Bild (Sterne rund, Histogrammbuckel im Dunkeln Bereich bei 20-30% und der hellste Teil gerade noch nicht ausgebrannt) zustande gebracht, macht man davon möglichst viele.Die werden dann hinterher zusammengerechnet (gestackt).

Hier ein Beispiel: Einzelbild vs. Stack und Bearbeiten

Bei mir nicht all zu hoch über den Horizont und darunter in 2km Entfernung Schloß Grafenegg, wo im Wolkenurm immer wieder große Konzertaufführungen stattfinden. SQM geht hier selten über 20.0
Hier ein Einzelbild nur verkleinert wie es aus der Kamera kommt (OOC – out of cam). Aufgrund der Himmelshelligkeit muss ich min. eine Blende schließen und statt normalerweise ISO800 kann ich nur ISO400 verwenden:

170529 RHO-Oph - Out of Cam unbearbeitet Einzelbild

Zwar auch nicht umwerfend, aber immerhin: 71 Bilder des obigen Bildes gestackt und bearbeitet zeigt schon recht gut die Faszination von Rho-Ophiuchi um den hellen Stern Antares im Sternbild Skorpion:

170529 Rho-OPH stack

Bildbearbeitung in der Astrofotografie

Irgendwann man kriegt es hin, richtig belichtete Bilder zu bekommen.
Andernfalls hat man ja schon vorher das Handtuch geworfen ;-).

Nach dem  ich die ersten Hürden überwunden habe war mein Workflow:

Stacken in Deep Skystacker.
Wichtig ist dabei jedenfalls, dass man vorher in RAW fotografiert hat, und falls das RAW Format deiner Kamera nicht im DS erkannt wird, es vorher möglichst unbehandelt in ein 48bit TIFF Bild exportiert.

Strecken und Ebnen des Hintergrundes in Fitswork. Ein wichtiger Schritt ist es das Bild zu strecken. Wirklich Tutorials lesen, sonst schneidet man da sehr viel weg! Hier z.B. die Anleitung von Thomas Henne dazu.

Die Unkenntnis über die Tiefen der Bearbeitungsschritte und das Verständnis um die Dinge gehen ja Hand in Hand und bauen einem gerne mal unüberwindliche Hürden auf.

Nach dem Stacken mit DSS und Strecken mit Fitswork hab ich es jedenfalls als 16bit TIFF gespeichert und in meiner normalen Fotosoftware nachbearbeitet. Im Nachhinein gesehen, kommt man da bei manchen Objekten recht weit.

Aber irgendwann braucht man einfach Maskentechniken und sehr viel mehr Wissen was man wann macht. Denn jeder Schritt kann das Endergebnis stark beeinflussen, meist negativ.

Da kommt dann wohl der Punkt, wo man sich entscheiden muss: Photoshop oder PixInsight.

Es gibt natürlich einen Zwischenschritt, der im wissenschaftlichen Bereich stark eingesetzt wird: ImageJ – oder gleich das volle Paket mit allen Modulen: Fiji
Auch eine spezielle Version für Astrofotgrafie: Astro ImageJ.

Das ist eine Java Modulsammlung, wo Wissenschaftler für viele nervige Probleme ein Javascriptmodul geschaffen haben. Da muss man aber ganz viel englische und wohl zum Teil unverständliche Dokumentationen dazu lesen, wie es halt bei Freeware so ist.
Es gibt laufend Updates, die auch automatisch eingespielt werden können.
PixInsight ist im Grunde auch „nur“ eine solche offene Modulsammlung.

Durch den PI Intensiv Workshop gab es eine exzellente Einführung (siehe die Videos auf dsig.at) und natürlich die viele Tutorials im Netz.

So bekomme ich jetzt mal relativ schnell Ergebnisse, die weit über dem liegen, was ich davor hoffte erreichen zu können.

Noch schnell ein Beispiel anhand eines recht leichten Objekts, M13, der große Kugelsternhaufen im Sternbild Herkules.

M13, NGC6205 - Herkuleshaufen

17.8.2014   mein erstes Bild  (ISO1000 60sec)

150424 M13 / NGC6205 (Her)

24.4.2015  neuer Versuch – (15 x 4min ISO400)

150612 M13 / NGC6205 (Her)

12.7.2015  erste Versuche mit PI (11 x 4min ISO800)

160506 M13 OC unbearbeitetes JPG

6.5 2016  Ein beschnittenes Einzelbild, so wie es die Kamera als JPG speichert

160506 M13

6.5.2016 mit PI ausgearbeitet (11 x 4min ISO400)

170713 -170728 M13

13.7.-28.7.2017 27x4min ISO400 + 21x4min ISO800

 

Astronomie Bilder bearbeiten

Als Olympus Anwender ist man ja sehr verwöhnt, was die Bildqualität „out of Cam“ betrifft: Meist stimmt der Weißabgleich und für mehr als 90% der Alltagssituationen reicht das JPG.

Wem die Bilder zu konservativ „flau“ sind, wenn sie die Wirklichkeit zeigen, der darf gerne hinterher noch den Kontrast und Sättigung erhöhen und stark Nachschärfen und so eine drastische Bildreduktion an Daten herbeiführen. Dafür sieht das Ergebnis auf dem ersten Blick dann knackig aus wie bei anderen „Consumer DSLR“ Fotoapparaten. Jedem das Seine, aber man muss auch sagen, dass es sehr wohl Situationen gibt, wo es angebracht ist, die Qualität zugunsten der Verfälschung stark zu beschneiden. Egal.

Bei der Astrofotografie wird man schnell merken, ohne Bildbearbeitung nach allen Regeln der Kunst wird man schnell nicht mehre sehr weiterkommen. Man muss viele Bilder übereinander legen um schwache Details herauszukitzeln. Da sich aber meist die einzelnen Bilder etwas gegeneinander verschieben und auch verdrehen Benötigt man Software, die das macht: Das nennt sich „stacken“. Eine recht gute Freeware für diesen Zweck ist DeepSkyStacker. Das ganze inklusive ausführlicherer Bildbearbeitungsmöglichkeiten ist FitsWorks. Ich bin keine Freund der Firma Adobe, eher ein Fan von Corel, die in der Preisgestaltung bisher sehr fair waren. So versuche ich derzeit, ohne Fotoshop auszukommen. Für die tägliche Arbeiten, verwende ich ACDSee 8 Ultimate, das jetzt auch Ebenen kann. Speziell für die Astrofotografen gibt es das kostenpflichtige PixInsight, mit dem man erst einmal umzugehen lernen muss. Denn einfach irgendwelche Funktionen in Bildbearbeitungsprogammen aufrufen bei den unzähligen Möglichkeiten führt auch bald nicht mehr zum Ziel. Man muss daher möglichst schnell versuchen, die Funktionen die dahinter stehen zu, verstehen lernen, da helfen viele Tutorials und „HowTo’s“ auf Hobby Astronomie Webseiten und Foren weiter.

Jedenfalls stehe ich da noch sehr am Anfang, aber erste Erfolge stellen sich ein:

Hier zum Vergleich: Einzelbild von M51 nach 1 Minute Belichtung
M51 Einzelbild 60s ISO1600

Das sind 17 Einzelbilder zu 1 Minute zusammenmontiert in DeepSkyStacker, 32bit Bild in Fitswork bearbeitet

 

M51 17x60s ISO1600

Nach dem Pix Insight Workshop der DSIG.at habe ich es jetzt nochmals bearbeitet. Bei genauer Analyse der Ausgangsbilder stellte sich heraus, dass nur bei 7 Bildern die Sterne rund waren, die habe ich dann verwendet:

150219 M51 (NGC 5194/5195)  Strudelgalaxie / Whirlpool-Galaxie

Also 7x60sec bei ISO1600

Ende März 2017 habe ich es erneut probiert – natürlich sind auch meine Bildbearbeitungskenntnisse etwas gestiegen:

170331_M51_43LI800_DBE_CC_mTGV_mSt_CT_HDRMT_D_USM_TGV_LRGB

43×4 Minuten bei ISO800