Fotogrundlagen – ISO, Blende und Belichtungszeit

Bei üblichen Bedingungen und üblicheren Objektivbrennweiten, schafft es die Automatik der Kamera recht gut, die für den Sensor richtige Anzahl an Lichtteilchen (Photonen) auf den Sensor zu lassen. Die sehr gute Antiwackelfunktion erweitert heute diesen Bereich nochmals stark, sodass man auch erst später den Punkt erreicht, dass man ansteht.

ISO: 

Ist ja an sich klar, die „Empfindlichkeit“. Aber es wird nur das Signal verstärkt, das die Photonen am Sensor auslösen. Wenn es sehr wenige sind, dann ist dieses Signal in dem Bereich des Rauschens.
Daher muss man trachten, so viel Licht zu sammeln, dass man deutlich über diesem Rauschen liegt, aber auch nicht so viel, dass man die „Sensor Kübelchen“ überfüllt.
Das Rauschen kann man an sich nur mit der Temperatur beeinflussen. Da wir keine Chipkühlung haben, sollte man halt alles daransetzten, um den Sensor und die Elektronik so kühl wie möglich zu halten.

Wichtig zu merken:
Eine Verdoppelung der ISO bedeutet man brauch nur die halbe Menge Licht und damit die halbe Belichtungszeit.

Blende:

Sie ist üblicher weise unser Gestaltungsmittel in der Fotografie denn: Kleine Blende (=große Zahl) erhöht den Bereich der Schärfe, große (kleine Zahl) reduziert den Bereich der Schärfe erheblich.
Wer schlecht sieht, sieht deshalb im Hellen viel besser, weil unsere „Blende“ im Auge die Iris zugeht.

Wichtig zu merken:
Eine Blende zu (Zahl wird höher) lässt nur die halbe Lichtmenge durch. Bedeutet also man benötigt die doppelte Belichtungszeit. Oder bei gleicher Belichtungszeit muss man die ISO verdoppeln um das zu kompensieren.
Die Blendenreihe ist aber nicht proportional: Hier die Reihe zwischen deren Werte immer ein Verdoppelung ist:

1 1,4 2 2,8 4 5,6 8 11 16 22

Also wenn ich bei F/2  1 Minute belichten muss, braucht es bei F/4 4 Minuten – es sind zwei Blenden unterschied.
Sehr kleine Blenden führen dann allerdings wieder zu beugungsbedingter Unschärfe. Üblicherweise erreicht ein Objektiv seine beste Schärfe wenn man es um 1-3 Blenden abblendet.

…weniger wichtig zu merken, weil man sieht es sogleich, wenn man lichtstarke Objektive anschaffen will: Je licht stärker die Objektive, desto größer und schwerer werden die Objektive (das hat mit Physik zu tun und kann man nicht beeinflussen). Wenn sie dann auch noch höchste Güte bei Offenblende haben sollen, auch überproportional teuer. Günstige Optiken werden erst gut, wenn man sie stark abblendet.
Olympusobjektive sind telezentrisch da sind wenigstens auch die „Konsumerlinsen“ bei Offenblende recht Randscharf.

Belichtungszeit:

Der Sensor braucht ja eine gewisse Anzahl von Lichtteilchen. Bei der angebotenen Lichtmenge die da auf den Sensor trifft durch die Optik braucht es dann diese Zeit um diese Menge zu bekommen.

Wenn sich das Motiv nicht bewegt liegt es an uns, ruhig zu halten dass man nicht verwackelt. Früher bei Kleinbildfilm (KB) hat man gesagt: 1/Brennweite ist die minimale Zeit die man benötigt, damit man nicht verwackelt.
Also bei 300mm Tele (das an einem FT Sensor einem 600mm Objektiv am KB entspricht) sollte man nicht unter 1/600 Sekunde gehen. Unsere Sensoren sind aber bei weitem feiner, als damals die Fotofilme waren. Dafür haben wir aber eine Antiwackeleinrichtung die da sagen wir einem Ungeübten gut 3 Blenden (also 3x so lange) bringen. Also 1/200 sind möglich, mit sehr viel Übung auch wesentlich mehr. Es ist da aber letztlich eine Sache, wie viel Unschärfe durch Verwackeln man akzeptieren will.

Die Belichtungsautomatik ist normalerweise so eingestellt, dass sie über den Sensor verteilt das Licht misst, und die Bildmitte mehr berücksichtigt um zu berechnen, wie lange man belichten muss.
Beim „P“ (Programmautomatik) versucht die Kamera die Zeit so einzustellen, dass man vom Verwackeln her auf der sicheren Seite bleibt und wird die Lichtmenge dann über die Blende steuern.
Wenn man durch den „S“ Modus die Zeit vorgibt, wird die Kamera über die Größe der Blende die Lichtmenge regeln. Beim „A“ Modus, wo die Blende vorgegeben ist wird die Kamera die Zeit anpassen.

Ist es dunkel, und man will kleinen Objekterichtig belichten, braucht man also Punktbelichtungsmessung. Bei sehr kleinen Objekten wird das auch nicht mehr funktionieren, die Kamera misst zu viel dunkles, daher wird sie als Ausgleich zu hell belichten. Unsere kleine Objekte sind viel zu hell und fressen aus.
Umgekehrt zu helle Umgebung geht natürlich auch, und produziert zu dunkle Objekte.
Ein schnelle Methode ist dazu mit +- Blende das zu korrigieren. Das wird an üblichen Fotosituation passen, aber bei sehr kleinen Bildberichen, die man anmessen will oft nicht mehr. Denn: Man müsste beim zweiten Bild genau den selben Punkt treffen. Ist man da nur ein kleinwenig daneben und da ist es viel heller oder dunkler, wird sich ein andere Wert ergeben, auf dessen Basis dann die Belichtungskorrektur ausgeführt wird.

Die einzige Möglichkeit diese Belichtungsautomatik zum umgehen ist der M (manuelle) Modus:  Da gibst Du selbst die Zeit und Blende vor. Durch Probebelichtungen kannst Du dich dann herantasten, dass die Belichtung stimmt.

In Extremsituationen wird man eben schnell die eine oder andere Grenze erreichen.

27.7.2018 Totale Mondfinsternis

 

Die längste Mondfinsternis des 21. Jahrhunderts fand am 27.7.2018 statt. Das ganze garniert mit weiteren Attraktionen:
Der Mond erreichte auch gerade seinen weiteste Entfernung von der Erde, und es war somit der kleinste Vollmond im Jahr.
Der Mars war auch gerade in Opposition (5,9 Grad unterhalb des Mondes). Da er dieser Tage mit 57 Mio Km so nahe der Erde steht wie erst wieder 2035 war er sogar heller als Jupiter. Ein wunderbarer Anblick der zwei roten Himmelskörper:

180727 Mondfinsternis - Mars Opposition (5.9 °)

Die Beobachtung gestaltete sich als nicht ganz einfach, denn Anfangs sah es ganz so aus, dass das Wetter nicht mitspielte.

Etwas nach der Hälfte des Ereignisses gaben die Wolken die Sicht frei. Der tiefe Stand im Südosten machte die Sache nicht einfacher.

180727 Totale Mondfinsternis 2018

4 Jahre Astrofotografie

180728 MoFi_totale_9F24

 

Am 27.7.2018 war nicht nur eine Mondfinsternis der besonderen (längste des Jahrhunderts, gleichzeitig Mars in Opposition, der dieser Tage auch noch die größte Erdnähe erreichte und mehr) Art:
An diesem Tag vor 4 Jahren war meine Einstieg in die Astrofotografie.

Habe ich es bereut? Klare Antwort: Nein!

Die Basis dazu legte sicher die Auswahl des für mich richtigen Gerätes. Der Support den ich hier vor Ort durch Lacerta / Teleskop Austria und vor allem deren Mitarbeitern wie Tommy Nawratil, macht es leicht, die kleineren und größeren Probleme zu lösen. So würde ich auch heute noch nichts anderes kaufen wollen!

Dass ich Rückblickend so schnell so weit gekommen bin, als ich je zu hoffen wagte, wurde sicher durch den Austausch mit der lokalen Astrokommunity sei es im Astronomieforum.at oder durch den Erfahrungsaustausch bei unsere lokalen „Selbsthilfgruppe“ DSIG.at., das Thomas Henne organisiert.

Mit den technisch so perfekten Gerätschaften war ich dann relativ schnell an dem Punkt, dass ich mich um eine bessere Bildbearbeitung kümmern musste:
So kam es für mich gerade Richtig, daß Tommy konstatierte: „Wir haben jetzt beste Gerätschaften, aber die Bildbearbeitung hat noch großes Potential“. So wurde bei DSIG der Schwerpunkt „PixInsight vs. Photoshop“ gesetzt. Wiederum war es Tommy, der uns dann an zwei Wochenenden bei DSIG.at einen Einstieg in Pix Insight ermöglichte. Gerald Wechselberger führte uns weiter hinein in die Welt von PixMath.
Das alles hob recht schnell die möglichen Ergebnisse auf ein ganz anders Niveau.

Weitere vertiefendere Schulungen folgten. Zuletzt die PixInsight Workshop Module mit Herbert Walter und erneut Tommy  bei der NÖ Volkssternwarte „Antares“.

Genug der „Technik“

Schon bald stellte ich auch fest, dass ich mit relativ wenig Aufwand bessere Bilder machen kann, als ich in den Astronomiebüchern meiner Kindheit vorfand.

Unser Sternenhimmel bietet eine Unzahl an Objekten, die es allesamt lohnen abgelichtet zu werden.

Die notwendige Bearbeitung lässt sich hinterher beliebig vertiefen und nebenher lernt man vieles besser verstehen, was fotografische Zusammenhänge betrifft.

Auch wenn die Zahl der nutzbaren Nächte durch das Wetter stark beschnitten ist: Wenn es mal passt, dann holt man sich was vom Himmel!

….es ist einfach eine Erweiterung der Möglichkeit mehr, Bilder zu machen.

Epsilon Lyrae System

Daumenbreit (2 Grad) neben der Vega (Wega) findet man findet man ε – Lyrae. Die Vega ist der hellste Stern des Sommerdreiecks,  der im Sommer von Ost nach West hoch oben in Zenit nähe zieht.

160515 Leier - LYR anno.

Diese Sternsystem ist 160 LJ von uns weg, und besteht in sich aus Doppelsternen. Weitere Begleiter konnten mittlerweile auch nachgewiesen werden.

ε1 und ε2 Lyrae sind zwei 4,6 mag helle Sterne mit 3,5 Bogenminuten Abstand, das ist 1/10 der Größe des Mondes und Sonne am Himmel. Somit sind sie für schärfste Augen bereits visuell trennbar. Fotografisch sind sie sehr leicht zu trennen.

Ein schon größere Herausforderung allerdings ist es, die zwei Komponenten A/B und C/D aus denen ε1 und ε2 Lyr besteht auch noch aufzutrennen:

180520 E-Lyr

Der Abstand der Komponente ε1 A/B und ε2 C/D beträgt aber nur noch  2,3 bezw. 2,4 Bogensekunden.
In dieser Größenordnung liegt allerdings schon das normale schlechte Seeing  (Luftflimmern) meines Himmels. Nur in Ausnahmenächten wird mir unter 2 arcsec (Bogensekunden) angezeigt. Das beste Seeing von der Erdoberfläche aus wird bei ungefähr 0,7 – 1 Bogensekunde liegen. Durch Mitteln vieler Bilder kann aber die Auflösung erhöht werden.

Die Helligkeit der Sterne A, C und D ist mit um die mag 5-5,4 in etwa gleich groß, nur B ist mit mag 6 deutlich schwächer. Der Unterschied von einer mag stufe ist ja in etwas 2,5x weniger Licht.

Die Sterne A/B brauchen 1804 Jahre um sich zu umkreisen, C/D 724 Jahre.

1985 wurde bestätigt, dass ε ein Dreifachsystem ist. Allerdings nur Spektroskopisch, denn mit 0,2 arcsec Abstand ist er direkt visuell nicht sichtbar.

Sommer 2018

Zum Sommerbeginn unterbrach eine Kaltfront die Hitzeperiode im Frühling. Die Temperaturen fielen auf 12 Grad. Ein Tiefdruckgebiet über Osteuropa brachte dann auch im Osten Österreichs um die 30-35mm Regen. Ende Juni wurde es dann wieder wärmer, aber durch einen starken Nordwind gingen die Temperaturen nicht über 23 Grad. Anfang Juli wurde wieder heiß und trocken, bis erneut eine Störungszone punktuelle heftige Unwetter brachte. Bei uns blieb es aber weiterhin trocken. Auch in der zweiten Juliwoche brachte eine Kaltfront wieder Regen und kühle Luft. Bis zum 21. Juli war es dann meist heiß und trocken. Erst in der Nacht von 21 auf den 22 Juli brachte eine Front, die sich stationär von Ost nach West zog 60mm Regen. Bei uns zum Glück nicht innerhalb sehr kurzer Zeit und auch war bei uns kein Hagel dabei.
Tags davor gab es im Umkreis immer wieder Starkregen der zu Überflutungen führte. Unsere Raum blieb ab Ortstafel trocken!
Gegen Ende Juli wurde es dann mit bis zu 33 Grad richtig warm. Auch der August blieb mit bis 34 Grad sehr heiß und trocken. Im Norden Europa war es z.b. seit April heiß und trocken mit entsprechenden Konsequenzen).
Eine durchziehende Kaltfront brachte am 24-25.8. etwas Regen, In einigen Teilen Österreichs wieder extreme Niederschläge. Nach Durchzug der Front sanken in der ersten klaren Nacht die Temperaturen am Morgen auf 6 Grad. Danach wurde es wieder warm.
Der Sommer 2018 war nur der 4 heißeste nach Aufzeichnungen der ZAMG, aber: in den letzten 10 Jahren waren 6  davon mit Rekordhitze.

In der Nacht zum 1.9. gab es frühmorgens wieder ein Gewitterfront, die abermals einiges an Regen brachte und für nachhaltige Abkühlung sorgte. Das Italientief brachte auch am 2.9. Nachts um 22:00 heftige Gewitter. Im Osten Niederösterreichs Wien und Weinviertel wurde ein Rekord aufgestellt, was Blitzeinschläge betrifft. Abermals regnete es im Osten teils heftig, und auch am späten Nachmittag und Nach wiederholte sich das Tags darauf.
Danach gab es wieder recht schönes Spätsommerwetter, manches mal unterbrochen einer durchziehenden Störung aus Nordwesten. Auch in der 3 Septemberwoche stiegen die Temperaturen wieder Richtung 30 Grad.
Mit einer Kaltfront und etwas Regen ging der Sommer am 23.9. zu Ende.

Stacken von Mond/Sonne und Planeten

„Ein Bild, ist kein Bild“ lautet einer der Sprüche in der Astrofotografie, denn die erzielbare Bildqualität wird erheblich gemindert durch verstärktes Rauschen und der Luftunruhe.  Ersteres durch dem wenigen Licht das uns zur Verfügung steht, sodass wir über längere Zeit belichten müssen und dabei natürlich auch eine höhere ISO verwenden. Die Luftunruhe merkt man, je stärker man vergrößert. Sie schwankt sehr, und es kann durchaus sein, dass ein Bild kurzer Belichtungszeit fast perfekt ist, das nächste aber sehr verschwommen.

Bei der Fotografie des Nachhimmels steht eher das Bildrauschen eine Rolle, es sind ja großflächigere Bereiche und Objekte mit Brennweiten von den üblichen Fotooptiken bis so 1000mm, aber die Belichtungszeiten liegen eben in etwa zwischen 1 und 8 Minuten bei ISO800, je nach verfügbarer Lichtstärke.

Mond, Sonne und Planeten sind dagegen hell bis sehr hell, daher bleiben die Belichtungszeiten oft deutlich unter einer Sekunde, oft unter 1/100-1/4000s. Daher spielt hier das Sensorrauschen weniger eine Rolle, dafür aber die Luftunruhe. Die Planeten sind dazu sehr klein und bedürfen dann einer extrem starken Vergrößerung.

Ein Methode um 1 gutes Bild zu erhalten ist es: Viele Bilder zu machen und dann das Bild heraussuchen, wo die Luft am ruhigsten war. Das nennt sich „Lucky Image„.  Wer auf höchste Auflösung steht, wird aber auch da Bildrauschen vorfinden, weil man ja dann oft eine 100% Ansicht herausschneidet um eine vernünftige Größe zu bekommen. Und die Waffe gegen Rauschen ist es halt, möglichst viele Bilder zu mitteln. Wer nämlich ein verrauschtes Bild versucht zu schärfen wird die Artefakte mitverstärken, wer entrauscht, wird feine Details mit entsorgen. Daher wird man möglichst viele Bilder stacken wollen und zwar nur möglichst viele der spärlichen „Lucky Images“.

Anders als bei „Deep Sky“ Bildern, wo es ja jede Menge Sterne gibt, die der Stacking Software als Anhaltspunkt zum Zusammenrechnen dienen, hat man es bei Mond/Sonne und Planeten mit großflächigen Strukturen zu tun. Man braucht also spezielle Software, die solches erkennt.
Auch hat man es bei den „Deep Skybildern“ mit einer vergleichsweisen überschaubaren Anzahl von Einzelbildern zu tun, so um die 30-300 Bilder um eine Zahl zu nennen, bei Planeten bewegt man sich da dann schon eher zwischen 1000 und 10.000 Bilder pro Serie!  Das muss man erstmals speichern, beurteilen und dann bearbeiten wollen/können.

Daher ist die Planetenfotografie immer schon ein Domaine der „Webcams“: Man benötigt nur einen kleinen Sensor und produziert ein möglichst unkomprimiertes Video. Je höher die Framerate (USB2 vs. USB3), aus desto mehr Einzelbilder besteht das Video. Da man fast nur das winzige Objekt am Film hat, bleibt die Dateimenge noch im Rahmen. Bei Mond wird bei diesen Vergrößerungen nur mehr ein kleiner Teil abgebildet, das aber perfekt! Ein Mosaik aus 10-50 Bildern ergibt dann ein höchst aufgelöstes Mond Bild. Dagegen kann kein Stack aus der Fotokamera mithalten…..aber wir wollen hier betrachten, was wir mit unseren Fotokameras anstellen können:

Mond und Sonne sind bei unseren FT Sensoren bei ca 1,1m Brennweite formatfüllend. Wer einen 1,4x Telekonverter sein eigen nennt, kommt also bequem mit 800mm Brennweite dahin. Mit „Silent Shutter“ kann man bis zu 60 Bilder / Sekunde hochauflösend erhalten. Also man kann relativ leicht seine vielen  hundert Einzelbilder erhalten. Natürlich verwenden wir RAW. Bei einem HD-Video reichen aber 800mm Brennweite, weil selbst ein HD-Video nur ein Bruchteil der maximal möglichen Auflösung eines 16 oder 20 MPixel Sensors besitzt. Bei Jupiter kommt ein Problem dazu: Er dreht sich sehr schnell (nur etwas über 9 Stunden) sodass man ab 1 Minute bereits Verwischung sehen könnte.

Wer die HQ-Auflösung (50-70 MPixel derzeit) für seine Bilder vom Mond/Sonne benützt, erhält zwar wirklich eindrucksvolle Bilder, aber da 8 Bilder in der Kamera versetzt zusammengerechnet werden müssen wird das wohl nur bei absolut perfekten Seeing einen Sinn machen. Und diesen sehr sehr seltenen Moment muss man erst mal erwischen. Zwischendurch probieren kann man es ja mal….

Seit langem gibt es  spezialisierte Software für die Planetenfotografie: Giotto oder Registax zum Beispiel. Aber sie werden seit geraumer Zeit nicht mehr weiterentwickelt und sind nur für kleine Dateigrößen ausgelegt. Einzig mit FITSworks konnte ich bis 20 MPixel  Bilder des Mondes erfolgreich stacken. Bei HR Dateien, skalierte FITSWork stark herunter. Eine Stack von ausgewählten 100 Bildern dauert so einen halben bis ganzen Tag….

Schon ein „Lucky Image“ aus der Fülle der Bilder herauszufischen ist sehr anstrengend. Zum Glück gibt es da aber jetzt Hilfe: AutoStakkert (AS!). Wer sich dann noch mit Planetenfotografie herum schlägt, wird schnell den Wunsch verspüren, das viele schwarze Rundherum wegzuschneiden. Das erledigt souverän PIPP (Planetary Imaging PreProcessor). Als Startdatei kann man sowohl Video (AVI/MOV etc) wie auch TIFF oder ORF Files verwendet. Das Ergebnis dann als TIFF/FITS oder unkomprimiertes AVI Speichern lassen. Das versteht dann AS!.
Wer sich ffmpeg herunterlädt und das ffmpeg.exe in das Verzeichnis von AS! legt, der kann direkt auch die MOV Datei seiner Kamera als Ausgangsbasis verwenden. Wer allerdings ORF Files in AS! stacken will, muss sie vorher in TIFF Files umwandeln . Also entweder mit OlyViewer, oder PIPP oder was auch immer das ORF File als TIFF exportieren.

Stacken mit Autostakkert:

1.) Zuerst seine Dateien (TIFF) öffnen oder als AVI Video (MOV wenn ffmpeg vorhanden).
2.) Analyse: Es erfolgt eine Analyse der Einzelbilder

Man sieht dann eine Status der Verteilung der Bildqualität der Bilder in der Kombigrafik: Die Schwankung der Bildqualität der Reihenfolge der Einzelbilder, die Grüne Linie zeigt in etwa den Verlauf der Qualität der gesamten Bildserie.

In der Vorschau wählt man die Bereiche, die dann beim Stacken analysiert werden und herangezogen werden. Der Clou dabei: Es werden von den gewählten Ausschnitten nur die Bildinformationen gestackt, die am besten sind, was bei großflächigen Objekten wie Mond / Sonne ja durchaus abweicht, denn mal ist ein einem Bereich ein Teil scharf, der andere aber nicht. Es wird also nicht stur einfach Bild x + y + z gestackt sondern wirklich nur der Bereich aus den Bildern der jeweils am besten ist. Daher sollten diese Bereiche auch überlappen. Aber dazu gibt es auch Anleitungen auf der AS! Seite (wenn auch nur auf Englisch).  Da ist viel Platz zum Optimieren seiner Bildserie.

Stack Option:
Man wählt sein Ausgabeformat des Stacks. Dann kann man sich aussuchen. AS! kann verschieden viele „der am besten befundenen“ Bildern stacken und legt dann ein Verzeichnis an wo die fertigen Stacks hineinkommen, mit entsprechender Bezeichnung im Filenamen. (liegt ein Verzeichnis unterhalb des Stammverzeichnis der Input Datei(en). Man kann also gleich mal je 4 verschiedene Stack’s anfertigen lassen: Entweder eine fixe Anzahl der gestackten Bilder oder Prozent Zahl. Wie viele der Bilder gestackt werden sollen, hängt sehr von der Qualität der Rohbilder ab. Sind sehr viele Bilder schlecht, wird man eher mit wenigen Bildern zum stacken sein Auslangen finden müssen.

Das ganze geht überraschend schnell !!

Da ich die gestackten Bilder hinterher erst bearbeite und brauch ich keine der angebotenen Bildverbesserungen die PIPP oder AS! bieten.

Hier ein 1:1 Ausschnitt eines Stacks der 4 besten Bilder aus 347:

180325 1:1 Crop Mond

Die kleineren klar sichtbaren Krater messen um die 4-5 km Durchmesser.

Hier noch ein erster Versuch am  Jupiter:

50 aus 200 Bildern 1:1

Mittlerweile habe ich auch probiert HR Files aus der E-M1.II (70 MPixel !) zu stacken. Ich hatte dazu 28 Bilder zur Verügung die ich als TIFF exportierte. Das als Beste durch AS! gezeigte Bild habe ich dann quasi als OOC (out of cam) bearbeitet. Weiters lies ich dann AS! jeweils folgende Stacks erstellen:  4,5,6,7 beste Frames und 12, 15, 25 und 30%. Mit einem Computer mit einer Ryzen7 1700 CPU und 32GB RAM klappte das innerhalb 10-15 Minuten. Während der Bearbeitung wurden 27 GB RAM genutzt und alle 16 Threads der 8 Kern CPU  wurden benutzt.

Frühling 2018

Der Frühling begann am 20.3. 17:15. Es war weiterhin kalt mit Tiefstwerten bei -5 Grad, es viel auch nochmals etwas Schnee. Am 22.3. gab es den ersten wirklich klaren Himmel der die Tageshöchstwerte auf 7 Grad anstiegen lies. In klarer Nacht kühlte es dann wieder auf -7 Grad ab. Danach ging es eher trüb weiter.
Ostern war weiterhin eher trüb und kalt, bei starken Westwind, ab und zu gab es wenige Tropfen Regen. Danach zweigte sich mehr und mehr die Sonne, am 3. April stieg der Tageshöchstwert erstmals auf 20 Grad.
Ab 6. April bildete sich über Mitteleuropa ein ausgedehntes Hochdrucksystem. Klarer Himmel lies die Tageshöchstwerte gegen 20 Grad steigen, Nachts kühlte es manchmal auf 0 Grad ab. Am 9. stieg die Temperatur erstmals über 26 Grad. Bei uns blieb es weiterhin trocken. Starker Südwind brachten größere Staubmengen aus der Sahara in unser Gebiet. Am 16. April brachte das von Süden her bei uns etwas Regen, im Grazer Raum fast 100mm innerhalb des Tages. Die Temperaturen blieben weiterhin heiß und anfangs wurde viel Staub aus der Sahara zu uns verfrachtet, gegen Ende waren es dann Blütenpollen. War die Vegedation anfangs April noch 3 Wochen hinten, war sie Ende April bis zu 2 Wochen voraus. Nach dem sehr kalten März wurde der April zum wärmsten seit 1800 laut Wetteraufzeichnung bei der ZAMG. Bei uns lag die Durchschnittstemperatur  5 Grad über dem Mittel und erreichte damit das Niveau des Mai. Die Regenmenge lag bei uns bei einem Drittel des Mittels. Es war weiterhin viel zu trocken. In Summe waren das von Jänner bis April gerade mal 74mm.
Am 3.Mai Abends bildete sich durch ein Italientief eine recht stationäre Gewitterfront in Ostösterreich aus. Entlang des Wienerwaldes regnete und hagelte es. Es waren hier mehr als 50mm in den 5 Stunden. Engabrunn lag nur in den Ausläufern was fast 18mm gleichmäßiger Regenfall brachte.
Bis Mitte Mai blieben die Temperaturen zwischen 10 (meist aber 15)  und 25 Grad. Es bliebe wieder recht trocken bei uns. Im Bundesgebiet gab es aber immer wieder heftige Gewitterregen.
Mitte Mai zu den Eisheiligen die dieses mal mild ausfielen, gab es dann man Regen Was die Monats Mai Regenmenge fast auf 80mm erhöhte, also so viel, wie es zuvor seit Jänner nicht regnete. Die Temperaturen blieben durchwegs über 12 Grad mit 22 Grad Höchstwerten.
Am 24 und 25. Mai gab es dann viel Regen. Warme und feuchte Luftmassen vereinigten sich im Nord/Osten Österreichs. Es gab Gewitter und regional starken Regen. Ein sich gegen 3:45 morgens entwickelnde Zelle brachte 20mm Regen in eines halben Stunde.  Trocken und heiß bis 29 Grad ging es bis Ende Mai weiter.
Der Mai wartete Österreichweit wieder mit Rekoren auf: 2. Wärmster Mai seit Wetteraufzeichnung der ZAMG und früheste mehr als 30 Grad. In unserem Raum waren es 2,3 Grad über dem Mai Mittel. Dafür brachte er an hauptsächlich 3 starken Regenereignissen gleich mal mehr Regen als die bisherig im Jahr gefallene Regenmenge. In Summe 136mm im Mai.
Sehr warm meist bis knapp vor 30 Grad ging es bis Mitte Juni. Immer wieder gab es in der Umgebung heftige Gewitter und Starkregen, aber bei uns waren es nur wenige Tropfen. Am 11.6. wurden die 30 Grad erstmals überschritten. Wechselnd bewölkt ging es dann weiter. Heiß und Trocken ging der Frühling 2018 zu ende. Die Temperaturen waren gegen 30 Grad, die letzten paar Tage breitete sich ein ausgedehntes Hochdruckgebiet über Europa aus. Am 21.6. wurden erstmalig fast 35 Grade erreicht.
Am Abend erreichte uns eine Kaltfront, die dann für eine kühleren Sommeranfang sorgen wird.
Noch nie in der Messgeschichte der ZAMG (seit 1767) wurde ein so warmer Frühling gemessen….  Extrapoliert auf das ganze Jahr würden wir dann bei +3,2 Grad über den Durchschnitt liegen……

Mohntorte

In unsere Familie hat eine Mohntorte zum Geburtstag eine lange Tradition. Und zwar eine saftige und ohne Mehl, also für Kalorienbewuste 😉

Die Rezeptur ist recht einfach und schnell abgemacht ist die Masse auch, denn
binnen 15 Minuten ist sie im Backrohr.

Rezept

200g Mohn (Graumohn gerieben, Nuss oder Mandel geht auch anteilig)
200g Schokolade
200g Butter (oder Magerine)
200g Zucker (ich nehme aber immer nur ca.170g)
5 Eier (6 gehen auch, kommt auf die Größe an)
ein wenig Rum, und Prise Salz

Zuerst Eier trennen in Dotter und Eiklar. Das Eiklar zu Schnee schlagen

01 - Mohnkuchen

Das Eigelb mit Zucker und ein spritzer Rum sowie eine Prise Salz sieht dann vor dem Mischen so aus:

02 - Mohnkuchen

Früher hatten wir die Kochschokolade gerieben, aber einfacher ist es, sie in einem Glasgefäß mit Deckel und eine kleine Menge Wasser in der Mikrowelle kurz zu erhitzen und etwas warten, bis die Schokolade weich wird. Die kleine Menge Wasser ist ja sehr schnell heiß und kann nachher abgegossen werden, wenn man zu viel erwischt hat. Danach die Butter zugeben und etwas zerstückeln. Eventuell noch etwas in der Mikrowelle wärmen, aber nicht zu viel.

03 - Mohnkuchen

Das ganze wird dann mit der Eigelb/Zuckermasse verrührt und der gerieben Mohn zugeben, es wird etwas fest.

05 - Mohnkuchen

Wenn noch nicht geschehen, die Springform mit etwas Fett auswischen, damit nichts kleben bleibt. Für den Deckel nehme ich gerne Alu Folie – da bleibt dann garantiert nicht kleben.

04 - Mohnkuchen

Die zwei Massen vorsichtig unterheben

06 - Mohnkuchen

Und hinein in die Springform und in das vorgeheizte Backrohr

07 - Mohnkuchen

Nach 50-55 Minuten Backen bei 175-180 Grad (ich nehme 175 beim Umluftherd) sieht es dann so aus

08 - Mohnkuchen

Das ganze stürze ich dann zum weiteren abkühlen

09 - Mohnkuchen

Danach kommt eine Schokoglasur drüber. Dazu erhitze ich einen Becher Schokoglasur (ohne Aludeckel) für ca 1 Minute in der Mikrowelle. Einmal gut rühren und dann kann es schon losgehen…..
Man kann auch vorher Marmelade aufstreichen um die Poren zu verschließen, aber an sich ist das nicht notwendig.

Fertig glasiert

10 - Mohnkuchen

Fotografie / Astrofotografie – zwei Welten?

Astrofotografie eine andere Art von Fotografie.

Irgendwann packt es den Einen oder Andern, sich abseits der „normalen“ Fotografie zu versuchen.  Am besten einfach probieren, dann sieht man früher oder später, wo die Problemzonen liegen. Hier versuche ich mal darauf einzugehen.

Vorweg: Gerade Anfangs versteht man oft nicht immer gleich, worum es da überhaupt geht und so erhält man rasch den Eindruck: Das ist mir zu Hoch, dass schaff man nie!
Auch mir ist es so ergangen beim initialen Einlesen in die Thematik um mir ein Bild zu machen, was bräuchte ich an Ausrüstung und ob ich das jemals selbst hinbekommen würde. Heute nach 3,5 Jahren bereue ich nicht, diesen Schritt gewagt zu haben.

Das was einem wohl als erstes auffällt:

Belichtungszeit

Sehen wir uns mal ein normales Foto an:

Lanzerote

Ein typisches Urlaubsbild. F/10, 1/200s, ISO100 (damals mit der E-300 die Nennempfindlichkeit)

Das Histogramm zeigt uns die Anzahl und Helligkeitsverteilung der Pixel der roten, grünen und blauen Pixel an aus denen ja ein Farbbild (RGB Bild) besteht. Links im dunklen Bereich und rechts im hellen Bereich ist nichts wesentliches weggeschnitten.  Da braucht es nicht viel Bearbeitung – vielleicht den dunklen Bereich der fast schwarzen Lava etwas anheben um noch Struktur zu generieren und das Bild halt auf das gewünschte beschneiden.
Ein Stativ braucht man hier kaum, die Belichtungszeit ist kurz genug als dass man verwackeln könnte.
Fotografiert man in JPG wird man aber bei diesem Bild wegen des großen Helligkeitsumfanges (weiße Mauer – fast schwarze Lava im Schatten) schon mal merken, dass man beim Spielen mit dem Tonwerten im Himmel sogenannte Tonwertabrisse ( Sichtbare Streifen abgestufter Helligkeit) bekommt. Grund ist der: Beim JPG Bild haben die 3 Farbkanäle eine Bittiefe von 8bit, was 256 (2^8) möglichen Abstufungen entspricht. Mehr als unser Auge sehen kann und zusammen gemixt (256*256*256) die bekannten 16,7 Mio unterschiedliche Farbabstufungen ergibt (siehe: Die richtige Belichtung). Dehnt man dann gezielt einen Bereich im hellen oder dunklen, sieht man dann bald mal die Helligkeitssprünge am Ergebnis. Abhilfe ist dann in RAW zu fotografieren, den sie bieten hier 12bit Auflösung, was schon 4096 Abstufungen pro  Farbkanal entspricht, also kann man hinterher mehr „herauskitzeln“.

In der gelebten Praxis: Bei gut ausgeleuchteten Alltagsszenerien reicht oft das JPG, so wie es aus der Kamera kommt. Bei schwierigen Situation ist ein zusätzliches RAW empfohlen, Auch wenn man jetzt vielleicht damit nichts anfangen kann – später vielleicht doch. In der Astrofotografie ist RAW Pflicht.

Solche Verhältnisse findet man auch noch an unseren zwei hellsten Himmelskörpern:  Mond und Sonne (natürlich nur durch entsprechende dafür geeignete Spezialfilter). Sie erlaube auch Belichtungszeiten zwischen angenehmen 1/100-1/4000 Sekunden bei normaleren ISO Bereichen. Ein Stativ ist dennoch empfohlen!

Anders am dunklen Sternenhimmel:

Großer Wagen - OOC

Es zeigt den Große Wagen mit einem Normalobjektiv (bei Olympus 25mm). Es wurde typischerweise so belichtet, wie man es für „Deep Sky“ Bilder braucht.
Die Belichtungsdaten waren:  F/3,2,  240s, ISO800 mit der E-M1.II (geht auch mit jeder anderen OM-D oder E-PL6-9 Kamera so). Einfach ein Screenshot ohne Bearbeitung wenn ich es in ACDsee ansehe.

Wer jetzt mal nachrechnet kommt drauf, dass man hier typischer weise mit 500.000 bis weit über 1 Million mal weniger Licht hat. Um entsprechendes Signal am Sensor zu bekommen, dass auch über dem Rauschen liegt, muss man entsprechend lange belichten.

Was zeigt uns das Histogramm: Zunächst mal die vielen Pixel des Himmelshintergrund. Sie liegen im 1/3 des Histogramms. Da die Darstellung nicht linear ist, heißt das nicht unbedingt dass man auch tatsächlich 1/3 der Gesamtbelichtung des Sensorpixel ausgeschöpft hat. Aber immerhin liegt der Himmelshintergrund deutlich von stark verrauschten linken Rand weg.

Wichtiger ist aber das, was man nicht sieht: Die paar Pixel der hellen Sterne.  Das sofort ins Auge fallende Muster der hellen Sterne, die das Muster bilden. Die sind so hell, dass man sie bei uns in der Großstadt sehen kann. Natürlich sind die im Zentrum überbelichtet. An sich sollten sie ja punktförmig sein, aber das Flimmern der Luft weitet das Signal auf eine größere Fläche, was wiederum die Helligkeit durch Verteilung stark absenkt und es so möglich macht dennoch die Farben ins Spiel zu bringen. Überbelichtete haben ja alle Pixel gesättigt, was dann ja ein reines weiß ergibt.
Auch wenn die Sterne sehr hell sind, die geringe Anzahl der hellen Pixelwerte kommt gegen die extrem vielen Pixel im dunkleren Bereich nicht an, wird also am rechten Rand des Histogramms nicht mehr angezeigt.

Man sieht auch  dass der Grüne Anteil relativ hell ist, das ist der typische Landhimmel etwas weiter weg einer Großstadt.  Der Himmel so „OOC“ (out of Cam) also wie die Kamera den Weißabgleich macht, ist schon recht gut dafür, dass sie nicht für solche extreme Situationen programmiert ist.  Einen richtigen Weißabgleich erkennt man daran, dass die 3 Buckel der RGB Kanäle exakt übereinander liegen. Das gilt natürlich nur da, wo man wirklich neutralen Himmel hat.

Und was man schwer sieht, hätte ich es nicht markiert: Da war gerade ein Komet (P41/Tuttle-Giacobini-Kresak) und auf diesem kleinem Bild gar nicht sieht, wenn man nicht weiß wo: Die Feuerrad-Galaxie (M101) eine bekannte Galaxie von der Größe des Vollmondes und M51. Um solches geht es uns bei der Fotografie von Deep Sky Objekten (Objekte außerhalb des Sonnensystems). Misst man deren Helligkeit würde man sehen: Sie liegt an der rechten Flanke des Histogrammbuckels bis leicht davor. Während man hellere Kometen durch das große diffuse leuchten schon mal finden kann, eine Galaxie wie M101 oder M51 kaum mehr am Rohbild.
Auf vielen, sogenannten „tief belichteten“ Bildern wird man jede Menge Staub und Dunkelwolken erkennen. Tatsächlich gibt es keinen Bereich am Himmel, bei dem man mit nicht mit genügend langer Belichtung und vor allem Akribie bei der Ausarbeitung keinen sehen wird. Diese Bereiche liegen vor dem Himmelshintergrundbuckel.
Also hinterher einfach das Bild so zu beschneiden, dass man alles weg wirft, dass vor dem Peak (der ja dem Himmelshintergrund entspricht) liegt führt zwar zu einem schön dunklen Himmel, aber auch zum Vernichten von der schwachen Strukturen.

Die nötigen langen Belichtungszeiten bringen eine Vielzahl an weiteren Problemen mit sich.

Bildrauschen
Gerade in der „normalen“ Fotografie wird das extrem überbewertet. Je wärmer, desto mehr rauscht ein Sensor, das ist einfach so. Das Rauschen setzt sich aus verschiedenen Fehlerquellen zusammen:  Jeder Sensor hat Pixel, die nicht so arbeiten wie sie sollen. Belichtet man länger, dann fallen sie einem stärker auf. Durch einen Dunkelbildabzug ist das beherrschbar.
Schon schwieriger ist das Rauschen das nach Dunkelbildabzug im Bild verbleibt. Und da hilf nur eines: Möglichst viele Bilder zusammenrechnen.
Die Spezialkameras für Astrofotografie sind daher auch gekühlt, damit man  auch ein möglichst gutes Signal/Rauschverhältnis bekommt.

Hie mal das Bild von vorhin nach zusammenrechnen von 43 Bildern

UMa - Großer Wagen

In groß und noch größer findet man das Bild auf AstroBin

Stativ/Montierung

Auch sehr schnell merkt man, dass man mit einem fixen stabilen Fotostativ jenseits von extrem Weitwinkel schnell an die Grenzen des Lichtsammeln stößt. Man braucht also eine Nachführung. Für den Einsatz mit Fotoobjektive gibt es gut und günstige Tracker. Die Sache wird aber immer schwieriger sobald die Brennweite steigt braucht es mehr Präzision in der Nachführung. Dazu kommt: Je mehr Brennweite, desto geringer die „bezahlbare“ und vom Gewicht her auch handhabbare minimale Blendenzahl. Man muss dann auch noch zusätzlich länger Belichten um die nötige Lichtmenge zu sammeln.
Bei größeren Brennweiten benötigt man dann eine richtige Montierung. Sie muss präzise auf den Himmelspol eingerichtet werden, aber selbst da wird man ab einer gewissen Brennweite nicht mehr ohne Guiding wegkommen.
Ein sehr gute Montierung ist meist der teuerste Teil einer guten Astrofotoausstattung, aber wenn man sie gut dimensioniert  auch nur einmal anzuschaffen. Ohne präzise Nachführung werden auch die Einzelbilder aus den besten Teleskopen / Linsen und Fotoapparaten nichts.

Bildbearbeitung

Um aber aus den gestackten Rohbildern wirklich etwas herauszuholen, bedarf es einer tiefergehenden Bildbearbeitung. Man muss sehr vieles sehr selektiv verstärken, ohne Anderes überzugewichten oder gar zu zerstören. Dazu sind Maskentechniken ein muss. Nach der Gewinnung der Rohbilder ist das dann der größte Teil, der im wesentlichen nur mehr von der eigenen Vorstellung und seinem Vermögen das auch umsetzen zu können begrenzt wird. Das ist ein wohl ewiger Prozess. Während man für die Technischen Aspekte nach einigen Tipps aus der Gemeinschaft sehr viel selber herum tüfteln kann, ist man bei der Bildbearbeitung sehr viel mehr auf eine funktionierende Community angewiesen, deren Tipps und Tricks einem wieder weiterbringen.

Hier ein Bild mit dem 75mm Objektiv:

170330 Großer Wagen mit M101 und M51

Links unten M101 und Rechts unten: M51 wie man sieht sie sind auch mit normaler Brennweite auffindbar.

Auflösung

Unter normalen Umständen macht sich die Luft bei der normalen Fotografie nicht stark bemerkbar. Anders natürlich bei extremeren Tele auf größere Entfernungen, wo man sich schon mal bei Sonneneinstrahlung Luftschlieren zu sehen sind. Bei der Astrofotografie hat man da schon mit ganz anderen Schichtdicken zu tun: Im Zenit etwas über 10km, blicken wir Richtung Horizont sind es einige hunderte Kilometer dichte Luft. Dazu kommt noch Dunst und der Umstand, dass eine Auftrennung der Farben stattfindet. Ein weißer Stern hat dann auf einer Seite einen roten Rand, auf der anderen Seite einen blauen.
Dazu kommt: Leider gibt es meist in hohen Luftschichten starke Winde (Jetstreams), die die Luftschichten zusätzlich verwirbeln. Das ganze läuft unter Seeing. Das mindert natürlich auch die mögliche Auflösung. Auch da ist ein Mitteln vieler Bilder das Mittel der wahl. Zuvor wird natürlich versucht, aus den vielen Einzelbilder jene mit dem stärksten Unschärfen zu eliminieren.

Scharfstellen

Heutzutage sorgt der Autofokus für scharfe Bilder. Bei der Astrofotografie ist manuelles Scharfstellen gefragt. Bei längeren Brennweiten geht das mit Hilfe einer Bahtinovmaske recht einfach an einem hellen Stern. Je geringer die Brennweite, desto schwieriger wird es, weil der Stern ja immer winziger wird, und man bräuchte eine passende Bahtinovmaske, dafür kommt aber bei recht weitwinkeligen Objektiven dazu, dass sie eine größeren Schärfenbereich aufweisen. Die Situation wird aber durch die notwendige möglichst offene Blende verschärft. Offene Blende braucht man aber, weil man dann einfach mehr Licht einsammeln kann.
Das ganze wäre ja nicht so schlimm, einmal gut Scharfstellen, dann passt es die nächsten 2-3 Stunden Belichtungszeit. Leider ist das nicht so. In der Nacht sinkt normalerweise die Temperatur ab. Das führt zu einem verstellen der Schärfe. Also ist recht oft die Schärfe zu kontrollieren, gerade anfangs. In der Praxis ist es aber meist so, dass man an der Kamera sein Bildfeld schwer erkennen kann, weil man schlicht und ergreifend nichts sieht! Man braucht dann wieder einen Stern der hell genug ist zum Scharfstellen und muss erneut sein Objekt wiederfinden. Man braucht dann länger belichtete Testbilder mit sehr hoher ISO um eine Feineinstellung vorzunehmen. Das betrifft vor allem Fototracker, die man händisch verstellt. Bei guten Astromontierungen hat man es mit GoTo leichter. Wenn sie einmal gut eingestellt sind, findet man hinterher sein Objekt wesentlich leichter.  Wenn man dann mal mit Schmalbandfiltern anfängt wird es dann extrem schwierig überhaupt ein geeignetes Objekt zu finden, um scharf zu stellen.
Für Teleskope gibt es Motorfokussysteme, die mithilfe eines Temperatursensors präzise einen vorher ermittelten Wert einstellen.
Das Problem der temperaturabhängigen Fokusänderung betrifft so gut wie alle. Einzig Systeme mit wesentlich temperaturstabileren Kohlefasertuben mit passendem Spiegel (Pyrex oder Quarz) und Stabilem Okularauszug verstellen sich praktisch kaum. Zum Glück trifft das alles auf meinen „Newton ohne Namen“ zu.

Störungen im Optischen System

Sehr gute Linsensysteme sind meist recht gut korrigiert, sodass möglichst alle Farbstrahlen im selben Brennpunkt landen. Die extreme Streckung der schwächsten Bildanteile bringt hier allerdings wieder vieles ans Licht, das man so nicht sieht. Jede Grenzfläche einer Linse, jeder Reflex am Gehäuse wird natürlich auch sichtbar. Und jede Linse kostet Auflösung. Da kommen Spiegelsysteme ins Spiel. Das tolle daran ist: Sie sind Farbrein, jede Lichtwellenlänge landet im selben Brennpunkt. Je größer der Spiegel (die Öffnung) desto mehr Licht wird gesammelt und die Auflösung steigt auch.
Eine „Linsen“ Teleskop mit mit 200mm Öffnung ist kaum bezahlbar, ein Spiegel mit 200mm schon…..

Bildstörungen wie Staub am Sensor fallen in normalen Bildern kaum auf, außer man hat eine uniforme Fläche (wie z.b. Himmel) und bei kleinere Blende. Jedes Objektiv hat auch einen mehr oder weniger großen Helligkeitsabfall gegen den Rand. Bei der Astrofotografie braucht man aber ein möglichst „flaches“ Bildfeld. Also müssen diese Bildfehler herausgerechnet werden. Das wird mit sogenannten Flat Bildern bei der Bildkalibrierung erreicht.

Echte Farben?

In der normalen Welt, weiß jeder, was in etwas stimmig an Farben ist, wir sind darauf konditioniert. Alles was abweicht von dieser Erfahrung erzeugt eine Unstimmigkeit. Selbst wenn wir nicht genau wissen was an diesem Bild „falsch“ ist. Selbst unser an Dunkelheit angepasstes Auge sieht bei einem Blick durch ein größeres Teleskop so gut wie keine Farben. Das rote Leuchten des Wasserstoffs liegt schon in einem so dunklem roten Bereich, dass wir kaum mehr wahrnehmen können. Unsere Digitalkameras filtern diesen Bereich sogar schon zu 2/3 heraus. Selbst wenn wir uns im dunklen Weltraum befänden und auf den sehr hellen Orion Nebel zusteuern würden, wir würden das schwache rote Leuchten kaum sehen. Je näher wir kommen, desto mehr wird das Leuchten untergehen. Es sind ja bloß ein paar 100- maximal 10.000 Atome/Moleküle/cm3 an Wasserstoff  im ansonsten noch etwas dünnerem Weltall. Normale Astrofotos zeigen dieses Leuchten sehr stark verstärkt in Rot. Dann kommt oft noch Sauerstoff vor, bei 501nm, das unsere Kameras Blau zeigen. Sterne habe ein kontinuierliches Spektrum, das temperaturabhängig ist. Kühle Sterne sind rötlicher, heiße weiß/blau.
Einen automatischen Weißabgleich wird jede Kameraelektronik überfordern, spätestens dann wenn so gut wie kein neutraler Himmelshintergrund im Bild zu finden ist. Den Weißabgleich macht man eben selbst, zuerst den Hintergrund auf neutral, dann macht man sich einen Umstand zu nutze, der weitgehend passt: Im Durchschnitt sind die Sterne weiß. Heute verfügen wir aber über wesentlich genauere Photometrische Prozesse: Zuerst wird das Bildfeld „astrometriert“ also festgestellt, welchen Ausschnitt am Himmel haben wir vorliegen. Anhand von Leitsternen im Bildfeld deren Lichtzusammensetzung bekannt ist, kann dann das Bild korrigiert werden. Ist eine eigene Wissenschaft, aber man ist zumindest schon mal recht in der Nähe der waren Farben.
Der Rest der Möglichkeiten geht aber dann schon sehr in Richtung Falschfarben. Man kann ja jeden der Farbkanäle beliebigen Kanälen zuweisen oder einmischen. Sehr bekannt die „Hubble Palette“ bestehen aus  dem Roten Licht der Wasserstoffs, dem noch tief roteren Leuchten von Schwefel und dem blauen Leuchten des Sauerstoffs. Das hat überhaupt nichts mehr mit dem „natürlichen“ Farbspektrum zu tun, aber man erkennt gewisse Strukturen besser an solchen Falschfarbenbildern. Eine durchaus gängige Praxis im Wissenschaftlichen Bereich.

Massenware

Fotoapparate und Optiken sind Massenware. Das ist nichts negatives, sondern bringt eher Vorteile: Günstiger Preis und recht gleichbleibende Qualität. Dagegen sind „Fernrohre“ ja fast schon Einzelanfertigungen. So passt einfach eine beliebige Fotooptik einfach an den gleichen Anschluss an den Fotoapparat, oder wenn sie einen anderen Anschluss haben, mit einem entsprechenden Adapter. Durch den Anschluss wird u.a. der Richtige Abstand der Linse zum Sensor bestimmt.
Bei Fernrohren ist das schon schwieriger. Man muss den richtigen Abstand schon herausfinden. Ist der falsch, kommt man nicht in den Fokus. Schlimmer noch: Ist der am kurzen Ende und man will dann mal ein Filter dazwischen einbauen, kann es sein, dass man dann eben nicht mehr in Fokus kommt. Die übliche Norm wie 2″ (2 Zoll) oder 1,1/4″ sind lediglich eine Angabe über den Durchmesser und sagt nichts über den notwendigen „Backfokus“ des Systems. Es gibt dann auch noch Linsen, die die Vergrößerung erhöhen (nennt sich Barlow Linsen) aber auch Reduktoren, die die Brennweite verkürzen und damit die Lichtstärke erhöhen. Ob die eigene Optik nicht schon aufgrund mangelnder Öffnung vignettiert steht auf einem anderem Blatt. Da wir mit den FT Sensoren aber einen kleineren Sensor einsetzen ist das nicht ein ganz so großes Thema, wie bei großformatigeren Sensoren. Um eine nicht vermeidbare Bildfeldverzerrung auszugleichen (=runde Sterne bis in die Ecken) gibt es Flattener. Auch hier muss man dann noch den korrekten Abstand zum Sensor finden.
Egal welchen Adapter wir einsetzen: Sind sie sehr gut (und nur solche wollen wir verwenden!) sind sie nicht gerade billig und sie habe ihr genau definiertes Einsatzgebiet. Sie sind sehr spezifisch für ein spezielles Fernrohr (System/Brennweite), an Anderen eben nicht geeignet, auch wenn man sie von den Durchmessern her dazwischen setzen könnte.
Wenn man Glück hat, findet man jemanden, der die gleiche Konstellation zum Laufen gebracht hat oder hat ein Fachgeschäft, dass es abschätzen kann ob es gehen könnte oder geht.
Man kann ansonsten sehr schnell sehr viel Geld versenken…….

Universalität

An sich kann man mit jeder Standard Fotoausrüstung so ziemlich alles versuchen, von Nahaufnahme als auch weite Landschaftsübersichten.  Es gibt natürlich dann extra darauf spezialisierte Linsen, aber das hat Zeit. Sie verfeinern halt dann das Ergebnis.
Schwieriger ist es da schon in der Astrofotografie. Da heißt es „jedes Gerät hat seinen Himmel“. Die nutzbaren Brennweiten sind halt begrenzt.

Praktischer Weise wird es aber sowieso schnell dadurch begrenzt, dass es sehr schnell sehr sehr teuer wird, aber nicht nur dass: Es wird sehr schnell sehr sehr unhandlich.

Sind wir mit dem FT Sensorformat bei einer Sensorgröße, bestimmt das unseren Abbildungsmaßstab. Wer Kameras unterschiedlicher Sensorgröße einsetzt, ist hier flexibler, denn er bewegt sich ja bei einem „Cropfaktor“ zwischen x1 (KB/Vollformatsensor) und x2 bei FT Sensoren. Nur der Anspruch an die Optik die ja einen großen Sensor qualitativ gut ausleuchten muss sind natürlich um vieles höher. So ist eine „Cropkamera“ oder unser FT Sensor wohl ein guter Kompromiss.

Für den Einstieg bei größeren Brennweiten kommt an sich sowieso nur dann entweder ein Linsenfernrohr (APO) oder Spiegelteleskop (Newton) in Frage. Damit die Belichtungszeiten pro Bild nicht ausufern sollten sie so Lichtstark wie möglich sein.  Nicht außer Acht lassen sollte man, dass mehr Brennweite die Probleme potenziert hinsichtlich geforderter Präzision bei der Nachführung.

Wer allerdings vor hat, sich der Planetenfotografie zu widmen kann sich auch bei RC oder SC Teleskopen umsehen, denn er braucht so viel wie möglich Brennweite, Lichtstärke spielt hier eine Untergeordnete Rolle. Und er kann den Fotoapparat eher vergessen: Es braucht andere Kameras und eine Laptop um möglichst viele Bilder der kleinen aber sehr hellen Planeten zu sammeln.
Für die verschiedenen Objekttypen braucht es dann oft auch komplett andere Methodik der Bildgewinnung und deren Aufbereitung  zur finalen Ausarbeitung. Das macht man nicht mehr so auf die Schnelle…. Man wird nur richtig Gut wenn man sich längere Zeit intensiv damit beschäftigt. Und wie immer: Auch in Übung bleibt.

Zeitaufwand

Fotografie an sich geht sehr schnell. Will man aber dann noch die Bildidee weiter verbessern, wird man um ein genaueres Planen nicht herumkommen.
Outdoor wir es dann auch in der „normalen“ Fotografie aufwändig: Der Sonnenstand, die Jahreszeit will geplant sein. Das ist aber (leider) meist nicht mehr so üblich, aber wird meist der Unterschied zwischen Knipsbild, guten Bild oder Wahnsinnsbild sein.
Bei der Astrofotografie kommt man aber sehr schnell drauf, in größeren Zeiträumen zu denken. Je weniger mobil man sein kann, desto mehr ist man angewiesen, dass zum Richtigen Zeitpunkt alles passt.
Bei Deep Sky ist ein dunkler Himmel Voraussetzung (zumindest für den Einsteiger). Den gibt es nur außerhalb von Städten und nur während mondloser Nächte. Dazu muss es auch frei von Wolken oder Dunst sein. Das „Seeing“ sollte auch stimmen, vor allem bei Planeten und Mondfotografie. Im Jahreszeitlichen verlauf sehen wir nur bestimmte Teile des Sternhimmels. Der Rest ist da, wo dann die Sonne gerade steht und ist daher in der Dämmerung und am Tag natürlich nicht mehr erreichbar. Ebenso schwankt über das Jahr die Tageslänge.
Im Winter ist es sehr lange dunkel, aber leider meist sehr dunstig und feucht. Liegt Schnee, ist es selbst in Neunmondnächten bedingt durch die Lichtverschmutzung sehr hell. Das Frühjahr ist die beste Zeit, was Seeing betrifft und die Luft recht drocken. Im Sommer wird es gerade mal für 1-3 Stunden dunkel genug, im Norden Europas dann nie.
Weil aber ein Bild aus möglichst vielen Belichtungen zusammengesetzt werden, ist es egal, wann sie gemacht wurden. Man kann also Belichtungen über Tage/Wochen/Monaten/Jahren verwenden. Selbst von verschiedenen Geräten.

Der Himmel ist voll von tollen Objekten, aber die richtig Großen findet man im Süden in Milchstraßennähe. Objekte in Horizontnähe gehen im Dunst unter. Um sie genügend hoch am Himmel zu haben muss man schon sehr weit südlich, besser auf die südliche Halbkugel fahren. Da hin zu fahren, mitsamt seinen 50-70kg Ausrüstung wird schwierig und teuer. Fehlt ein entscheidendes Teil – geht nichts. Daher ist hier der gangbarste Weg: StarAdventurer ins Reisegepäck und mit Fotolinsen Widefieldbilder. Oder auf eine der „Astrofarmen“ nach Namibia oder in die Alpen und die Geräte mieten.
Mittlerweile gibt es aber auch um die Erde verteilt Remote Sternwarten. Je nach Gerätschaften ergibt sich dann ein Preis den eine Stunde Belichtungszeit kostet, so gegen 80-100 US$). Das hat den Vorteil, man greift bequem via Internet zu, erstellt den Job. Während man schläft, werden die Bilder angefertigt und sind dann versandbereit.

Wozu das Ganze?

Ein verbindender Aspekt ist wohl der: „Es geht nichts über ein selbst gemachtes Bild
Denn perfekte Bilder in hoher Auflösung kann man im Internet mittlerweile überall recht leicht bekommen….

M27 – Hantelnebel

170714, 15 und 18. M27 Hantelnebel

hohe Auflösung auf AstroBin

M27 ist bei uns einer der hellsten und relativ großen Planetarischen Nebel. Von der Größe ist er um 8 Bogenminuten groß. Der Mond hat 30 Winkel Minuten, unser Auge hat bei einer Winkelminute seine Auflösungsgrenze, Jupiter/Venus kommen fast in diesen Bereich.
Die Entfernung beträgt etwas über 1000 Lichjahre. Ein Stern hat am Ende seiner Lebensdauer einen großen Teil seiner Gashülle abgestoßen. Zurück blieb im Zentrum der mag+14 schwache weiße Zwerg, dessen Strahlung (er hat 100.000 Grad) das Gas zum Leuchten anregt: Wasserstoff rot (bei 656nm) und Sauerstoff bei 501nm in blau (O-III).

Man findet ihn im Sommer zwischen den Sternen Altair und Deneb unterhalb des Kopfsterns Albiro im Sternbild Schwan.