Astrofotografie: Google zeigt, wie Pixel 4 diese Nachtaufnahmen festnagelt

Google

Der Astrofotografiemodus von Google, der kürzlich mit Pixel 4 gestartet wurde, bevor er für die Geräte Pixel 2 und 3 verfügbar war, hat sich bei Fans des Nachthimmels als Hit erwiesen.

Mit der Kamera-App von Google können Sie im Astrofotografiemodus atemberaubende Aufnahmen von Sternen machen, bei denen normalerweise Fotoausrüstung weitaus sperriger und teurer ist als bei einem einfachen Smartphone.

Angesichts des großen Interesses an dem Feature hat der Tech-Riese diese Woche beschlossen, einen Einblick in die Funktionsweise zu geben und einige seiner Smarts in einem Blog-Beitrag zu erläutern.

Der Astrofotografiemodus ist im Wesentlichen eine weiterentwickelte Version von Night Sight, der leistungsstarken Low-Light-Funktion, die 2018 mit dem Pixel 3 eingeführt wurde.

"Die diesjährige Version von Night Sight erweitert die Grenzen der Fotografie bei schlechten Lichtverhältnissen mit Telefonkameras", schrieb das Fototeam von Google in dem Beitrag. „Mit Belichtungen von bis zu 4 Minuten auf Pixel 4 und 1 Minute auf Pixel 3 und 3a können mit der neuesten Version scharfe und klare Bilder der Sterne am Nachthimmel oder von Nachtlandschaften ohne künstliches Licht aufgenommen werden . ”

Google

Der Beitrag deckt einiges ab, einschließlich der Frage, wie die Funktion dazu beiträgt, Verwacklungen und Unschärfen durch Bewegungen in der Szene zu vermeiden, indem Langzeitbelichtungen in mehrere Bilder aufgeteilt werden, bevor sie automatisch ausgerichtet werden, um ein scharfes Bild zu erstellen.

Für den Astrofotografiemodus beträgt die Belichtungszeit des Pixel 4 pro Bild nicht mehr als 16 Sekunden für maximal 15 Bilder. Längere Expositionen würden sogenannte „Sternspuren“ erzeugen, die durch die Himmelskörper verursacht werden, die sich durch den Himmel „bewegen“. Während einige Astrofotografen gerne Bilder mit Sternspuren aufnehmen, zielt die Funktion von Google darauf ab, Bilder zu erstellen, mit denen die Sterne „wie Lichtpunkte aussehen“.

In Googles Artikel wird auch erklärt, wie die Software mit sogenannten warmen und heißen Pixeln umgeht, winzigen hellen Punkten, die bei längeren Belichtungen auftreten können, die von Digitalkamerasensoren erfasst werden.

Laut Google können warme und heiße Pixel identifiziert werden, "indem die Werte benachbarter Pixel innerhalb desselben Frames und über die für ein Foto aufgezeichnete Frame-Sequenz hinweg verglichen und nach Ausreißern gesucht werden". Sobald das Pixel lokalisiert ist, wird es verborgen, indem sein Wert durch den Durchschnitt seiner Nachbarn ersetzt wird. "Da der ursprüngliche Pixelwert verworfen wird, gehen Bildinformationen verloren. In der Praxis wirkt sich dies jedoch nicht merklich auf die Bildqualität aus", sagte Google.

In dem Stück wird weiter darüber gesprochen, wie die Software das Display aufhellt, um die Komposition zu unterstützen, und wie es gelingt, unter schwierigen Lichtverhältnissen eine scharfe Fokussierung sicherzustellen.

Außerdem wird erklärt, wie maschinelles Lernen verwendet wird, um Rauschen zu reduzieren und den Himmel selektiv abzudunkeln, einen realistischeren Eindruck von der jeweiligen Szene zu vermitteln und diese Sterne und den Rest des Bildes wirklich zum Platzen zu bringen.

Den Artikel finden Sie hier.