HDR / HDRI
(High Dynamic Range / High Dynamic Range Imaging)
Für diejenigen die HDR wirklich verstehen wollen und was HDR so anders macht
Ich lehne mich mal aus dem Fenster und behaupte, HDR ist nicht weniger als ein Paradigmenwechsel der bereits in vollem Gange ist.
Für die Nutzung des tatsächlichen Potentials einer PB Rendermaschine ist HDR schlichte Voraussetzung.
Alle hier gezeigten Bilder sind - um sie hier hochladen zu können - komprimierte JPEG Dateien, zeigen also nicht den vollen Farb und Kontrastumfang.
Wer ein Bild zum Vergleich in 100% JPEG oder 16Bit PNG haben möchte, meldet sich einfach.
HDR/I:
Das "I" steht für "Imaging" und bezeichnet damit nicht ein Bild, sondern den gesamten Entstehungs- und Bearbeitungsprozess eines "Hochkontrast Bildes" (HDR), beginnend mit dem Render oder Foto,
über Compositing und Tonemapping, bis hin zum klassischen Postwork.
Im professionellen CGI (Computer Generated Imaging) ist HDR bereits Standard, wo es u.a. für Special Effects, Texture Environments und globale Beleuchtungssysteme (GI / Global Illumination) zuständig ist.
Inzwischen stehen aber auch uns Laiendarstellern die technischen Mittel für HDR zur Verfügung - und zwar kostenlos
Wer eine PB Rendermaschine wie Octane, Iray oder andere verwendet, nutzt auch HDR. Möglicherweise ohne es zu wissen.
HDR kann auch digitaler Impressionismus bzw. Surrealismus sein und für den Hyperrealismus ist HDR eine wahre Goldgrube.
HDR ist nur ein Mittel. In der Hand eines Kreativen kann es auch zu darstellender Kunst werden.
Und HDR ist einfach. Denn erstens liefern physikalisch basierte Rendermaschinen ohnehin HDR Bilder, und zum anderen gibt es inzwischen etliche (teils kostenlose) und selbst für mich Anfänger leicht zu verstehende HDR Tools, mit denen sich beeindruckende Ergebnisse erzielen lassen.
Einleitend ein nur-mal-auf-die-Schnelle Beispiel.
Der Render kommt von Terragen4, welcher als klassisches LDR Bild so aussieht:
Diesmal jedoch speichere ich den Render im linearen 32Bit OpenEXR Format ab und öffne die HDR Datei anschließend in einem Tone Mapper,
wie z.B. Picturenaut, HDR Efecs Pro oder LuminanceHDR. Auch Postworker wie AffinityPhoto oder Photoshop, haben Tone Mapper an Bord.
Mehr dazu weiter unten im zweiten Post.
Jdenfalls, mit zwei drei schnell verstellten Reglern sortiere ich die Lichtwerte Verteilung (Farben sind auch Licht) und den Kontrast neu
und schon entstehen ganz andere bildliche Eindrücke oder sogar völlig andere Szenen.
Etwas Kühlers z.B. ...
...oder kitschige Farbdramatik...
...oder aus dem Sonnenuntergang Szenario mal eben eine Mondnacht gemacht...
...oder kein Foto, denn eher ein Gemälde.
Alles ohne Vorkenntnisse in Sachen Postwork, nur indem ich in den Tone Mappern ganz blauäugig ein par Regler verschiebe
Solche Veränderungen wären mit klassischen 8Bit LDR Formaten (JPG, PNG, TIFF usw.) so nicht möglich.
es wären gute Fachkenntnisse und ein erheblicherAufwand im Postwork erforderlich.
Warum? Weil eine 32Bit HDR Dateien alle Lichtinformationen eines Motivs beinhaltet, wogegen eine klassische LDR Dateien nur über einen Bruchteil davon verfügt.
Und ein Tone Mapper tut eigentlich nichts anderes als mit diesen Lichtinformationen zu spielen. Habe ich mehr davon, kann ich folglich mehr damit machen
Aber fangen wir vorne an...
Christian Bloch schreibt in seinem "HDRI Handbuch", Zitat:
„Licht ist das Wesentliche aller digitaler Bilder. Licht ist immer das zentrale Thema. Und HDRI ist die ultimative digitale Repräsentation von Licht"
Der CGI Artist wird es wissen und ich habe nun auch endlich begriffen, wie umfassend das Thema Licht in der digitalen Bilderstellung und Bearbeitung tatsächlich ist.
Was ist HDR?
Ein sicher nicht allzu korrekter, aber vielleicht verständlicher Erklärungsversuch:
High Dynamic Range bezeichnet einen hohen Dynamik Umfang bzw. Lichtwerte Umfang in einem digitalen Bild - auch Kontrastverhältnis genannt.
Dabei geht es um zwei Dinge. Zum einen um den möglichen maximalen sowie niedrigsten Helligkeitswert in einem Bild und zum anderen um die Anzahl differierender Lichtwerte dazwischen.
Beispiel:
ein ganz mieser Bildschirm kann, zwischen den beiden "Licht Werten" schwarz und weiß, neun weitere Lichtwerte oder Helligkeits- bzw. Graustufen darstellen.
Ungefähr so...
Die "Helligkeitsdifferenz" (Lichtwert Differenz) zwischen den beiden äußeren "Farben" schwarz und weiß wäre damit der höchste darzustellende Kontrast (hell/dunkel) in einem Bild.
Da aber noch 9 weitere Grautöne verfügbar und damit insgesamt 11 verschiedene Kontraststärken (Lichtwert Differenzen) möglich sind,
spricht man im hier vorliegenden Fall von einem Dynamikumfang bzw. einem Kontrastverhältnis von 11:1.
Das ist, wie unschwer zu erraten, nicht HDR. Denn der alleinige Maßstab ist die Wahrnehmungsfähigkeit unserer Augen und die können ein Kontrastverhältnis von rund 10.000:1 auflösen
Beeindruckende 10.000 Helligkeitsstufen zwischen weiß und schwarz können unsere Augen differenzieren. Dieses Kontrastverhältnis und höher bezeichnet man als High Dynamic Range (HDR).
Rechnen wir noch die globale und lokale Adaptionsfähigkeit, sowie die hohe Lichtempfindlichkeit (rund 30 Photonen) unserer Augen hinzu, heißt es mal locker 1.000.000.000:1
Keine Kamera der Welt kann so etwas. Doch, eine. Aber dazu später mehr
HDR ist also nicht irgendeine technische Utopie, sondern das was unsere Augen in der Realität wahrnehmen.
Das erste Probleme mit unseren bisherigen digitalen LDR Bildern, heißt Gamma Korrektur
Logarithmische und lineare Lichtwerteverteilung
Der Knackpunkt ist, dass die für unsere Augen unterschiedlich wahrnehmbaren (10.000+) Lichtwertstufen nicht gleichmäßig (linear) verteilt sind wie in dem Graustufenbild Beispiel oben.
Die Verteilung der einzelnen Lichtwerte in unserem gesamten Wahrnehmungsspektrum variieren oder genauer, sie sind logarithmisch verteilt.
Der Grund ist unsere schlaue Mutter Natur. Sie stellt uns in dem für unser Überleben wichtigsten mittleren bis dunklen Helligkeitsbereich, weit mehr Stufen zur Verfügung als in den sehr hellen Bereichen.
Die Verteilung der Lichtwerte ist grafisch gesehen keine Gerade, sondern eine Kurve. Hier habe ich diese kurzerhand selber zurechtgebogen.
Das Eingangsbild ist ein lineares HDR. Die diagonale Gerade wäre der lineare Lichtwerteverlauf.
Die weiße Linie ist die zurecht gebogene Gamma Kurve, auch Gradationskurve genannt.
Dummer Weise können die Sensoren unserer Consumer Digitalkameras auch dieses logarithmische Dingsbums nicht.
Der Kamera Sensor zeichnet die Lichtwerte (physikalisch durchaus korrekt) linear auf. Der Sensor ist dumm. Er zählt nur Photonen
Gammakorrektur: Zweck
Der Trick, der auf die lineare Lichtwerte Verteilung eines digitalen Fotografie oder eines Renders angewendet wird, heißt also Gammakorrektur.
Hier noch mal ein lineares HDR, also mit linearer Lichtwerteverteilung, wie es der Kamerasensor sieht...
...und hier inklusive Gammakorrektur, also logarhithmischer Lichtwerteverteilung.
Erst nach dieser Korrektur entspricht der Lichtwerteverlauf ungefähr dem wie ihn unsere Augen wahrnehmen und
das Bild wird auch für unseren Ausgabegeräten (z.B. Bildschirm, Drucker usw.) "normal" darstellbar.
Diese pauschale Tonwertkorrektur wirft aber unter anderem dieses Problem auf...
Gammakorrektur: Problem
Noch mal wie oben die lineare Lichtwerte Verteilung im Graustufen Beispiel...
...und hier eine mögliche gammakorrigierte Version.
Wie zu erkennen, wurden die Stufen in Richtung Mitte, also dem mittleren Helligkeitsbereich zusammengestaucht.
Damit sind in diesem Bereich mehr Lichtwerte verfügbar. In einem Bild könnten also dort mehr Details abgebildet werden.
Der Preis dafür ist ein Detailverlust in den hellen und dunklen Bereichen (Lichter/Tiefen) recht und links außen.
Vergleichen wir die lineare und gammakorrigierte Lichtwerteverteilung direkt...
...wird in dem sehr hellen Bereich rechts der roten Linie selbst für uns Laien verständlich, wo hier das "Gamma Problem" liegt.
Im linearen Balken (oben), habe ich dort immerhin 2 Helligkeitswerte zur Verfügung. Ich könnte zwei verschieden helle, also unterscheidbare Pixel darstellen.
Damit wäre immerhin die Zeichnung einer (wenn auch sehr einfachen) Struktur möglich.
Gammakorrigiert jedoch (Balken unten), verliere ich eine der ehemals 2 Lichtstufen in diesem Helligkeitsbereich.
Das bedeutet zwangsläufig, außer weiß, also einer durchgehend weißen Fläche, kann ich an dieser Stelle im Bild gar nichts mehr darstellen
Speicher ich dieses Bild nun im LDR Format, war's das mit den ehemals zwei möglichen Helligkeitswerten im Graustufen Beispiel oben,
bzw. zigtausenden von Lichtwerten in der digitalen Fotografie oder unserer 3D Render-Welt.
Der Verlust von möglichen Lichtwerten ist immer ein Verlust von möglichen Details in einem digitalen Bild.
Dennoch...
Gammakorrektur ist (bisher) bei LDR Bild Formaten (JPG. PNG usw.) notwendig und ein Standard. Auch digitale Kameras wenden (ohne Zutun des Fotografen) automatisch eine Gammakorrektur an,
sobald mit einem LDR Format abgespeichert wird. Einzig RAW ist ein Kamera Dateiformat, welches die Licht- und Farbinformationen "unverbogen" also linear abspeichert. Fotografen nennen das Sensor Rohdaten.
Alles ok soweit. Jedenfalls bis zu dem Zeitpunkt, an dem wir ein LDR Bild nacharbeiten wollen. Dort erst fangen die richtigen Probleme an.
Helle ich ein gammakorrigiertes LDR Bild in einem Bildbearbeitungsprogramm pauschal auf oder dunkle es ab, bekomme ich zwangsläufig Schwierigkeiten in den Lichtern oder Tiefen.
Ein Schwarz wird bestenfalls Grau aber meist eher zu einem Bildrauschen. Helle Bereiche fransen aus und sind irgendwie nur noch weiß, ohne jede Struktur.
Hellen wir ein Bild auf, müssten in den Tiefen eigentlich mehr Details erkennbar werden.
Da dort aber zu wenig Lichtwerte zur Verfügung stehen (um überhaupt mehr Detail zeichnen zu können) funktioniert das nicht.
Die softwaretechnischen Tricks, die professionelle Bildbearbeitungsprogramme drauf haben, um solche Informationslücken doch irgendwie wieder aufzufüllen,
helfen vielleicht die gröbsten Bildfehler (Bildrauschen, Artefakte, Tontrennungseffekte u.a.) zu kaschieren, den Felsbrocken aber,
der in der Realität im tiefen Schatten des Berges lag, können sie auch nicht zurück holen. Dieses Bilddetail wurden durch die Gammakorrektur zerstört,
der Felsen hat für das gammakorrigierte LDR Bild nie existiert. Wir wissen einfach nicht, was die Kamera dort seinerzeit wirklich "gesehen" hat.
Im nächsten Post 2 führe ich das mal vor...