Beiträge von Bluepix

    ... Affinity schau ich mir bei Gelegenheit auch an.

    Gerade als PSP Anwender kann ich Dir Affinity nur empfehlen :)




    Sodele. Nach einer überraschend glatt laufenden Einarbeitung, hier meine nächsten Sprüche.
    Und das von einem der Postwork bisher ablehnte... also ein PW Nichtswisser :rolleyes: Nun, dies ändert sich gerade...
    Inzwischen liegt die neueste Version 1.5.2 vor und auch die ersten kostenlosen Macros sind geladen und ausprobiert. Coole Sachen 8)


    Intuitives Layout? :nachdenklich: Damit prahlen (und lügen) ja alle :rolleyes:
    Gerade als Tonemapping und Postwork Anfänger, erlaube ich mir also dieses Urteil: Affinity Photo ist zugänglich wie kein anderes 3/2D Programm.
    Begründet im selbstverstehenden Layout, einer congenialen Layerstruktur und den über 200 Affinity Video Tuts, welche wunderbar kurz und verständlich
    jeden Aspekt des Programms auf den Punkt bringen. Daran sollten sich mal all die och-ich-mach-mal-ein-Tut-endlos-Laberköppe orientieren.


    So wie Affinity macht man hilfreiche Video Tutorials


    Eigentlich braucht Ihr Euch nur das ein oder andere Video ansehen und ich könnte jetzt hier schluss machen.
    Aber Anwender Eindrücke und ein par Bilder kommen hier im Forum ja auch ganz gut, also...



    Zur Sache:


    In Affinity komme ich mir mitunter vor wie ein Kind im Bon Bon Laden. Das will ich und die nehm ich auch noch, und davon noch etwas, oh, die will ich auch und oh ja ja, dass muss ich auch haben... usw. Man findet fast kein Ende, weil es so einfach ist und Affinity einen ständig verleitet jede Möglichkeit auszuprobieren. Es sind aber einfach zu viele. Also heute mal nur dieser kurze Einblick:



    Einen Octane Render als PNG16 im Postwork Modus (Photo Persona) geladen...






    Affinity bietet vier verschiedene Bearbeitungsmodie (1) und ich lerne jetzt gerade mal nur die Bereiche Postwork (Photo Persona) und Tonemapping (Tonemapping Persona) kennen. Links (2) befindet sich die übliche (und PSP sehr ähnliche) Werkszeugleiste. Jedes Fenster (3), incl. aller Anpassungen (hier Tonwertkorrektur) lassen sich frei im View bewegen und fixieren. Falls ich nicht als Affinity Datei abspeichern will, muss ich exportieren (4), schöner Weise mit allen gewünschten Manipulationsmöglichkeiten. Speicher ich als Afffinity Datei, bleiben natürlich alle Ebenen, Filter und Effekte als einzeln bearbeitbare Layer erhalten. Die ultimative EXR Datei (HDR) - falls geladen - kann natürlich auch gespeichert werden, und somit der lineare Workflow. (5) sind die o.g. kostenlosen Macros (ab Light Leaks abwärts). Default ist Standard.



    Aber das hier rechts, ist die eigentliche Spielwiese...






    Die erste Ebene beinhaltet das Ausgangsbild. HINWEIS für die die noch weniger wissen als ich: Affinity erklärt in den Anfänger Tuts auch, was ein Layer (Ebene) überhaupt ist :thumbup: Diese Ebene markieren und auf Anpassungen wechseln. Dort einen der etlichen Filter auswählen (hier Gradationskurve) und schon wird diese Anpassung als weitere Ebene angelegt, selbige ist ab und zuschaltbar, verschiebbar oder auch als Child an jede andere Ebene anzuhängen. Filter können also direkt auf das Grundbild, oder als separater Layer, oder aber als Filter auf einen Layer angewendet werden.





    Und wenn man das nach kurzer Zeit verstanden hat, gehts erst richtig los... und vor lauter Begeisterung, wie einfach das alles funktioniert, hat man ruckzuck eine ganze Ebenenlatte rechts im Bearbeitungsraum (1) Hier ein Child Filter am Ursprungsbild hängend. Die Manipulationsmöglichkeiten in einem Filter (2) sind endlos (3) und(!) werden nur durch drüber hovern mit dem Mauszeiger in Echtzeit angezeigt 8)






    Selbiges gilt für die Effekte die ihrerseits auf die Layer (hier mein grüner Kringel für diesen Post) wirken.







    Alles im Affinity Postwork sind faktisch Ebenen (Layer) und damit, bezogen auf das Ausgangsbild, zerstörungsfrei anzuwenden.
    Selbst als Anfänger kommt man aus dem Spielen gar nicht raus ^^ Und am Ende hat man dann z.B. sowas...







    Weitere Eindrücke folgen... vielleicht ;)

    Als Weltraum Interessierter und möchte gern Hobby Astrophysiker ;) muss ich Deine Sonne (mindestens Klasse G) kritisieren. Ein roter Zwerg (Klasse M) wäre - wie der Name es sagt - rot, und erst recht wenn er so tief am Horizont stünde. Folglich wäre neben der Sonne auch gleich die gesamte Szene in düsteres Rot getaucht. Was aber wiederum bedeutet, dass der Render recht simpel im PW zu korrigieren wäre, indem Du Blau und Grün runter regelst. Und wo sind denn nun die schwarzen Pflanzen? ;)

    Die Fähigkeit zu so einem nahezu vollständigen Workflow kann ich nur bewundern.
    Beginnend bei der Kreativität, über's Modelling, Texturierung und am Ende noch ein Film?! Respekt! :thumbup:

    Die Metallklappen Textur könnte tatsächlich besser, aber wie erklärt, ein Testrender - und Finals gibt es sowieso nicht ;)
    Der erste Render gefällt mir sehr gut :thumbup: Wie von spacebones schon angesprochen, von Detailverliebtheit getragen.

    Verwendete(s) Programm(e):
    DAZ Studio 4.8 (Szene)
    Octane 3 (HDR Licht und Render)
    Luminance HDR (Tone [lexicon]Mapping[/lexicon])
    Renderzeit: 36 Min.


    Das Bild enstand im Zuge meiner Beschäftigung mit HDR und Tonemapping.
    Render aus Octane als OpenEXR gespeichert und anschließend in LuminanceHDR ge-tonemapped ;)


    Danke 3Dfan, sage, Kushanku und SIG :)


    ... mehr Spaß anzuschauen als jedes einzelne Bild anklicken und vergrößern, nur so als Anregung.

    Danke siddartha :) und das sehe ich auch so. Werde die Bilder zukünftig wieder als Vollbild in den Post laden.


    ...Die Story les ich dann, wenn ich gerade mal nicht zu faul dazu bin... :whistling: )

    Ich wusste, dass er das sagen würde ;) Danke OD :)


    ...Ist wohl ein Luxusliner :D ... leuchtenden Stühlen. J...doch eher unpraktisch vor, besonders in einem Raum voller Bildschirme, wo ablenkende Lichtquellen für das menschliche Auge ja eher störend sind... aber gut, den Bots ist es vermutlich egal ;)

    Danke Esha :) Is natürlich alles reflexionsfreies Material ;)

    HDR / HDRI

    Post 2



    Hier ein direkter "Aufhellungsvergleich" zwischen LDR und HDR, bei gleichem Motiv (Octane Render).
    Hier geht es nicht um Schönheit, sondern nur darum, welches Bild "bearbeitungsfähig" wäre, um z.B. Tone Mapping Varianten wie bei den Bildern ganz oben zu erschaffen.


    Das ist der Ursprungsrender (16Bit PNG), ganz bewusst mit extremer Lichtsituation:







    Die dunklen, fast schwarzen Bereiche interessieren mich besonders. Mal sehen was in der Dunkelheit verborgen ist, also was die LDR bzw. das HDR Bild hergeben. Vielleicht ja ein Felsen.

    Das Render Ergebnis habe ich zunächst in den drei zu vergleichenden Dateiformaten abgespeichert.

    1. 8Bit PNG (LDR / Gammakorrigiert)
    2. 16Bit PNG (LDR / Gammakorrigiert)
    3. 32Bit OpenEXR (HDR / linear)

    Alle drei Bilder habe ich dann in AffinityPhoto einer recht brutalen Aufhellung unterzogen.
    Die Belichtung (Helligkeit) wurde bei jedem Bild um 5 Blendenstufen (LW) erhöht. Bei der linearen EXR noch zusätzlich eine Variante mit 10 LW.
    Dabei werden die hellen Bereiche natürlich zerrissen. Aber ich will ja nur wissen, was in der Dunkelheit verborgen ist.








    Dies sind die Resultate im klassischen 8Bit und 16Bit PNG Format:












    Und hier für 32 Bit OpenEXR +5/10 LW










    Die Ergebnisse sprechen für sich. In den gammakorrigierten 8 und 16Bit LDR Bildern hat ein grünes Feld nie existiert, obschon alle Bilder dem gleichen Render entstammen. Es stellt sich also immer die Frage, was für ein Bildformat liegt mir vor. Und wurde bereits eine Gammakorrektur angewendet oder nicht.

    Es gibt noch ein weiteres digital-historisches Problem.


    Denn wie oben schon mal gehört, es geht immer nur um Licht! 8)
    Physikalisch definiert sich Licht über seine Helligkeit (Wellenfrequenz) und die Farbe (Wellenlänge). Mehr ist es nicht. Und doch ist es alles.
    In der Realität genauso wie in unseren Render Welten. Das zweite Problem bei LDR Bildern ist...





    Der 8Bit RGB Farbraum :|






    Der RGB (Rot/Grün/Blau) Farbraum definiert die Farbe und Helligkeit eines Bildpunktes, z.B. auf diesem Bildschirm.
    CMYK und andere Farbräume (z.B. für das Druckgewerbe) interessieren zumindest mich eher weniger.




    RGB 8Bit / 16Bit / 24Bit / 32Bit ...


    Je mehr Bit umso besser. Soviel weiß selbst ich. Mein Betriebssystem rennt inzwischen mit 64Bit. Aber die Bilder wursteln immer noch mit 8 oder maximal 16 Bit pro Farbkanal rum :rolleyes: Neben der Gammakorrektur haben wir hier das zweite Problem. Und beide bedingen einander.


    Den allgemein gängigen sRGB Farbraum als 24Bit Format zu bezeichnen wäre Schönrederei, denn er besitzt drei Farbkanäle und jeder einzelne verfügt nur über 8Bit,
    was nach Adam Riese ganze 256 Helligkeitsstufen je Farbe ermöglicht. Wir reden also über ein Kontrastverhältnis von 256:1 je Farbkanal gegenüber dem unserer Augen von 10.000:1 und mehr. Soviel zum schneidigen Begriff True Color :irre


    Dazu kommt, dass das RGB Format zwei klare Grenzen hat. Nichts ist heller als ein RGB weiß (255) und nichts dunkler als ein RGB schwarz (0).
    Das bedeutet, unter extremen Lichtsituationen sind dem vielleicht notwendigen Verschieben (Adaption) des Lichtwerteumfangs in die eine oder andere Richtung verlustbringende Grenzen gesetzt. Lichtwerte die ich im Tonemapping über diese Grenze verschiebe und als LDR abspeichere, werden als nicht existent angesehen und einfach abgeschnitten =O Wir haben wieder Licht- und Farbinformationen verloren :cursing:


    Grundsätzlich gilt, entferne ich Farb- bzw. Lichtwertinformationen, z.B. durch Gammakorrektur, Tonemapping oder Postwork und speichere die Datei als LDR, sind diese zerstört und niemand kann sie wieder herbei zaubern. Deshalb nennt man HDRI auch zerstörungsfreie Bildbearbeitung 8)


    Das 32Bit RGBA Format verfügt je Farbe auch nur über 8Bit. Die in dem Fall vierten 8Bit (4x8=32) sind für den Alphakanal (Transparenz Masken) zuständig.
    Am schwachen LDR Kontrastverhältnis ändert sich also auch bei diesem "32Bit" Format nichts.


    Auch 16Bit PNG Dateien liefern zwar ein par Bit mehr für die möglichen Farbwerte, sind aber ebenfalls nach oben und unten (0 bis 255) begrenzt, sowie Gammakorrektur verseucht und...


    Jeder LDR Datei fehlt die Gleitkomma Option! ?(





    Gleitkomma?!


    Beispiel:
    nach dem Helligkeitswert Blau 212 kommt unvermeidlich der Helligkeitswert Blau 213, obwohl wir an dieser Stelle im Bild vielleicht einen Helligkeitswert Blau 212,5 bräuchten X/ Pech gehabt. Wir haben die Wahl zwischen einem falschen Blau 212 oder dem falschen Blau 213. Blau 212,5 oder gar 212,7012 sind nicht lieferbar, weil Gleitkommaarithmetik bei 8Bit RGB nicht vorhanden :(


    Es gibt Gleitkomma TIFFs und auch noch andere Formate mit dieser Option. Jedoch sind das allesamt Speichermonster und somit für uns kaum brauchbar.
    Nach Möglichkeit will ich die Veränderungen, z.B. beim Tone Mapping, in Echtzeit sehen, und nicht jedes mal eine Kaffeepause einlegen müssen, wie manche das vom Rendern kennen :P




    HDR durch Belichtungsreihen (Compositing)


    Diese Lösung haben Fotografen erfunden und der Trick ist vom Grundsatz her recht simpel.
    Ich fotografiere - möglichst auf Stativ - ein Motiv mindestens 3 mal, wobei die zweite und dritte Belichtung mindestens eine Lichtwertstufe (über Verschlusszeit) unter bzw. über der Erstaufnahme liegt. Damit habe ich quasi den Dynamikumfang in beide Richtungen verlängert. Auf dem kürzer belichteten Bild habe ich mehr Lichtinformationen (Details) in den Lichtern, auf dem länger belichteten Bild wiederum mehr davon in den Tiefen.


    Dummerweise sind es aber 3 Bilder :/ Die simple Lösung: Compositing 8) Mehr dazu erzählt Euch Tante Wickie und Oma Google :S





    HDR Kamera?


    Mittlerweile hat jede bessere DSLR (und sogar Smartphones) eine eingebaute "HDR Funktion", was aber nur bedeutet, dass die Kamera automatisch mehrere (unterschiedliche) Belichtungen vornimmt, wenn dies vorher eingestellt wurde. Eine echte HDR Kamera, also eine Kamera, die mit einer einzigen Belichtung den gesamten verfügbaren Lichtwerteumfang des Motivs aufnehmen und speichern kann, gibt es nicht. Jedenfalls nicht im Consumer Bereich.


    ....ähhhh doch, eine gibt es! 8)





    HDR Rendering


    Eine 3D Renderkamera (PBR) kann tatsächlich mit einer "Aufnahme" einem unseren Augen entsprechenden Lichtwerteumfang erfassen und speichern, mit einem Kontrastverhältnis von bis zu 1.000.000:1 :thumbup: Rendermaschinen arbeiten bereits seit Jahren mit 32Bit. Aber erst das physikalisch basierte Rendern (PBR) in Verbindung mit HDR Dateiformaten nutzt dieses Potential und öffnet uns damit Türen zu neuen Gefilden :)


    Die entscheidenden Vorteile des Themas HDR in 3D verteilen sich für mich (bisher) auf vier Bereiche:


    1. HDR Bilder rendern (Octane3) Denn das tun PB Rendermaschinen.
    2. Echtzeit Imaging (ähnlich Tone Mapping) im laufenden Render (Octane3)
    3. 32Bit HDR Ausgabeformat OpenEXR für späteres HDR-Tonemapping, Compositing oder Postwork (AffinityPhoto)
    4. HDRI global lighting (Octane3)
    5. Rendern sphärischer HDR Bilder für den Einsatz in anderen 3D Szenen als HDR Environments und globale Beleuchtung (Terragen 4 pro)


    Jeder wird hier noch andere Bereiche finden und seine eigenen Schwerpunkte setzen.




    HDR Dateiformate


    Der Unterschied? Na der Dynamikumfang 8)

    Man sagt, der Blick auf ein HDR Bild sei wie der Blick durch ein offenes Fenster.



    Radiance / .hdr


    Der Urvater aller HDR Formate von Greg Ward. Der Witz ist, dass eine Radiance (.hdr) auch nur 3 Farbkanäle besitzt (RGB) und jeder Kanal ebenfalls nur über 8Bit verfügt. Der Trick ist der vierte Kanal, in den Exponenten geschrieben werden, die auf jeden Farbwert in jedem Farbkanal wirken. Es stehen also nicht 255 Helligkeitsstufen pro Farbe zur Verfügung, sondern Ende offen 8) Das ist alles. Und damit sind Kontrastverhältnisse möglich die in die Fantastillionen gehen :huh:
    Nachteil des .hdr Formates sind Unmengen ungenutzter Werte, welche jedoch durch eine Kompression im Speichervorgang auf einen minimalen Wert geschrumpft werden können.


    OpenEXR / .exr


    Das Format OpenEXR (.exr) arbeitet mit 16Bit je Farbkanal, was unter Gleitkomma Berücksichtigung über 1 Mrd. Farben ermöglicht, unabhängig von der Lichtwertstufe! 8) Das darstellbare Kontrastverhältnis reicht bis über eine Million:1 und ist damit für alle Zwecke mehr als genug. OpenEXR kann auch verlustfrei als ZIP archiviert werden.


    OpenEXR scheint sich zu einem Standard entwickelt zu haben. Auch PIXAR und andere Film- bzw. Special Effects Studios arbeiten mit OpenEXR. Kein Wunder. Schließlich kommt OpenEXR aus dieser Branche. Andere HDR Formate wie z.B. Gleitkomma TIFF oder TIFF logluv sind (wie bereits gesagt) Speichermonster und im Consumer Bereich nur wenig oder gar nicht verbreitet.


    Entscheidend ist, dass in einer HDR Datei alle Bildinformationen enthalten sind und die Datei, im Gegensatz zu RAW, keinen Konverter benötigt.



    Tone Mapping[ (Tonwert Umsetzung)


    Tone Mapper versetzen die Tonwerte in einem Bild. Es sind Operatoren, also mathematische Funktionen, die mit der Lichtwerteverteilung spielen.
    Im Gegensatz zum klassischen LDR Postwork jedoch zerstörungsfrei, weil HDR. Man nennt sie auch Dynamik Kompressoren, weil sie am Ende ein LDR ausgeben.


    Es gibt sie als globale und lokale Operatoren (vgl. Auge: globale und lokale Adaption). Diese Kontrast Trick Kisten sind echt cool und einige gute auch kostenlos, wie der o.g. Picturenaut oder Luminance HDR. In Affinity Photo und auch Photoshop sind solche Mapper bereits eingebaut. Wer nicht den pauschalen Gammastempel auf sein Bild gedrückt haben will, macht Tone Mapping. Selbst ich selbsterklärter nicht-Postworker :) Weil's so beeindruckend und so einfach ist :thumbup: Siehe die ersten Bilder ganz oben oder die Folgenden.


    Tone Mapper pressen also den Dynamikumfang eines HDR zurück in die klassische, also kapazitiv begrenzte 8/16Bit LDR Kiste, mit dem lächerlichen Kontrastverhältnis von 256:1 pro Kanal, damit wir uns das Ergebnis (auch ohne UHD Bildschirm) ansehen können. Natürlich gehen auch dabei Bildinformationen verloren. Aber im Gegensatz zu automatischer Gammakorrektur, entscheide ich welche Tonwerte rausfliegen und welche drin bleiben.


    Noch ein Beispiel dazu: Hier habe ich Octane die automatische Gammakorrektur überlassen...





    Und bei diesem Bild habe ich entschieden wie die Tonewerte verteilt werden...





    Zu viel Sättigung? Beim Tonemapping (im Gegensatz zum Compositing) gibt es kein richtig oder falsch.
    Tonemapping heißt, Krativität ohne Grenzten und allein der Betrachter entscheidet ob es ihm gefällt oder nicht.


    Voll die Farben, ey! ;) Weil es einfach Spaß macht :) Man beachte die Stickerei auf dem Hut.
    Dieses Blau oben auf dem Hut z.B., habe ich so auf meinem Bildschirm noch nie gesehen. Ist allerdings auch ein UHD Monitor. Ich weiß nicht ob das bei normalen Monitoren auch so rüber kommt. Die JPEG Komprimierung nach hier hat dem Bild ohnehin schon viel genommen. Glaubt mir einfach, dass es klasse aussieht.


    In diesem Fall habe ich übrigens Picturenaut verwendet.
    Ein kleines aber geniales Programm incl. 4 verschiedener Tonemapper (Operatoren) :thumbup:



    Hier eine kurze...


    Picturenaut Einweisung:




    Wenn das (lineare) HDR Bild geladen ist und auf Tone Mappen gedrückt wurde, zeigt das Histogramm (3) die Lichtwerteverteilung im 8/16Bit RGB Farbraum (0-255) für das zu erstellende LDR Bild an. Dort zunächst unter Luminance (2) den Schwarz- und Weißpunkt korrekt setzen, also an die ersten nennenswerten Lichtwerte heran schieben. Cool ist, dass ich diese auch für jeden der drei Farbkanäle RGB (2) getrennt setzen kann und Picturenaut mir immer die Veränderungen im Histogramm als auch dem Vollbild in Echtzeit präsentiert. Mit den vier verschiedenen Operatoren (1) lassen sich die dollsten Licht- und Kontrastvarianten zaubern.


    Picturenaut ist für HDR Anfänger genau das richtige Programm um auf Anhieb zu verstehen, was da eigentlich abläuft, denn er zeigt es mir in Echtzeit.
    Verändere ich z.B. die Belichtungszeit, sehe ich - neben der Veränderung im Vorschau Bild - auch im Historgramm wie sich die Lichtwerte Verteilung ändert, usw. ...





    Postwork


    Im klassischen 32Bit HDR Postwork, läuft es genauso. Helle ich ein HDR Bild auf oder dunkle es ab, (siehe LDR/HDRVergleichsbilder oben) funktioniert es plötzlich so wie schon immer gewünscht :) Jetzt tauchen tatsächlich Details in sehr hellen oder sehr dunkeln Bereichen auf, die vorher nicht da waren, weil sie in einem LDR Format auch tatsächlich nicht existierten.


    Zauberei? Nein. Nur mehr Lichtinformationen. Zerstörungsfreie Bildbearbeitung eben 8) Heißt weniger Artefakte, kaum noch Bildrauschen, keine Zahnlücken im Histogramm und all die anderen Probleme mit denen Postworker sich bei einer LDR Bildbearbeitungen rumschlagen müssen.





    Das Ende der Gammakorrektur?


    Nun ja, es wird wohl noch etwas dauern, bis HDR Dateiformate zum "Ausgabe Standard" für alle beteiligten Geräte werden. Aber er wird kommen.
    Die ersten bezahlbaren HDR PC Monitore (UHD) stehen bereits in den Läden. Auch HDR TV Screens gibt es bereits, basieren aber auf anderen Techniken und Farbsystemen.



    Ich will aber nicht compositen oder postworken. Ich will nur gute Render erstellen! :rolleyes:


    Tja, der Spruch könnte von mir sein :saint: Deshalb werde ich (beizeiten) noch einen dritten Post nachschieben,

    wie ich in meiner Renderengine Octane bereits "tone mappe", und zwar während der Render noch läuft 8)

    HDR / HDRI
    (High Dynamic Range / High Dynamic Range Imaging)


    Für diejenigen die HDR wirklich verstehen wollen und was HDR so anders macht :nachdenklich:


    Ich lehne mich mal aus dem Fenster und behaupte, HDR ist nicht weniger als ein Paradigmenwechsel der bereits in vollem Gange ist.
    Für die Nutzung des tatsächlichen Potentials einer PB Rendermaschine ist HDR schlichte Voraussetzung.


    Alle hier gezeigten Bilder sind - um sie hier hochladen zu können - komprimierte JPEG Dateien, zeigen also nicht den vollen Farb und Kontrastumfang.
    Wer ein Bild zum Vergleich in 100% JPEG oder 16Bit PNG haben möchte, meldet sich einfach.




    HDR/I:


    Das "I" steht für "Imaging" und bezeichnet damit nicht ein Bild, sondern den gesamten Entstehungs- und Bearbeitungsprozess eines "Hochkontrast Bildes" (HDR), beginnend mit dem Render oder Foto,
    über Compositing und Tonemapping, bis hin zum klassischen Postwork.


    Im professionellen CGI (Computer Generated Imaging) ist HDR bereits Standard, wo es u.a. für Special Effects, Texture Environments und globale Beleuchtungssysteme (GI / Global Illumination) zuständig ist.
    Inzwischen stehen aber auch uns Laiendarstellern die technischen Mittel für HDR zur Verfügung - und zwar kostenlos 8)
    Wer eine PB Rendermaschine wie Octane, Iray oder andere verwendet, nutzt auch HDR. Möglicherweise ohne es zu wissen.


    HDR kann auch digitaler Impressionismus bzw. Surrealismus sein und für den Hyperrealismus ist HDR eine wahre Goldgrube.
    HDR ist nur ein Mittel. In der Hand eines Kreativen kann es auch zu darstellender Kunst werden.


    Und HDR ist einfach. Denn erstens liefern physikalisch basierte Rendermaschinen ohnehin HDR Bilder, und zum anderen gibt es inzwischen etliche (teils kostenlose) und selbst für mich Anfänger leicht zu verstehende HDR Tools, mit denen sich beeindruckende Ergebnisse erzielen lassen.




    Einleitend ein nur-mal-auf-die-Schnelle Beispiel.
    Der Render kommt von Terragen4, welcher als klassisches LDR Bild so aussieht:






    Diesmal jedoch speichere ich den Render im linearen 32Bit OpenEXR Format ab und öffne die HDR Datei anschließend in einem Tone Mapper,
    wie z.B. Picturenaut, HDR Efecs Pro oder LuminanceHDR. Auch Postworker wie AffinityPhoto oder Photoshop, haben Tone Mapper an Bord.
    Mehr dazu weiter unten im zweiten Post.


    Jdenfalls, mit zwei drei schnell verstellten Reglern sortiere ich die Lichtwerte Verteilung (Farben sind auch Licht) und den Kontrast neu
    und schon entstehen ganz andere bildliche Eindrücke oder sogar völlig andere Szenen.


    Etwas Kühlers z.B. ...






    ...oder kitschige Farbdramatik...






    ...oder aus dem Sonnenuntergang Szenario mal eben eine Mondnacht gemacht...






    ...oder kein Foto, denn eher ein Gemälde.






    Alles ohne Vorkenntnisse in Sachen Postwork, nur indem ich in den Tone Mappern ganz blauäugig ein par Regler verschiebe 8o
    Solche Veränderungen wären mit klassischen 8Bit LDR Formaten (JPG, PNG, TIFF usw.) so nicht möglich.
    es wären gute Fachkenntnisse und ein erheblicherAufwand im Postwork erforderlich.


    Warum? Weil eine 32Bit HDR Dateien alle Lichtinformationen eines Motivs beinhaltet, wogegen eine klassische LDR Dateien nur über einen Bruchteil davon verfügt.
    Und ein Tone Mapper tut eigentlich nichts anderes als mit diesen Lichtinformationen zu spielen. Habe ich mehr davon, kann ich folglich mehr damit machen 8)



    Aber fangen wir vorne an...


    Christian Bloch schreibt in seinem "HDRI Handbuch", Zitat:
    „Licht ist das Wesentliche aller digitaler Bilder. Licht ist immer das zentrale Thema. Und HDRI ist die ultimative digitale Repräsentation von Licht"


    Der CGI Artist wird es wissen und ich habe nun auch endlich begriffen, wie umfassend das Thema Licht in der digitalen Bilderstellung und Bearbeitung tatsächlich ist.





    Was ist HDR?


    Ein sicher nicht allzu korrekter, aber vielleicht verständlicher Erklärungsversuch:


    High Dynamic Range bezeichnet einen hohen Dynamik Umfang bzw. Lichtwerte Umfang in einem digitalen Bild - auch Kontrastverhältnis genannt.
    Dabei geht es um zwei Dinge. Zum einen um den möglichen maximalen sowie niedrigsten Helligkeitswert in einem Bild und zum anderen um die Anzahl differierender Lichtwerte dazwischen.




    Beispiel:

    ein ganz mieser Bildschirm kann, zwischen den beiden "Licht Werten" schwarz und weiß, neun weitere Lichtwerte oder Helligkeits- bzw. Graustufen darstellen.
    Ungefähr so...





    Die "Helligkeitsdifferenz" (Lichtwert Differenz) zwischen den beiden äußeren "Farben" schwarz und weiß wäre damit der höchste darzustellende Kontrast (hell/dunkel) in einem Bild.
    Da aber noch 9 weitere Grautöne verfügbar und damit insgesamt 11 verschiedene Kontraststärken (Lichtwert Differenzen) möglich sind,
    spricht man im hier vorliegenden Fall von einem Dynamikumfang bzw. einem Kontrastverhältnis von 11:1.


    Das ist, wie unschwer zu erraten, nicht HDR. Denn der alleinige Maßstab ist die Wahrnehmungsfähigkeit unserer Augen und die können ein Kontrastverhältnis von rund 10.000:1 auflösen :huh:
    Beeindruckende 10.000 Helligkeitsstufen zwischen weiß und schwarz können unsere Augen differenzieren. Dieses Kontrastverhältnis und höher bezeichnet man als High Dynamic Range (HDR).


    Rechnen wir noch die globale und lokale Adaptionsfähigkeit, sowie die hohe Lichtempfindlichkeit (rund 30 Photonen) unserer Augen hinzu, heißt es mal locker 1.000.000.000:1 8|
    Keine Kamera der Welt kann so etwas. Doch, eine. Aber dazu später mehr 8)


    HDR ist also nicht irgendeine technische Utopie, sondern das was unsere Augen in der Realität wahrnehmen.


    Das erste Probleme mit unseren bisherigen digitalen LDR Bildern, heißt Gamma Korrektur ?(





    Logarithmische und lineare Lichtwerteverteilung


    Der Knackpunkt ist, dass die für unsere Augen unterschiedlich wahrnehmbaren (10.000+) Lichtwertstufen nicht gleichmäßig (linear) verteilt sind wie in dem Graustufenbild Beispiel oben.
    Die Verteilung der einzelnen Lichtwerte in unserem gesamten Wahrnehmungsspektrum variieren oder genauer, sie sind logarithmisch verteilt.


    Der Grund ist unsere schlaue Mutter Natur. Sie stellt uns in dem für unser Überleben wichtigsten mittleren bis dunklen Helligkeitsbereich, weit mehr Stufen zur Verfügung als in den sehr hellen Bereichen.
    Die Verteilung der Lichtwerte ist grafisch gesehen keine Gerade, sondern eine Kurve. Hier habe ich diese kurzerhand selber zurechtgebogen.




    Das Eingangsbild ist ein lineares HDR. Die diagonale Gerade wäre der lineare Lichtwerteverlauf.
    Die weiße Linie ist die zurecht gebogene Gamma Kurve, auch Gradationskurve genannt.


    Dummer Weise können die Sensoren unserer Consumer Digitalkameras auch dieses logarithmische Dingsbums nicht.
    Der Kamera Sensor zeichnet die Lichtwerte (physikalisch durchaus korrekt) linear auf. Der Sensor ist dumm. Er zählt nur Photonen X/






    Gammakorrektur: Zweck


    Der Trick, der auf die lineare Lichtwerte Verteilung eines digitalen Fotografie oder eines Renders angewendet wird, heißt also Gammakorrektur.
    Hier noch mal ein lineares HDR, also mit linearer Lichtwerteverteilung, wie es der Kamerasensor sieht...






    ...und hier inklusive Gammakorrektur, also logarhithmischer Lichtwerteverteilung.






    Erst nach dieser Korrektur entspricht der Lichtwerteverlauf ungefähr dem wie ihn unsere Augen wahrnehmen und
    das Bild wird auch für unseren Ausgabegeräten (z.B. Bildschirm, Drucker usw.) "normal" darstellbar.


    Diese pauschale Tonwertkorrektur wirft aber unter anderem dieses Problem auf...





    Gammakorrektur: Problem



    Noch mal wie oben die lineare Lichtwerte Verteilung im Graustufen Beispiel...






    ...und hier eine mögliche gammakorrigierte Version.




    Wie zu erkennen, wurden die Stufen in Richtung Mitte, also dem mittleren Helligkeitsbereich zusammengestaucht.
    Damit sind in diesem Bereich mehr Lichtwerte verfügbar. In einem Bild könnten also dort mehr Details abgebildet werden.
    Der Preis dafür ist ein Detailverlust in den hellen und dunklen Bereichen (Lichter/Tiefen) recht und links außen.



    Vergleichen wir die lineare und gammakorrigierte Lichtwerteverteilung direkt...





    ...wird in dem sehr hellen Bereich rechts der roten Linie selbst für uns Laien verständlich, wo hier das "Gamma Problem" liegt.
    Im linearen Balken (oben), habe ich dort immerhin 2 Helligkeitswerte zur Verfügung. Ich könnte zwei verschieden helle, also unterscheidbare Pixel darstellen.
    Damit wäre immerhin die Zeichnung einer (wenn auch sehr einfachen) Struktur möglich.

    Gammakorrigiert jedoch (Balken unten), verliere ich eine der ehemals 2 Lichtstufen in diesem Helligkeitsbereich.
    Das bedeutet zwangsläufig, außer weiß, also einer durchgehend weißen Fläche, kann ich an dieser Stelle im Bild gar nichts mehr darstellen :(


    Speicher ich dieses Bild nun im LDR Format, war's das mit den ehemals zwei möglichen Helligkeitswerten im Graustufen Beispiel oben,
    bzw. zigtausenden von Lichtwerten in der digitalen Fotografie oder unserer 3D Render-Welt.
    Der Verlust von möglichen Lichtwerten ist immer ein Verlust von möglichen Details in einem digitalen Bild.


    Dennoch...

    Gammakorrektur ist (bisher) bei LDR Bild Formaten (JPG. PNG usw.) notwendig und ein Standard. Auch digitale Kameras wenden (ohne Zutun des Fotografen) automatisch eine Gammakorrektur an,
    sobald mit einem LDR Format abgespeichert wird. Einzig RAW ist ein Kamera Dateiformat, welches die Licht- und Farbinformationen "unverbogen" also linear abspeichert. Fotografen nennen das Sensor Rohdaten.




    Alles ok soweit. Jedenfalls bis zu dem Zeitpunkt, an dem wir ein LDR Bild nacharbeiten wollen. Dort erst fangen die richtigen Probleme an.


    Helle ich ein gammakorrigiertes LDR Bild in einem Bildbearbeitungsprogramm pauschal auf oder dunkle es ab, bekomme ich zwangsläufig Schwierigkeiten in den Lichtern oder Tiefen.
    Ein Schwarz wird bestenfalls Grau aber meist eher zu einem Bildrauschen. Helle Bereiche fransen aus und sind irgendwie nur noch weiß, ohne jede Struktur.
    Hellen wir ein Bild auf, müssten in den Tiefen eigentlich mehr Details erkennbar werden.
    Da dort aber zu wenig Lichtwerte zur Verfügung stehen (um überhaupt mehr Detail zeichnen zu können) funktioniert das nicht.


    Die softwaretechnischen Tricks, die professionelle Bildbearbeitungsprogramme drauf haben, um solche Informationslücken doch irgendwie wieder aufzufüllen,
    helfen vielleicht die gröbsten Bildfehler (Bildrauschen, Artefakte, Tontrennungseffekte u.a.) zu kaschieren, den Felsbrocken aber,
    der in der Realität im tiefen Schatten des Berges lag, können sie auch nicht zurück holen. Dieses Bilddetail wurden durch die Gammakorrektur zerstört,
    der Felsen hat für das gammakorrigierte LDR Bild nie existiert. Wir wissen einfach nicht, was die Kamera dort seinerzeit wirklich "gesehen" hat.



    Im nächsten Post 2 führe ich das mal vor...

    Bei aller HDR-Euphorie:
    1.Die höhere Farbtiefe kann man nicht so ohne weiteres ausgeben. ...

    Ich glaube doch OD. Aktuelle Nvidia Karten können das :) Grundsätzlich arbeiten PB Rendermaschinen ja schon lange mit 32Bit. Das Problem war wohl eher,
    daß passende Ausgabegeräte fehlten und auch PW Programme entsprechende HDR Dateien nicht verarbeiten konnten, was sich ja beides inzwischen geändert hat.


    Btw: auch der HDR Urvater und nach wie vor das verbreitetste HDR Format, Radiance/.hdr, hat nur 8Bit pro Farbkanal.
    Der Trick ist, dass neben den drei Farbkanälen ein weiterer 8Bit Kanal existiert (=32Bit), in dem ein Quotient den tatsächlichen Lichtwerteumfang jedes RGB Kanals potenziert.



    2. Kaum ein Panel (Monitor) kann eine höhere Farbtiefe als ebenfals 8bit je Farbkanal anzeigen. Die ersten 10bit-Geräte sind wohl erst seit kurzem auf den Markt.

    Du meinst das allgemeine 8Bit Ausgabeformat. Aber es geht weniger um die Farbtiefe, die bei HDRI Beleuchtungen von der Engine ja ohnehin wild durcheinandergewürfelt wird,
    denn mehr um den Kontrastumfang/Kontrastverhältnis/Lichtwerteumfang des Renders.


    Die ersten UHD PC Monitore (wie meiner) gibt es bereits für unter 600 €. Und der Unterschied ist wie Tag und Nacht :) Und jetzt bin ich richtig froh, meine bisherigen Render immer im 16Bit PNG Format abgespeichert zu haben. Denn schon diese sehen mit dem neuen Monitor (der Alte hatte den Geist aufgegeben) deutlich besser aus. Und, wie oben schon angemerkt, jeder Farbkanal hat dennoch nur 8Bit.
    Der HDR Trick ist der 4. Kanal. Bei EXR Dateien ist das nochmal anders.


    Aber lass uns das Thema lieber an anderer Stelle auswalzen. Hier gehts ja nur um HDRI Bild Resourcen. Ich mach mal einen HDR Post auf, dann können wir da richtig einsteigen.

    NACHTRAG 10.2017: diesen Post, speziell zum Thema HDR/HDRI, findet Ihr nun hier: HDR

    Verwendete(s) Programm(e):


    DAZ Studio 4.8: Szenerie
    Octane 3.0: Texturen, Licht, Render
    Renderzeiten: 30-60 Minuten
    Postwork: nein
    Modelle: s. Post Ende




    Vor zwei oder drei Jahren hätte ich auf den Vorschlag "...bau doch mal diese Lichtsituationen" vermutlich mit einem mittelschweren Lachanfall reagiert :kaputtlachen:




    Inzwischen - PBR im Allgemeinen und Octane im Besonderen sei Dank - ist mein Arbeitsaufwand hierfür weit geringer als seinerzeit unter 3Dlight,
    wie z.B. für diesen Render aus Teil 2 der Jack Stories.



    Für einen Raytracer sicher nicht schlecht, aber eben nicht zu vergleichen mit den folgenden PB Octane Rendern 8)



    HINWEIS: Die Bilder wirken nur im Vollbildmodus richtig gut, denn es gibt hier keine dominierenden Lichtquellen, wie z.B. voll ausleuchtende Deckenlampen oder ähnliches.
    Die Gesamtausleuchtung kommt also (wie in vergleichbarer realen Situation) nur über etliche schwache Quellen (Schreibtischlampe, Monitore, Displays usw.) im Raum und durch die Sterne bzw. Planeten von außen zustande.
    Die Grenze zwischen genau richtig oder zu dunkel ist beim Rendern somit sehr eng bemessen. Aber wer würde bei so einem Panorama auch das störende Deckenlicht anwerfen ;) Und ja, die Stühle leuchten auch...


    Und wie immer, alle Texturen in Octane überarbeitet oder ersetzt. Alle Lichter komplett in Octane erstellt.


    Hier also Teil 3 und damit die Fortsetzung der Geschichten um Jack und seinen beiden Genesis 200F-X Roboter.
    Die Vorgeschichte findet Ihr hier TEIL II und meine Anfänger Render hier TEIL I. Alle drei Teile zeigen damit auch irgendwie meine Entwicklung im Umgang mit 3D ;(:rolleyes:


    April 2608 / im Orbit des Planeten Zebulon

    Alexander und seine Crew haben sich eine Auszeit auf Zebulon genommen und Jacks Chefin liegt längst schlummernd in der Koje.
    Nach dem mehr als ereignisreichen Tag ist es an Bord der Old Dad sehr still geworden...





    Die Brücke der Old Dad ist verwaist...





    Nur die hochsensiblen Sensoren der Schiffs-KI L-I-S-A halten innen wie außen aufmerksame Wache.
    Und ganz nebenbei führt sie über einen ihrer Parallelcluster eine lautlose Unterhaltung, die für Menschen in einer nicht nachvollziehbaren Geschwindigkeit abläuft.





    Jacks Kumpel Alexander jedenfalls, Besitzer der Old Dad, ließ es sich nicht nehmen, ihm für die Zeit an Bord seine Eignerkabine zur Verfügung zu stellen.




    Es gibt schlechtere Aussichten, denkt sich Jack sinnierend, als er endlich allein ist, wohl wissend, das dieser Luxus nur vorübergehender Natur sein kann.
    Wenn da nur nicht seine aufflackernde Höhenangst wäre...





    Alexander hat übrigens ein recht seltsames Hobby.
    Entsprechend war die einzige Bitte an Jack, er möge sich doch bitte um seine private Farnzüchtung zu kümmern.





    Für JAck, als ehemaliger Systemanalytiker, kein Problem. Nach kurzem Hack in den Zentralrechner der NaturalTree University auf BioForce2
    und einen Phasenupload später, ist Tanja eine promovierte Xeno-Botanikerin und Jack diese Verantwortung los.





    Zwischenzeitlich hat sich Tina - wie nicht anders zu erwarten - längst bei LISA eingeklinkt und führt wer weiß was für abstrakte Gespräche über Phasenraumkrümmungen in Neutronensternen
    oder hat die KI vermutlich schon längst zu einer ihrer geliebten 7D Schach Partie überredet.





    Das Freeman Modul jedenfalls, also die Quantenverschränkung mit ihrer Schwesterpositronik in Tanja, hat Jack vorsichtshalber deaktiviert.
    Denn der letzte Zentralrechner - immerhin die KI eines 800m Schlachtschiffes der Ultra Klasse - welche meinte sie könne es im direkten Stresstest kapazitiv mit den beiden Bots aufnehmen,
    taugte anschließend nur noch als Steuermodul für den Küchenmixer. Ironie des Schicksals - das Schiff hieß Honor of Intel.





    Seit dem weiß auch die kleinste Küchenhilfe in der Spaceforce, Jacks Bots sind nicht Flottenstandard.





    Das war's erst mal für heute. Hoffe die Render gefallen Euch auch. Kritik, wie immer erwünscht, Fortetzung folgt... :)



    Verwendete Modelle:

    Raumschiff Old Dad / old_det (AR Forum)
    SpaceStation Living Quarters / Polish (DS Shop)
    The Nova Cockpit / Stonemason (DS Shop)
    The Tin Can / Stonemason (DS Shop)
    Michael 6 / DS Shop
    2x Genesis 2 Female / DS Shop)
    2x G2 ArmorBot / Parris (DS Shop)




























    Programme: Blender 2.78 / Octane 3.0




    Steinhaufen, oder was auch immer...


    Trotz aller Komplexität und Unübersichtlichkeit, stellt Blender auch einige (meist versteckte) coole Hilfen zur Verfügung.
    Satt mühselig alle Objekte einzeln per Shift D zu duplizieren und jeweils zu verändern, geht das mit der Duplicate Funktion einfacher :thumbup:
    Der Trick an der Sache ist, dass jede Veränderung eines Faces, automatisch das zugehörige duplizierte Objekt (hier Stein) in Lage, Form und Dimenssion verändert.
    Mit dieser Funktion lassen sich aber auch noch ganz andere coole Sachen machen.






    Grober Ablauf:

    Plane erstellen und über SubDiv Smoth sowie Fractal etwas unruhig machen, sowie den "Hügel" rausziehen.




    Auf einer zweiten Ebene einen Würfel ebenfalls SubDiv smooth plus Fractal, bis er dem Stein meiner Wahl entspricht.
    Würfel (Stein) auf die erste Ebene ziehen und beide Objekte (1. Stein / 2. Plane) parenten




    Mit markiertem Steinhaufen die Duplicate Funktion aktivieren, auf Faces stellen und die Steine skalieren.
    (im Bild sind noch die Verts markiert)




    In den Edit Mode wechseln und erneut SubDiv smooth sowie Fractal nach eigenem Ermessen einstellen, bis die Steine das gewünschte Durcheinander annehmen.
    Die an vielen Stellen durchstechende Plane, wird im späteren Render nicht zu sehen sein.




    Dann die Plane des Haufens kopieren und ausblenden, den eigentlichen Haufen über Faces, randome, delete ausdünnen.
    An den Rändern nochmals manuell ausdünnen.




    Plane Kopie wieder einblenden, Boden hinzufügen, Texturen drauf, fertig.

    Wer es genauer wissen will, schaut sich das hier an: Steinhaufen Tut


    Für den Blender Render oben habe ich ohne UV [lexicon]Mapping[/lexicon] einfach Texturen auf Steine, Plane Kopie und Boden gebappt.
    Dann exportiert und und in Octane andere Texturen verwendet, ergibt in diesem Fall einen Haufen Alien Exkremente <X


    Wenn ich mal den Anspruch Deinen schicken Bryce Landschaften zugrunde lege, kannst Du das in DS leider knicken,
    bzw. musst Dich enorm anstrengen oder den Kram kaufen, um auch nur annähernd ähnliche Ergebnisse in DS zu erreichen.
    Ich liebe DS, nutze es aber nur noch als Szene Positionierer. Landschaften kommen über HDRI/Terragen in die Szene,
    Texturen, Licht und Render läuft über Octane.

    ... Der Vorteil der W E R Keys ist dass das die sogenannte Homerow ist. Damit hast du die ganzen Navigationskeys auf einer Reihe nebeneinander.

    Yop, kennt man auch von Spielesteuerungen. Dieser Vorteil ist mir zu Beginn auch nicht aufgegangen. Ansonsten hatte ich BFA schon an anderer Stelle positiv kommentiert.
    Momentan gibt es keinen Grund es nicht zu versuchen. Gerade Anfänger (wie ich), deren Gewohnheiten noch nicht Blender geprägt sind, finden mit BFA vielleicht den leichteren Einstieg in dieses ansonsten geniale 3D Programm.

    Verwendete(s) Programm(e):


    Blender 2.78: Haufen
    DS 4.8: Szene
    Octane 3.0: Texturen / HDRI Environment + Licht




    Heute Morgen auf meiner Garage...




    Ganz ehrlich Leute. Ich bin weder fremdenfeindlich noch Tierquäler. Auch dass die Polypenköppe von Sagritarius A heutzutage schon fast zum alltäglichen Straßenbild, gehören. Super.
    Aber deren besch...BEEP... Köter, gehen mir ja so was von auf den S...BEEP...! X(





    Der Haufen ist mit Blender gebaut. Wie einfach das geht, poste ich noch im Blender Forum. Bodentextur aus DS, Haufentextur von Octane (Rum), HDRI als Background und global lighting.
    Ich bin selbst überrascht, wie realistisch diese simple Szene wirkt und dachte mir, ich zeig sie mal...

    Wow! Typische Axo Idee und dann diese erstklassige Umsetzung. Sehr schick :thumbup:


    ...Photoshop ist wohl doch leichter für mich und wahrscheinlich genauer zu platzieren.


    Noch leichter ist ein echter 3D-Lensflare, wie er eben auch in der realen Fotografie entstehen kann.
    D.h., je nach Rendermaschine, sorgt die Renderkamera für diesen Effekt, wie z.B. in Terragen4 möglich.
    Ob der Reflex hier von der Vue RenderCam kommt, oder Axo das draufgebappt hat, muss er beantworten.
    Das von 3Dfan geschilderte Gebastel in DS wäre mir auch zuviel ;)