Licht

Es gibt 8 Antworten in diesem Thema, welches 8.721 mal aufgerufen wurde. Der letzte Beitrag () ist von Bluepix.

  • Programme:

    Alle 3D Programme mit in-/ externer Rendermaschine



    Im Zusammenhang mit meinem Modo Test poste ich dieses Thema hier,

    weil es allgemein gültig ist und in dem anderen Beitrag den Rahmen sprengen würde.






    3D Licht / Verständnis


    Viele Render mit dem Potential wirklich gut zu sein, scheitern am mangelnden Verständnis für Licht.

    Das geht meist damit los, dass derjenige nicht mal weiß, dass mit Licht in 3D alles steht und fällt. Wirklich alles.

    Hier der Versuch einer kurzen und vereinfachten Erklärung für interessierte 3D Neueinsteiger.


    Diese beiden Aussagen mögen provokant erscheinen, sind aber wahr:


    Was ist Licht? Alles

    Wie viele Lichter gibt es? Eines


    Zunächst aber, decken wir mal eine Lüge auf.

    Der 3D View (Bearbeitungsraum) in unseren Programmen müsste eigentlich so aussehen. Ich meine die schwarze Fläche ;)







    Was wir in unseren 3D Programmen im 3D Fenster täglich sehen ist nämlich eine Mogelpackung X/

    Auch aus Sicht der virtuellen Welt, die ja an sich schon gemogelt ist, weil eben nicht real. Denn im 3D View gibt und kann es auch kein Licht geben.

    Damit wir aber irgendwie arbeiten können, erzeugt das 3D Programm ein Fake Bild im View. Sowas in der Art...







    "Echtes" Licht hingegen schickt erst die Rendermaschine in unsere Szene und macht damit die Objekte im 3D Raum (Render View) "tatsächlich" sichtbar.

    Sie erst zeigt uns die Wahrheit. Schon erkennbar am besseren Aussehen, gegenüber dem Stümper Bild aus dem 3D View.








    Licht / Shader

    Die Renderengine in unserer 3D Welt ist eine Lichtmaschine. Insofern sind Material (Shader/Texturen) und deren Bearbeitung auch korrekter Weise in der Renderengine anzusiedeln. Warum? Kaum einer denkt daran, aber die Welt die wir zu sehen meinen sind nur Lichtstrahlen, welche von den Objekten um uns herum (Emissionen ausgenommen) reflektiert werden, am Ende auf unsere Netzhaut treffen und in unseren Gehirnen zu einem Bild verarbeitet werden. Im 3D Raum genauso wie in der Realität. Versehen wir also die Objektoberflächen im Raum nicht mit Materialien, sieht es im Render View so aus.






    Und das auch nur, weil unser 3D Programm erstmal pauschal auf alles im Raum ein Basismaterial legt. Ansonsten wäre hier nämlich wieder nichts zu sehen.

    Ohne Textur (Material), kann kein Licht reflektiert werden, und wenn kein Licht reflektiert wird, dann ist da auch nichts. Ganz egal wie viele Objekte sich angeblich im Raum befinden. 3D Objekte an sich sind nur Koordinaten. Wir hätte wieder einen schwarzen View vor uns, wie im foögenden Bild. Es ist dieselbe Szene mit allen Objekten und volle Pulle Licht. Aber den Basis Shader habe ich entfernt und damit die Objekt Oberflächeneigenschaften. Ergebnis...






    Manche Rendermaschinen sind so schlau und verweigern dann gleich den Dienst, denn ihr Licht würde in einem unendlichen leeren Raum sinnlos verpuffen.

    "Hier gibt es nichts zu tun?! Na dann kannst Du mich mal!" X(


    Material und Licht also. Fehlt nur eines von beidem, sehen wir nichts, nur schicke Schwärze im View.

    Reflektiertes Licht hingegen ermöglicht es uns zum Beispiel Rost von Gold zu unterscheiden. Verantwortlich für die unterschiedlich "aussehenden" Lichtstrahlen (Reflektionen) sind die Oberflächenbeschaffenheiten der jeweiligen Objekte, oder auf 3D Deutsch: die Shader (Texturen usw.) "Deine Shader sind völlig verstellt" wäre vielleicht eine weniger demoralisierende Alternative zum Klassiker "Du siehst echt Scheiße aus".


    Ohne jetzt auf die verschiedenen Methoden der Lichtberechnung in Rendermaschinen einzugehen (Ihr könnt mit Begriffen wie Radiosity, Monte Carlo, Raytracing oder Pathtracer aber auf jeden Fall immer Eindruck machen) ist es hilfreich zu wissen, die Rendermaschine "sieht" nur Shader (Material). Sie sieht keine 3D Objekte. Die sieht niemand in der 3D Welt. Guckst Du oben. Denn 3D Objekte als solche sind nur Koordinaten und Winkelangaben.


    Wir könnten sogar diskutieren ob es 3D überhaupt gibt. Denn wo und was sehen wir denn? Richtig, ein Bild auf einem Bildschirm, also 2D. Das war es schon immer.

    Selbst ein VR (Virtual Reality) Set auf unserem Kopf ist 2D. Kleine Bildschirme vor unseren Augen. Aber bleiben wir beim Thema...


    PB Rendering / PB Material

    Der grundlegende Unterschied der heutigen, modernen PB (physically based) Rendermaschinen gegenüber den alten Raytracern wie 3Dlight ist,

    dass die Lichtstrahlenberechnung weitestgehend auf unseren realen physikalischen Grundgesetzen beruht. Man spricht hier auch gerne von Lichtsimulationen.

    Das fängt beim Energie Erhaltungssatz an und hört bei Begriffen wie Kaustik und Fresnel noch lange nicht auf. Licht wird nicht mehr wie früher üblich zurechtgebastelt, sondern einfach simuliert. Vorausgesetzt die verwendeten Materialien sind ebenfalls PB. Damit sind dann Sachen wie globale Beleuchtung, korrekte Abschattungen, Lichtbrechungen, Emissionen und andere schöne Dinge möglich, die herkömmliche Rendermaschinen einfach nicht konnten. Man musste tricksen um einen halbwegs ähnlichen Bildeffekt nachzubilden, wie zum Beispiel Glanzpunkte auf Oberflächen malen (Glossiness) und vieles mehr. Das war meist eine Schweine Arbeit. Die notwendigen Einstellunge heute sind dagegen Kinderkram und ermöglichen im Gegenzug, die gewonnene Zeit in Krativität zu stecken.


    Denn endlich gibt es nur noch ein Licht. Ein physikalisch korrektes Licht. Lichtstrahlen sind Lichtstrahlen, die sich lediglich durch ihre Stärke (Frequenz) und Farbe (Wellenlänge) unterscheiden. Aber es ist immer nur Licht. Wie in der Realität auch. PB Rendering gibt uns alles in die Hand um auch die trickreichste (Licht-/Farben-) Situation abzubilden. Die Rendermaschine erzeugt korrektes Licht und verwandelt auf Wunsch jedes Objekt im Raum ebenfalls in eine korrekte Lichtquelle (Emission/Emitter). Was eine unkorrekte Lichtquelle ist? Zum Beispiel ein Punkt Licht, oder auch paralleles Licht. Beide Lichter haben keine Dimension. Pointlights haben die Dimension Null und paralleles Licht die Dimension unendlich. Beides ist physikalisch unmöglich.

    Und da Farben ebenfalls Licht sind (alles ist Licht) ist das Thema Licht, wie CGI Profis und Fotografen schon immer behauptet haben, das einzige, was mich im Zusammenhang mit guten Bild- bzw. Renderergebnissen wirklich zu interessieren hat. Mit ihm steht und fällt alles. Da mögen die Szenengestaltung und die enthaltenen 3D Objekte noch so toll sein.



    So entsteht (sehr stark vereinfacht) in der Rendermaschien das "beleuchtete" Bild, der sogenannte Final Render

    oder das Bild im Echtzeit Render View, während wir noch an unserer Szene arbeiten:


    1. Die Renderengine sendet (Standard Einstellung) Millionen bis Milliarden von weißen Lichtstrahlen in den 3D Raum.

    2. die Lichtstrahlen treffen auf Oberflächen und werden, je nach Materialeigenschaft in veränderter Stärke, Farbe und Laufrichtung weitergeleitet oder geschluckt.

    3. die Lichtstrahlen springen solange wie Ping Pong Bälle durch die Szene - und verändern dabei ständig ihr Aussehen - bis sie irgendwann vollständig absorbiert oder in der Unendlichkeit verschwunden sind. Meist werden diese Berechnungen aber (je nach programmspezifischen Render Algorithmen) lange vorher abgebrochen.

    4. haben wir am Ende das finalisierte Renderbild auf dem Bildschirm, dessen Gegenstück in der realen Welt unserAuge bzw. die Netzhaut wäre.



    ...und für diejenigen, die das Licht Ihrer Rendermaschine noch besser verstehen und anwenden(!) wollen,

    kann ich dann noch einen Beitrag empfehlen. Denn über die eigentliche Qualität des Lichts in einer PB Rendermaschine,

    habe ich hier ja noch gar nicht gesprochen. Eine PB Rendermaschine arbeitet im linearen Raum, sie arbeitet mit linearem Licht und Farben.

    Damit kann sie Licht simulieren welches der Leistungsfähigkeit unserer Augen entspricht,

    Woraus folgt: alles wird hochrealistisch. Wenn ich weiß wie. Das Thema lautet: HDR





    ...und zurück zum Modo Beitrag:

    Genau die oben genannte Lichtverlaufsfolge zeigt auch der Modo Shading Tree, von unten nach oben gelesen:

    Licht => Objekt bzw. Materialzone => Shader => Render Output.


    Rechtschreibfehler sind vom Autor beabsichtigt. Sie dienen der allgemeinen Unterhaltung und fördern die Aufmerksamkeit.

    Wer einen findet darf ihn behalten
    .

    3 Mal editiert, zuletzt von Bluepix ()

  • Dennwo und was sehen wir denn? Richtig, ein Bild auf einem Bildschirm, also 2D

    Nicht unbedingt. Der Mensch hat nun mal 2 Augen und aus dem Augenabstand (in der Technik Basisbreite genannt) und dem sich ergebenden Winkel des angepeilten Objektes in der Realität kann eine Tiefeninformation gewonnen werden, welche uns die Fähigkeit verleiht räumlich zu sehen. Zwei (virtuelle) Kameras vorausgesetzt und ein Monitor, welcher 3D-Fähig ist im Sinne von stereoscopisch, kann uns sehr wohl richtige Tiefeninformationen liefern. Für das Gehirn ist es zunächst mal uninterressant, ob diese Welt tätsächlich existiert oder nur virtuell erzeugt wird- die Wiederspiegelung im Gehirn ist die selbe.

  • Korrekt @old_det , aber wie Du richtig anmerkst, nur bei einem stereoskopischen Bild (z.B. Realität oder 3D Filmtechnik), wovon ich hier ja nicht gesprochen habe.

    Unsere aktuellen klassischen Bildschirme sind 2D, also nix mit Tiefe ;)

    Aber um Deinen Faden weiter zu spinnen, es wird irgendwann holographische Bildprojektoren auch für unsere PCs geben.

    Dann reden wir über "echte" 3D Bilder 8)


    Rechtschreibfehler sind vom Autor beabsichtigt. Sie dienen der allgemeinen Unterhaltung und fördern die Aufmerksamkeit.

    Wer einen findet darf ihn behalten
    .

  • Unsere aktuellen klassischen Bildschirme sind 2D, also nix mit Tiefe ;)

    Mein Zweitmonitor ist 3D-Fähig und etwa 4 Jahre alt und so ziemlich jede 3D-Suite kann eine linke und rechte Kamera erzeugen, somit ein linkes und rechtes Bild rendern und zu einem stereoscopischen zusammenfügen. Also wenn man will kann man 3D rendern und auch betrachten, nicht nur in der klassischen Ffilmtechnik.

    Ich weiß, ist nicht Dein Thema wollt nur das festgenagelte "2D" vom Monitor widerlegen.

  • Prinzipiell hatte ich Dir doch schon zugestimmt. Technisch ist vieles möglich.

    3D Anfänger aber - an die der Beitrag gerichtet ist - nennen solcherlei Gerätschaften mit hoher Wahrscheinlichkeit nicht ihr eigen.

    Zumindest ich nicht. Bin ja schon ganz furchtbar stolz auf meinen UHD Monitor :]


    Rechtschreibfehler sind vom Autor beabsichtigt. Sie dienen der allgemeinen Unterhaltung und fördern die Aufmerksamkeit.

    Wer einen findet darf ihn behalten
    .

    • Offizieller Beitrag

    Sehr interessant!

    Um es auf die Spitze zu treiben, könnte man jetzt noch sagen, dass ja auch das dreidimensionale Bild eines 3D-Monitors aus zwei 2D-Bildern zusammengesetzt wird, daher auch nicht wirklich 3D ist, da man es ja nicht anfassen kann...

    Aber egal.

    Die Diskussion finde ich jedenfalls spannend und für Neu- und Nicht-ganz-so-neu-Einsteiger sehr nützlich :thumbup:


    Und da Farben ebenfalls Licht sind (alles ist Licht) ist das Thema Licht, wie CGI Profis und Fotografen schon immer behauptet haben, daseinzige, was mich im Zusammenhang mit guten Bild- bzw. Renderergebnissenwirklich zu interessieren hat. Mit ihm steht und fällt alles. Da mögen die Szenengestaltung und die enthaltenen 3D Objekte noch so toll sein.

    Hier möchte ich ein klein wenig widersprechen. Natürlich wird alles erst durch Licht sichtbar, aber dein Statement ist nur in der Theorie korrekt. In der Praxis kannst du das bestmögliche Licht-Setup haben, aber wenn die Geometrie und die Texturen in deiner Szene grottenschlecht sind, wird auch das Renderergebnis enttäuschend sein. Und wenn das Problem an der Textur oder am Mesh liegt, kannst du dann am Licht schrauben, bis du steinalt bist, und es wird nicht besser werden.
    Mit der richtigen Beleuchtung kann man allerding eine mittelmäßige Szene großartig aussehen lassen, daher kann und will ich deine Aussage auch nicht als unrichtig bezeichnen, nur eben mit dieser kleinen Anmerkung versehen. ;)

  • Um es auf die Spitze zu treiben, könnte man jetzt noch sagen, dass ja auch das dreidimensionale Bild eines 3D-Monitors aus zwei 2D-Bildern zusammengesetzt wird, daher auch nicht wirklich 3D ist, da man es ja nicht anfassen kann...

    Jedes Bild, esha wird aus 2 2D-Bilder zusammengesetzt - auch Dein reales. Wenn Du nur mit einem Auge schaust, dann hast Du in der Tat ein 2Dimensionales Bild, weil Dir die Tiefeninformation fehlt. Diese wiederum ergibt sich a) aus dem Augenabstand und b) aus der Entfernung des anvisierten Objektes. Leute, die auf einem Auge blind sind können nicht in 3D schauen. Es macht keinen Unterschied, ob Du Dinge anfassen kannst oder nicht. Wenn Du auf einer Bank sitzt und in 20m Entfernung auf ein Haus schaust, dann kannst Du das auch nicht anfassen. 3D- Monitore (in Verbindung mit der entsprechenden Zuspielung) machen auch nichts anderes als jedem Auge das entsprechende "2D" Bild zu zuweisen. Da das gleichzeitig funktionieren muß, werden entsprechende Filter in den 3D-Brillen gesetzt. (oder auch am Display selbst)

  • Hier möchte ich ein klein wenig widersprechen. Natürlich wird alles erst durch Licht sichtbar, aber dein Statement ist nur in der Theorie korrekt. In der Praxis kannst du das bestmögliche Licht-Setup haben, aber wenn die Geometrie und die Texturen in deiner Szene grottenschlecht sind, wird auch das Renderergebnis enttäuschend sein. ...

    Du wiedersprichst mir doch gar nicht esha :) Denn das die Basis stimmen muss, wie z.B. eine ordentlich Mesh Struktur / Erscheinungsbild, setzen CGI Artists oder Fotografen natürlich voraus. Und ich auch. Aus einem Schrotthaufen lässt sich kein Ferrari machen. Da nützt - wie Du richtig anmerkst - der beste Fotograf nichts. Ok, die CGI Jungs könnten das vielleicht trotzdem hinbiegen ;) Insofern also - für die mitlesenden Anfänger als weiterer Tipp - nicht planlos alles kaufen nur weil es gerade günstig erscheint. Fragt hier im Forum nach, welche Autoren gute Qualität liefern. Wer Kleidung braucht, ist bei unserer esha sehr gut aufgehoben. Wer wirklich gute Hauttexturen für seine Püppchen sucht, sollte im DS Shop bei Rayia rein schauen, usw. Ein gutes Bild braucht ein gutes Motiv. Das fängt beim Mesh und UVs an und hört bei Texturen auf. Und mehr als nur eine Materialzone sollten die Teile vielleicht auch haben ;) Aber alles das nützt überhaupt nichts, wenn.... ....siehe oben ;)


    Rechtschreibfehler sind vom Autor beabsichtigt. Sie dienen der allgemeinen Unterhaltung und fördern die Aufmerksamkeit.

    Wer einen findet darf ihn behalten
    .

  • Schöne Ergänzung für diejenigen, welche des Englischen einigermaßen mächtig sind.

    Fachlich kompetenter dargestellt, von einem der es wissen muss: Ray Tracing and other Render Methodes


    Rechtschreibfehler sind vom Autor beabsichtigt. Sie dienen der allgemeinen Unterhaltung und fördern die Aufmerksamkeit.

    Wer einen findet darf ihn behalten
    .

    • Gäste Informationen

    Hallo Gast,

    gefällt dir der Thread, willst du was dazu schreiben, oder möchtest du noch mehr in diesem Forum sehen und kostenlose Downloads?

    Dann melde dich bitte an.
    Hast du noch kein Benutzerkonto, dann bitte registriere dich, nach der Freischaltung kannst du das Forum uneingeschränkt nutzen.

    Hello Guest,

    Do you like the thread, do you want to write something about it, or do you want to see more in this forum and free downloads?

    Then please sign in.
    If you don't have an account yet, please register, after activation you can use the forum without any restrictions.