Image Based Lighting mit HDR-Sets

Es gibt 30 Antworten im Thema. Der letzte Beitrag () ist von lichtfaenger

    Image Based Lighting mit HDR-Sets

    Hallo,

    Ich soll für die Uni eine Arbeit über Image Based Lighting mit HDR Sets schreiben. (Studiere irgendwas mit Medien...)

    Leider hab ich von diesem Thema aber nicht den leisesten Schimmer und bin bisher auch mit meiner Internet Recherche nicht großartig voran gekommen.
    Könnte mir hier vielleicht jemand helfen und mir zumindest die Grundprinzipien erläutern, oder eventuell Quellen nennen anhand derer ich mir das irgendwie drauf schaffen kann?

    Was HDR bedeutet ist mir klar - das kenn ich aus der Photographie, aber schon bei Image Based Lighting wirds schwierig. Im Prinzip ist ja nahezu jedes Licht "Image Based", oder wie ist das gemeint?

    Tut mir wirklich leid, für euch kling ich wahrscheinlich verrückt, aber bisher bin ich mit dieser Thematik bis dato nicht mal im Ansatz in Berührung gekommen... Verstehe auch nicht, wieso mir das Thema überhaupt zugeteilt werden konnte - aber gut, jetzt muss ich da offensichtlich durch...




    Jedenfalls VIELEN VIELEN DANK für Hilfe welcher Art auch immer!!!
    Beste Grüße
    Oskar

    Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von „phyrexo“ ()

    Ich empfehle dazu auch immer das HDRI-Handbuch von Bloch. Der grössere Teil des Buchs ist im Zusammenhang mit Photographie, aber im letzten Drittel werden verschiedene Grafikprogramme und deren Anwendung mit HDRI-Bildern besprochen.
    https://www.amazon.de/HDRI-Handbuch-Dynamic-Imaging-Fotografen-Computergrafiker/dp/3898644308/ref=sr_1_1?ie=UTF8&qid=1483912279&sr=8-1&keywords=Bloch+HDRI
    Hallo Oskar and welcome on Board :)

    Neben der Buchempfehlung von rk66 hier eine Weitere: Das HDRI-Handbuch.
    Ich habe es selber und kann es als HDRI Render Anfänger nur empfehlen. Das Buch beginnt bei Grundlagenwissen (Dynamic Range, Lichtwerte, Kontrastverhältnisse, Gamma Werte etc.)
    und geht im weiteren Verlauf auf die drei großen HDRI Themen ein, welche da lauten: Fotografie, Computergrafik, Programmierung.

    Umfangreiche Informationen im Netz zum Thema IBL/HDRI findest Du hier: HDRI
    HDRI in der Computergrafik ist auch hier bei uns ein Thema: Hier

    Wie ich sehen hat ChristianZ gerade das gleiche Buch empfohlen 8o Doppelt hält besser... ;)

    Rechtschreibfehler sind vom Autor beabsichtigt. Sie dienen der allgemeinen Unterhaltung und fördern die Aufmerksamkeit.

    Wer einen findet darf ihn behalten
    .


    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „Bluepix“ ()

    phyrexo schrieb:

    Also über die Funktionsweise und Einsatzfelder.


    Eine wissenschaftliche Abhandlung kann ich Dir jetzt nicht liefern. Ich mache 3D-Grafik hobbiemäßig. Ich benutze HDRIs um meine Szenen mit IBL Image based Light zu beleuchten und auch um eine natürliche Umgebung zu simulieren. Ich kann aber auch nur beleuchten und die Umgebung selber erstellen. Die Szene wird dabei komplett von einem HDRI umhüllt. Das Licht wirkt sehr natürlich und gute HDRIs sind meist sehr groß, sowohl von der Datenmenge als auch von den Maßen und haben eine sehr hohe Informationdichte auch in den Bereichen wo das Bild sehr dunkel oder sehr hell ist.

    Hier ist ein Link, den ich ganz interessant finde und der etwas weiter ausholt .
    Hier ist ein Link zu IBL.
    Hier noch einige wissenschaftliche Arbeiten zu Image based Rendering.
    Hier auch noch zum Thema Image based lighting.

    Viel Erfolg bei Deiner Arbeit

    LG
    Kushanku
    Der Weg ist das Ziel!
    Basic-basic: Ein HDRI (high dynamic range image) wird genutzt, um die Beleuchtungsverhältnisse, die auf dem Bild vorherrschen, in der Szene wiederzugeben (= IBL: imaged based lighting). Um ein HDRI herzustellen, werden meistens mehrere Bilder ein und derselben Szene in verschiedenen Beleuchtungsvarianten aufgenommen (meistens mindestens 5, oft mehr: stark unterbeleuchtet, halbwegs beleuchtet, normal beleuchtet, etwas überbeleuchtet, stark überbeleuchtet) und zu einem HDRI zusammengefügt.
    Das HDRI umgibt dann die Szene; je heller der Bereich, desto mehr Licht gibt er ab. Manche HDRIs sind "nur" verwaschene Flecken, die diffuse Lichtverhältnisse widergeben sollen, andere wiederum können Bilder von 360°-Panoramen sein, die auch als "Umgebung" der Szene mitbenutzt werden können (als Spiegelungsobjekt o.ä.)
    Für Computer braucht man keine Experten, sondern Schamanen.

    Meine DeviantArt-Seite
    Super,
    ihr seid großartig!!! Danke für euren Support und die nette Aufnahme hier im Forum.

    Bin jedenfalls schon eine ganze Ecke schlauer :)

    Was mir jetzt allerdings noch nichts ganz klar geworden ist, ist die Beziehung des HDRI zum 3D Rendering/Beleuchten.
    Die Erstellung des Photos ist klar, und auch die Prozedur mit der Kugel etc., aber was genau fang ich dann beim Rendern damit an?
    Wieso kann man mit einem Bild "beleuchten"?
    Anscheinend wird das Bild so ausgewertet, dass man den Lichtfall und den Schattenwurf irgendwie übernehmen kann.
    Aber würde man dann digital den Raum des HDRI "nachbauen" oder wie ist das zu verstehen???

    Sorry - entschuldigt bitte nochmals meine dilenttantischen Fragen :D


    Vielen lieben Dank jedenfalls
    Oskar

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „phyrexo“ ()

    *g* Quark - jeder hat die Fragen mal gestellt ^^

    Wie das technisch funktioniert, kann ich dir nicht sagen, dafür kenne ich mich damit nicht genug aus. Aber grundsätzlich kann man Oberflächen einer 3D-Figur in vielen Programmen dazu bringen, Licht zu emittieren (sog. Meshlights), in deren "Licht"-Kanal dann das HDRI-Bild liegt. Mit andern Worten: Man hat eine Kugel, und die Oberfläche dieser Kugel emittiert das Licht. Das HDRI gibt dann mit den Hell-Dunkel-Farb-Flächen an, welche Farbe und wie stark. (Sehr vereinfacht gesprochen.)
    Für Computer braucht man keine Experten, sondern Schamanen.

    Meine DeviantArt-Seite
    Welcome, phyrexo ^^

    Hier ein Kurzeinstieg.

    IBL kommt täglich in der Filmindustrie zum Einsatz, wenn z.B. in einem Werbeclip ein gerendertes 3D Modell durch eine reale Landschafts- oder Innenraumszene fliegt und Du den Eindruck hast, die Gegenstände der tatsächlichen Umgebung spiegelten sich auf der Oberfläche des Modells wieder. Oder wenn im Star Wars Universum die Lichtverhältnisse in einer Szene so homogen wirken, dass das Auge keinen Unterschied zwischen einkopiertem Rendering und Realfilm mehr wahrnehmen kann.

    vg
    space
    Geist ist geil!

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „spacebones“ ()

    phyrexo schrieb:

    Was mir jetzt allerdings noch nichts ganz klar geworden ist, ist die Beziehung des HDRI zum 3D Rendering/Beleuchten.
    Die Erstellung des Photos ist klar, und auch die Prozedur mit der Kugel etc., aber was genau fang ich dann beim Rendern damit an?
    Wieso kann man mit einem Bild "beleuchten"?
    Anscheinend wird das Bild so ausgewertet, dass man den Lichtfall und den Schattenwurf irgendwie übernehmen kann.
    Aber würde man dann digital den Raum des HDRI "nachbauen" oder wie ist das zu verstehen???


    Das macht jedes Programm ein kleines bisschen anders, aber im Prinzip funktioniert es so:
    Um die gesamte Szene herum liegt eine virtuelle Kugel, meistens Environment oder Environment Dome genannt. Auf diesen Dome wird das HDRI als Textur aufgetragen (deshalb sehen die HDRIs auch verzerrt aus, weil sie die Wölbung der Kugel mit einberechnen). Diese Kugel sendet dann Licht in die Szene aus, abhängig von den Farben des HDRI. Wenn du also ein weißes Objekt in deiner Szene hast und das HDRI zeigt eine grüne Wiese und einen blauen Himmel, dann wird das weiße Objekt unten einen grünlichen Schimmer bekommen (vom Gras) und oben einen bläulichen (vom Himmel). Oder wenn das HDRI einen roten Boden und gelbe Wände zeigt, wird das Objekt entsprechend rot und gelb eingefärbt. So wie eben in der Realität die Umgebung das Licht einfärbt, das auf einen Gegenstand fällt.
    Ein gutes HDRI kann die komplette Szenenbeleuchtung übernehmen. Dazu müssen aber die Lichtquellen in der Bilddatei die entsprechenden Helligkeitswerte aufweisen. Dort, wo die Sonne ist, kommt dann das meiste Licht her. Wenn man den Environment Dome dreht, kann man den Lichteinfall verändern.

    Ich hab dir mal ein paar Beispiele gerendert:

    HDRI: hdrmaps.com/freebies/ferry-to-stockholm

    Die Sonne steht tief, und der Environment Dome ist so positioniert, dass die Kamera "in die Sonne" schaut. Der Render sieht dann so aus:



    Wenn ich den Dome um 180° drehe, fallen die Schatten logischerweise in die andere Richtung:




    Und hier noch ein weiteres Beispiel:

    HDRI: hdrmaps.com/small-apartment

    Im Render sieht man, wie die Farben des HDRI die gerenderten Objekte beeinflussen. Der weiße Würfel, der in den ersten beiden Rendern bläulich erschien, sieht jetzt gelblich aus. Außerdem ergeben sich durch die zusätzlichen Lichtquellen im HDRI völlig andere Schattenwürfe.




    Ich hoffe, das hilft dir ein bisschen weiter?
    Bilder
    • Ferry to Stockholm 2.png

      353,7 kB, 500×500, 81 mal angesehen
    • Ferry to Stockholm.png

      310,74 kB, 500×500, 81 mal angesehen
    • Small apartment.png

      280,6 kB, 500×500, 81 mal angesehen

    --- Kein Wind ist günstig für den, der nicht weiß, in welchen Hafen er will. --- (Seneca)
    Hilfreich!

    phyrexo schrieb:

    Wieso kann man mit einem Bild "beleuchten"?

    Hi, @phyrexo
    Du denkst vielleicht viel zu kompliziert.
    Du weißt ja, das man mit einem eingeschaltetem Fernseher einen Raum beleuchten kann?
    Das ist bildbasierte Beleuchtung.
    Wenn Du Dir nun einen Fernseh-Bildschirm vorstellst, der wie eine riesige Kugel geformt ist, und Deine zu rendernde Szene im Innern der Kugel ist, dann wird die Szene "bildbasiert" beleuchtet.
    Jedes mal, wenn man ein anderes Bild auf diesen kugelförmigen Bildschirm darstellt, ändert sich entsprechend die Beleuchtung der Szene.
    "Besser auf neuen Wegen etwas stolpern, als auf alten Pfaden auf der Stelle zu treten!"

    Dieser Beitrag wurde von TGN als hilfreicher Beitrag gekennzeichnet ()

    Wow, bin echt leicht überwältigt von den vielen und hilfreichen Antworten!!! Danke!!!

    Also bedeutet das, dass man sich erst einmal ein passendes Foto für seinen 3D raum sucht, bzw. selbst erstellt, damit diese lichtstimmung samt Weißabgleich u.ä. in der software wieder nutzen kann?
    Angenommen ich möchte einen Raum mit finsterer Stimmung und schummrigen Licht, Kerzenlicht etc. bauen... würde ich beispielsweise ein HDR Photo einer Kirche benutzen wollen.
    Hab ich das jetzt richtig Verstanden?
    Das Photo ansich muss aber nicht auch automatisch als Hintergrund oder so zu sehen sein?

    Es hat also nichts mit einem 3D Ansicht eines realen Ortes - sagen wir der Elbphilharmonie - zu tun, von der man dann HDR Photos erstellt und diese dann auch tatsächlich als Textur für den virtuellen Raum benutzen würde?
    Das HDR gibt die Lichter wieder, die darauf zu sehen sind. Wenn du also ein HDR von einer schummrigen Kirche hast, wird auch das Licht dementsprechend in deiner Szene schummrig sein. Wenn in der Kirche die Mittagssonne durch die Breitseite der Fenster scheint, wirst du wohl eher helles Licht haben.

    Das Bild muss nicht im Hintergrund zu sehen sein. Manchmal ist es von Vorteil, manchmal will man es nur zur Beleuchtung, weil man eine völlig andere Szene hat, das Licht aber passen würde. Beispiel: du hast das HDR eines Parks, deine Szene ist aber eine wilde Bergwiese. Das HDR gibt die richtigen Lichtfarben wieder - oben blaugrau, unten grün -, deswegen setzt du es ein, aber du willst es nicht im Hintergrund haben, weil man eben doch noch sieht, dass es eigentlich Zivilisation ist.

    Man kann auch rein theoretisch eine gerenderte Szene zum HDRI machen, wenn man sie eben in mehreren Beleuchtungsoptionen rendert und zum HDRI zusammenfügt. Wichtig ist dabei natürlich, dass es ein 360°-Panorama ist, sonst sieht das ein weeenig merkwürdig aus, wenn die halbe offene Tür auf die breite Fensterwand mit einem von rechts reinwehenden Vorhang trifft.

    HDRIs sind keine "Texturen" in dem Sinne, dass du sie als "Tapete" auf dein Mesh lädtst. HDRI bezieht sich auf die Lichtinformation. Natürlich kann man von der Elbphilharmonie ein 3D-Modell basteln und mit Fotos des realen Ortes texturieren, aber das hat nichts mit dem HDRI zu tun. Das HDRI wäre die Beleuchtungssituation in der realen Elbphilharmonie, als Licht eingesetzt, oder vom Hamburger Hafen, um die realistische Lichtsituation außerhalb der Elbphilharmonie abzubilden. Aber das hat mit den Texturen auf dem 3D-Mesh des Gebäudes nichts zu tun.
    Für Computer braucht man keine Experten, sondern Schamanen.

    Meine DeviantArt-Seite
    Also bedeutet das, dass man sich erst einmal ein passendes Foto für seinen 3D raum sucht, bzw. selbst erstellt, damit diese lichtstimmung samt Weißabgleich u.ä. in der software wieder nutzen kann


    Korrekt. Je weiter bzw. nuancierter die Bandbreite zwischen hellstem und dunkelstem Wert innerhalb des HDR ist, um so realitätsnäher bzw. nuancenreicher kann die Lichtsituation in der Szene abgebildet werden.
    (Du kannst natürlich auch ohne Image Based Lighting rendern, also mit den Lichteinstellungen der Render-Engine des jeweiligen Programmes, dann bekommst Du aber kaum diese reale Wirkung hin).

    Angenommen ich möchte einen Raum mit finsterer Stimmung und schummrigen Licht, Kerzenlicht etc. bauen... würde ich beispielsweise ein HDR Photo einer Kirche benutzen wollen.
    Hab ich das jetzt richtig Verstanden?


    Richtig. Das (nicht als "Lightprobe" sphärisch gerechnete oder in Kreuzabwicklung aufbereitete) Originalbild, also die ursprüngliche HD Aufnahme lässt sich dabei natürlich auch gleichzeitig als Hintergrundbild nutzen, wenn man denn möchte.
    Ist aber nicht zwingend nötig. Wenn man z.B. auf keine Objektoberfläche schaut, die Details der Szene widerspiegeln würde, reicht ein Bild, welches die gewünschte Atmosphäre wiedergibt.
    Muss also nicht automatisch auch Hintergrund sein.

    Nachtrag: hat sich jetzt mit Lessa`s Beitrag überschnitten...

    vg
    space
    Geist ist geil!
    ok, ich komme der Sache denke ich näher :D

    weiter gedacht anhand des tollen Star Wars Beispiels.

    Sagen wir, Luke Skywalker (eine realer Schauspieler) läuft im im Dschungel durch die Gegend (ein realer Ort) neben im soll jetzt allerdings ein computer generierter C3P0 mitlaufen (ich weiß, eigentlich ist das ein Mensch in einem Kostüm, aber eben nur mal als Beispiel), bräuchte man von dieser Umgebung im besten Fall auch an jedem durchlaufenen Punkt ein HDRI, um C3PO auch die authentischen Lichtwerte, Schatten und Reflexionen zu verleihen, korrekt?

    Wie würde das in der Praxis funktionieren? Fährt eine Kamera dann den Weg ab, um die HDRIs zu erstellen und dann nacheinander zusammen zu basteln, oder würde das dann alles virtuell passieren?

    Vielen Dank :)
    HI,

    leider hat Luke nun keine Schwester mehr.


    Wenn du dir nun bspw. mal eine freies 3D Programm herunterlädst und damit etwas experimentierst?

    In der Praxis lassen sich ja bekanntermaßen viele Dinge besser verstehen.

    Etwa Blender: www.blender.org

    Oder einen Fork davon: HIER

    Ein dt. Handbuch: http://blender-handbuch.de/handbuch.html


    rk66.
    An dieser Stelle sei erwähnt, dass sich das Meiste des bisher in diesem Thread Erwähnten hauptsächlich auf Still Images, also einzelne Bilder bezieht.
    Eine Animation, in welcher per Camera Tracking echte Darsteller in einer virtuellen oder aber virtuelle Darsteller in einer Real-Filmszene herum springen, ist fast schon die Königsdisziplin der VFX (videoeffects).
    Dafür gibt es eine Vielzahl technischer Möglichkeiten bzw. Anforderungen, die sich oft nicht einfach per IBL lösen lassen, daher gibt es hier keine festen Spielregeln.
    Das Thema ist ein Studium für sich. Kannst ja mal spasseshalber die Suchmaschine nach folgenden Begriffen fragen: Match Moving, Camera Tracking, Motion Capture


    Kleine Camera Tracking Demo.

    Ich würde daher empfehlen, für deine Arbeit Beispiele von Einzelmotiven zu verwenden. Lässt sich einfach schneller und leichter illustrieren. ;)

    vg
    space
    Geist ist geil!
    Ok cool,
    bin schon recht weit gekommen - selbst ausprobieren schaff ich mit meinem mickrigen laptop leider nicht :-/ Außerdem geht es wohl mehr einen Überblick über die Technik zu verschaffen und nicht jeden einzelnen Mausklick nachzuvollziehen (zu meinem Glück :-D)

    Ich fasse nochmal zusammen:
    Man erstellt ein HDRI mit z.B. einer Spiegelkugel von dem Raum den man nutzen möchte.
    Also 2 Belichtungsreihen, 90-Grad versetzt, um voll 360-Grad zu bekommen und zu retuschieren.
    Stellt die Kugel frei und erstellt mit Photoshop o.ä. eine 3D-Datei
    nun lädt man das HDRI in das 3D Programm und legt es als Kugel um die Szene.
    Damit die Objekte aber auch so reagieren wie man das möchte, muss man dann die Materialeigenschaften festlegen.
    Dann noch entscheiden ob man das eigentlich HDRI sehen möchte oder lediglich als Beleuchtung nehmen möchte.

    Natürlich sehr kurz und knapp gehalten, aber wäre das das Prinzip oder fehlt noch ein entscheidener Punkt?



    Außerdem: Wofür wird denn IBL überall benutzt, also was sind denn alles die Einsatzfelder? (Hier geht es mir nicht um die KONKRETE Funktionsweise sondern nur was theoretisch machbar ist :) )
    Bisher hab ich immer nur das Beispiel mit den digitalen Objekten und der realen Beleuchtung gesehen - also quasi ein gerendertes Haus eines Architekten, mit natürlichem Licht von einem realen Ort, eben wo dieses Haus später mal stehen soll.
    Habe jedoch auch mal gelesen, dass zum Beispiel Produktfotos mit IBL beleuchtet werden. Aber dann hätte man ja ein reales Objekt das beleuchtet werden müsste??? Dann müsste man ja dessen Oberflächenbeschaffenheit und Material irgendwie in das Program "importieren" können???


    Danke euch und beste Grüße
    Oskar
    Fast richtig. Eine HDRI Datei kann man in einem Grafikprogramm (2D Programm) erstellen (z. B. Photoshop)
    Die Kugel ist ein 3D Objekt (Mesh) in einem 3D Programm (z. B. Blender) Im 3D Programm wird dann die HDRI als Material um die Kugel gewickelt (vereinfacht ausgedrückt).

    IBL's sind JPG Dateien:

    https://www.reallusion.com/de/iclone/help/iclone4/PRO/10_Scene/Atmosphere/Utilizing_IBL_Effect.htm

    Edit: Hier kannst Du Dir eine HDRI Datei ansehen, falls Du über ein 2D Programm verfügst:

    valzheimer.info/2016/11/va2016…-soft-lights-for-daz.html

    Auf den Vorschaubildern ist die Kugel (im 3D Programm) nicht unsichbar geschalten, die HDRI Datei wird als als Hintergrund UND als Licht genutzt und man sieht deutllich die Farbunterschiede.

    ~ *Man sieht nur mit dem Herzen gut. Das Wesentliche ist für die Augen unsichtbar.*~

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „Leilana“ ()

    Korrekt. Kleine Anmerkung:

    mit z.B. einer Spiegelkugel von dem Raum den man nutzen möchte


    Die Verfahrensweise mit einer echten verspiegelten Metallkugel, auf welche Du bei deinen Recherchen wahrscheinlich gestoßen bist, ist eher eine "low budget"-Lösung, bzw. ein gangbarer Weg, wenn man einen Haufen Vorarbeit einsparen möchte. Zudem hat man das (nutzbare) Panorama immer nur zu 180 Grad, denn die photographierte Kugel stellt ja nur die Frontansicht zur Verfügung.
    Eine "echte" Light Probe wird aus einer Sequenz von HDR Fotos zu einem einzigen Motiv "zusammengenäht" (stitching), welches dann sphärisch (oder in einem der sonst üblichen Projektions-Modi) projiziert wird. Hierzu dienen Programme wie z.B. HDR Shop etc.

    vg
    space
    Geist ist geil!
    Im Idealfall besteht die Belichtungsreihe für ein HDRI aus mehr als 2 Bildern. Je mehr Bildinformation vorhanden ist, desto besser. HDRIs können unter Umständen auch digital erzeugt werden, z.B. indem man in einem Landschaftsgenerator eine 360°-Ansicht rendert.

    Übrigens, mit Photoshop erstellst du keine 3D-Datei, nur das HDRI ("I" steht für Image, ist also nichts weiter als ein 2D-Bild).
    Und für richtige HDRI-Beleuchtung im 3D-Programm taugt jpg als Dateiformat nicht, weil da eben zu viel Information verlorengeht. Es können .tif-Dateien sein oder auch die speziellen HDRI-Formate .hdr oder .exr

    Die Kugel, auf die das HDRI aufgetragen wird (quasi wie eine Tapete *g*), muss nicht immer als sichtbares bzw. bearbeitbares Objekt vorliegen, das extra erstellt werden muss. In manchen Programmen ist diese Kugel nur virtuell vorhanden. Man lädt irgendwo, z.B. in den Rendereinstellungen oder in einem Lichteditor, das HDRI und das Programm berechnet das Licht dann so, als wäre die Kugel da, obwohl man sie in der Szene nicht sehen kann. In diesen Fällen sieht man den Hintergrund erst beim Rendern (= finales Berechnen des Bildes) und nicht in der Drahtgitteransicht der Szene.

    Was die Anwendung für Produktwerbung angeht: Manchmal wird das Produkt lieber gerendert als fotografiert. Angeblich sind viele Autowerbungen digitale Render und keine Fotografien. Wie man ein reales Objekt mit HDRI beleuchten sollte, wüsste ich jetzt nicht. Außer du klebst das Bild als Gel auf die Scheinwerfer, die das Objekt beleuchten. Aber von so einer Methode hab ich noch nie etwas gehört (was natürlich nicht heißt, dass es sie nicht gibt ;) ).

    --- Kein Wind ist günstig für den, der nicht weiß, in welchen Hafen er will. --- (Seneca)
    Außer du klebst das Bild als Gel auf die Scheinwerfer, die das Objekt beleuchten


    8o :nachdenklich: ...verwegener Workaround... :P müsste man mal glatt probieren. :D

    Das geht auch nur umgekehrt - also ein reales Background-Bild vom Set als HDR, um z.B. damit ein Auto-Modell zu beleuchten, welches sich dann im finalen Film in einer realen Strassenszene bewegt.

    vg
    space
    Geist ist geil!
    Also, so neu ist die Idee nicht.
    Da braucht man auch keine Bilder auf 'nen Scheinwerfer zu kleben.
    Ein (Dia-)Projektor tut's besser.
    Hab' ich selbst schon bei einem Foto-Projekt gemacht.
    "Besser auf neuen Wegen etwas stolpern, als auf alten Pfaden auf der Stelle zu treten!"