3D very basics

Es gibt 38 Antworten in diesem Thema. Der letzte Beitrag () ist von vidi.

  • Ok, noch'n Thread, da in Am Anfang war der Würfel offtopic und maXem's Kumulative Blender Verständnis-Fragen ein höheres Niveau betreffen.


    Hier möchte ich Fragen zu 3D stellen, welche die unterste Basis in 3D betreffen.


    Z.B. was genau sind [lexicon]Polygone[/lexicon], Normale u.ä. Basis Fragen.


    Vidi hatte hier schon mal einen guten Link gesetzt: https://www.youtube.com/playlist?list=PL6A7DF3D7866EB076


    Es gibt also 3 Typen von Faces. Mit 3-, 4-, oder n-Kanten/Edges.




    Verständnis-Fragen:


    Ich habe verstanden, dass diese wiedrum intern mit Triangles oder Quads unterteilt werden, aber i.d.R. im View/[lexicon]Mesh[/lexicon] (auch Wire Frame?) nicht sichtbar sind und das Programm diese völlig eigenmächtig generiert.
    Frage: die allerunterste Basis eines Faces sind also die internen Triangles oder Quads. Werden beide Arten verwendet oder ist das Programm- bzw. Einstelluns-abhängig?


    Leider spricht der Autor des Videos etwas schnell und teils undeutlich (bzw. mein Englisch reicht nicht!)
    Bei der Erklärung wie 3D Programme Shader für ein Face erstellen, spricht (u. zeigt) er von einem Normal. Ich kenne vom Namen her eine Normal-Map, weiß aber bisher nicht, was diese eigentlich genau ist und
    warum ich in den Surfaces z.B. bei DAZ u.a. auch Normal Maps angeboten bekomme. Bezogen auf das Face (im Video) also, was ist dieses Normal? Nur die Berechnungsgrundlage für eine Textur? Ich dachte das wäre die UV-Map? :huh: Ich kenne inwischen allemöglichen Arten von Maps und weiß sie auch einzusetzen. Nur dieses Normal(map) sagt mir nichts.


    Weitere Erklärungen zur n-gone Problematik habe ich hier gefunden: c4d Tutorials ...n-gones

  • Zitat

    Ich habe verstanden, dass diese wiedrum intern mit Triangles oder Quads unterteilt werden, aber i.d.R. im View/[lexicon]Mesh[/lexicon] (auch Wire Frame?) nicht sichtbar sind und das Programm diese völlig eigenmächtig generiert.


    ??? Kein Programm, das ich kenne, generiert eigenmächtig Polys, die es noch dazu nicht anzeigt. Das sagt der Videoautor auch nicht. An welcher Stelle meinst du das zu hören?
    Polys werden nur dann intern unterteilt, wenn du Subdivision anwendest, dann wird jede Kante in der Mitte halbiert, was eine höhere Auflösung und ein weicheres Aussehen erzeugt. Das sieht man aber normalerweise auch in der Wireframe-Ansicht.
    Manche Renderer, so wie Posers Firefly-Engine, beherrschein Micropolygon-Displacement, wo die Polys ebenfalls während des Renderns virtuell unterteilt werden, so dass auf ein großes Poly beliebig feine Details aufmodelliert werden können.
    Mir fallen keine anderen Fälle ein, wo Polys vom Programm unterteilt werden :nachdenklich:


    Die Normale ist in diesem Fall ein Vektor, der in rechtem Winkel zum [lexicon]Polygon[/lexicon] steht. Dieser Vektor geht von der Oberfläche nach außen. Dadurch kann das Programm "erkennen", wie die Polys im Raum liegen (also z.B. was vorne und hinten ist) und wie sie mit den Lichtquellen in der Szene, die ja auch in eine bestimmte Richtung leuchten, interagieren müssen. Wenn ein Poly frontal zur Lichtquelle steht, ist es heller beleuchtet als eines, das schräg zum Licht steht.


    Normal Maps ändern die Ausrichtung der Normalen, also die Schräglage der Polys, und verändern somit den Winkel, in dem das Licht auftrifft. Dadurch entsteht der optische Effekt eines Reliefs, obwohl sich die Geometrie nicht verändert. Ist im Prinzip sowas ähnliches wie eine Bumpmap, nur höher entwickelt.


    Die UVMap ist wieder ganz was anderes, dazu tippe ich dann später was, muss jetzt gleich weg *g*


    Und ob Quads oder Tris bevorzugt werden, kommt aufs Programm an.

  • Zitat

    Es gibt also 3 Typen von Faces. Mit 3-, 4-, oder n-Kanten/Edges.


    es gibt "3" Typen von Polygonen , alle haben ein Face

    Zitat

    Ich habe verstanden, dass diese wiedrum intern mit Triangles oder Quads unterteilt werden


    Was ist ein [lexicon]Polygon[/lexicon]
    ein [lexicon]Polygon[/lexicon] besteht aus vertex (points), edge und einer Deckfläche dem face. Das kleinste [lexicon]Polygon[/lexicon] ist ein Tris. Geometrie > drei Punkte (vertex) sind verbunden mit 3 Linien (edges) und haben eine Deck Fläche (Face). Der Oberbegriff für das Ganze ist nun [lexicon]Polygon[/lexicon]. Eine Wire oder Mesch ist dann eine Aneinanderreihung von Polygonen.
    Die Anzahl der Punkte und Ecken bestimmt also die Art des Polygons. So sind vier points und edge dann ein Quad und alles darüber hinaus ein Ngon (wobei ngon da dann der Oberbegegriff ist )
    da einige Gamenegines grundsätzlich trangulieren, also alle [lexicon]Polygone[/lexicon] in tris zerlegen werden Quads logischerweise in 2 Tris zerlegt und ngons nach Programmlaune. Daher vermeidet man ngons, weil man da keine Kontrolle darüber hat und es zu unschönen Artefakten kommen kann. Am besten sind Quads weil man mit den schöne edgeloops erstellen kann. Das ist auch wichtig wie der lauf der Edges in einem Poygonnetzt sind . zb für animieren und Morphen also [lexicon]Mesh[/lexicon] deformieren im Allgemeinen.

  • Danke Mädels :thumbup: Das hat gefruchtet 8o:D



    Mir fallen keine anderen Fälle ein, wo Polys vom Programm unterteilt werden :nachdenklich:


    Sorry, mein Fehler, es ist der 2. Video in der Serie, und ich meine diese Stelle:


    46729-01-View-Darstellung-01-JPG46727-02-Hidden-Triangles-JPG




    Aber ich denke, dass ist das was Vidi erklärt. Also auch erledigt. Im zweiten Video kommt dann auch die Nummer mit SubDiv.
    Ein Thema das Ehliasys gerade bei meinem "Freiheit!" Render (eckige Blätter??) anspricht und ich nun ebenfalls kapiert habe. Schön das Octane das auch kann :D


    Die Normale ist in diesem Fall ein Vektor, der in rechtem Winkel zum [lexicon]Polygon[/lexicon] steht. Dieser Vektor geht von der Oberfläche nach außen. Dadurch kann das Programm "erkennen", wie die Polys im Raum liegen (also z.B. was vorne und hinten ist) und wie sie mit den Lichtquellen in der Szene, die ja auch in eine bestimmte Richtung leuchten, interagieren müssen. ... Normal Maps ändern die Ausrichtung der Normalen, also die Schräglage der Polys, und verändern somit den Winkel, in dem das Licht auftrifft. Dadurch entsteht der optische Effekt eines Reliefs, obwohl sich die Geometrie nicht verändert. Ist im Prinzip sowas ähnliches wie eine Bumpmap, nur höher entwickelt. Die UVMap ist wieder ganz was anderes, dazu tippe ich dann später was, muss jetzt gleich weg *g*

    Yop, nach Deiner tollen Erklärung von Normale und Normal-Map weiß ich das jetzt auch. Danke Esha :)


    ... da einige Gamenegines grundsätzlich trangulieren, also alle [lexicon]Polygone[/lexicon] in tris zerlegen werden Quads logischerweise in 2 Tris zerlegt und ngons nach Programmlaune. Daher vermeidet man ngons, weil man da keine Kontrolle darüber hat und es zu unschönen Artefakten kommen kann. Am besten sind Quads weil man mit den schöne edgeloops erstellen kann. Das ist auch wichtig wie der lauf der Edges in einem Poygonnetzt sind . zb für animieren und Morphen also [lexicon]Mesh[/lexicon] deformieren im Allgemeinen.

    Supi Vidi, damit ist wohl die Stelle im Video 2 erklärt :) Hoff ich... :rolleyes:

  • Beim Bearbeiten von Polygonen/Faces gibt es Orientierungseinstellungen, die sich u.a. an der Normalen ausrichten lassen. Wird immer klarer, die Suppe ;)

  • Achso ja. Ein n-gon wird manchmal willkürlich unterteilt, das stimmt. Deshalb, wie Vidi gesagt hat, vermeidet man die am besten.


    Um auf die UVMap zurückzukommen:
    Das hat nicht direkt etwas mit der Form des Objektes zu tun. Die UVMap verknüpft die einzelnen Punkte des Objektes mit Koordinaten auf einem 2D-Bild. Dadurch können Bildtexturen korrekt auf das Objekt aufgetragen werden.
    Gedanklich kann man sich das so vorstellen, als würdest du eine Orange schälen und die Schale flach auf einem Papier ausbreiten. Dazu musst du die Schale an gewissen Stellen einschneiden, damit sie auch schön flach liegt. Damit hast du die 3D-Form der Orange in ein 2D-Koordinatensystem übertragen.
    Bei 3D-Objekten ist das ganz genau so. Man zieht ihnen gewissermaßen die Haut ab und legt sie flach auf, wobei man an manchen Stellen zusätzliche Schnitte setzen muss, damit das mit dem Flachbügeln auch funktioniert. Das entstehende 2D-Gitternetz kann man als Bilddatei ausgeben, das dient dann als Orientierungshilfe, damit man die Bildtexturen an die richtige Stelle malt.

  • Achso ja. Ein n-gon wird manchmal willkürlich unterteilt, das stimmt. Deshalb, wie Vidi gesagt hat, vermeidet man die am besten.

    Ich glaube das ist damit nicht gemeint, Esha :nachdenklich: Dieses automatische Auffüllen von Löchern (Blender/Edit/fill) erfolgt zwar willkürlich, aber mit normal sichtbaren Polygonen/Faces. Hier geht es um die Programm interne nochmalige (unsichtbare) Unterteilung selbiger, wie im Video gezeigt und von Vidi bzgl. Gameengines und maXem bzgl. Renderengines angesprochen.


    Hab spaßeshalber mal in Blender ein [lexicon]Polygon[/lexicon] mit 5 Vertices und 5 Edges selbst gebaut (003) und dann von Blender füllen lassen. Ergebnis: ein einzelnes Poly- bzw. Pentagon Face mit besagten 5 Vertices und 5 Edges (004) Und nur diese kann ich im Blender Editor klassisch manipulieren. Ich hab noch nicht raus, wie ich in Blender diese "Hidden Lines" anzeigen lassen kann (falls vorhanden) Deshalb testweise das [lexicon]Polygon[/lexicon] (Obj) nach DAZ exportiert und siehe da, unter "Wire shaded" Ansicht, tauchen undeutlich aber erkennbar 3 Trigone auf (005), was dann 7 Edges machen würde, statt der 5 im (übergeordneten?) Poly- bzw. Pentagon. Über Octane im Render Mode "Info Channel" noch deutlicher zu sehen. Ebenso übrigens beim ganz normalen DAZ Primitive Cylinder, dessen äußere Faces ja definitiv keine n-gone sind. Der wiederum zeigt mir in der DAZ Wire shaded Ansicht jedoch nicht seine Trigone.


    Wie auch immer, diese hidden lines im Video haben mich irritiert, ich weiß jetzt dass es sie gibt und kann sie nun vergessen, da weder in DAZ, noch Octane oder Blender manipulierbar :|


    Danke für Deine UV Erklärung, aber das weiß ich doch 8) Mir ging's um die Normale und die Normal Map. Die Erklärung derer hat mich weiter gebracht. Danke :)

  • Ich hab noch nicht raus, wie ich in Blender diese "Hidden Lines" anzeigen lassen kann (falls vorhanden) ...


    Da ist in Blender selbst ja eigentlich noch nix trianguliert, weswegen auch erstmal soo nix angezeigt werden kann. ;) Das passiert erst, wenn du das Objekt in ein Programm importierst, das mit n-Gons nicht (oder nicht so gut) kann. D|S ist so ein Kandidat (obwohl die Triangulierung hier auch nur 'programmintern' und 'temporär' abzulaufen scheint - exportierst du das Objekt gleich wieder aus D|S, sind die n-Gons noch - oder wieder - da) aber auch mein betagtes [lexicon]C4D[/lexicon] CE+6 macht aus n-Gons Triangle (allerdings gleich 'richtig'). Deswegen lässt sich im Prinzip auch nicht 'kontrollieren', wie im Zweifelsfall ver-triangelt wird. Und deshalb ist es ja auch so wichtig, darauf zu achten, dass man möglichst gleich von vorne herein sauber modelliert.


    Wir hatten hier vor 'ner Weile mal so ein Ding, wo die Objekte dann zudem auch nicht UV-ge-mappt waren: wie kann ich diese Ruinen laden?


    btw.: Die Tri-Unterteilung in Renderengines ist am Ende nicht so wild, weil sich das hier nicht unbedingt auf die Glättung des Meshs an sich auswirkt. Dort werden i.d.R. lediglich die Quads einmal in der Mitte unterteilt, aber beide bleiben gewöhnlich planar.)

  • Sorry, Antwort vergessen :rolleyes: Danke für die weiterführende Erklärung, maXem :) 
    ...und ich frag jetzt auch nicht was denn wohl falsche und richtige Triangels sind ;):D

  • ...und ich frag jetzt auch nicht was denn wohl falsche und richtige Triangels sind ;):D


     :D 
    'Falsche' Triangle sind n-Gone, die denken (oder wünschten? ;) ), sie wären Triangle und dadurch - weil völlig unkontrollierbar, sprich: nicht-editierbar - für wüste Shading-Artefakte während des Renderings sorgen (und somit wiederum an den Nerven des D|S-Nutzers zerren :S ). Wird das Objekt hingegen gleich 'richtig' ver-trianguliert, geschieht das zwar genauso 'willkürlich' seitens des Programms, aber zumindest lassen sich dann ein paar Sachen 'flicken' (Tris zu Quads verschmelzen und dergleichen). In D|S kann man da eigentlich nur durch den generellen Glättungswinkel in den Material-Settings Einfluss nehmen.

  • ...'Falsche' Triangle sind n-Gone, die denken (oder wünschten? ;) ), sie wären Triangle und dadurch - weil völlig unkontrollierbar, sprich: nicht-editierbar - für wüste Shading-Artefakte während des Renderings sorgen ....

    Danke maXeme :)


    Nächtes Grundsatzthema


    Da ich mich mit dem Thema [lexicon]Mesh[/lexicon]/Material/Texturen in Blender, Octane und (immer weniger) in DAZ beschäftige, hier eine grundsätzliche Frage dazu.
    Gibt es eine allgemeingültige Reihenfolge, wenn ich die Pipeline eines Objektes betrachte oder ist die programmbedingt u.U. unterschiedlich? Bisher dachte ich immer, die Reihenfolge sei:

    [lexicon]Mesh[/lexicon] => Material(zuweisung) => (ggf.)UV-Map => Textur => fertiges Objekt.
     
    Und ein Template, wie es bei guten Props mitgeliefert wird ist ein unwrapped [lexicon]Mesh[/lexicon], könnte also als UV-Map genutzt werden?


    Node Editoren wie in Blender oder Octane sind für das Verständnis ja recht hilfreich (Bilder).
    Aber meine (DAZ-geprägte) Vorstellung, Bump, Displacement, Specular wären grundsätzlich Texture-, respective Greyscale-Maps, hängen also hinter dem Material, ist wohl nicht ganz richtig.


    Ich bitte um Aufklärung ;)

  • Zur Reihenfolge:
    Zuerst muss die Geometrie da sein, das ist klar.
    Dann würde ich sagen, die UVMap ist wichtiger als die Zuweisung der Materialzonen. Sobald UVs da sind, kannst du Texturmaps zuweisen, auch wenn das ganze Objekt nur eine Surface namens Default hat. Manche Programme brauchen auch für prozedurale Texturen UVs.
    Die Textur erstellt man natürlich am besten, wenn die UVs fertig sind.
    Und sämtliche Elemente eines Materials können auf Bildtexturen bestehen oder aus prozedural generierten Mustern oder aus einer Kombination aus beidem. Wobei DS bei den prozeduralen Texturen nicht so stark ist, insbesondere für Iray gibt es da so gut wie nichts.

  • Zur Reihenfolge: Zuerst muss die Geometrie da sein, das ist klar. ...

    Ok, also das [lexicon]Mesh[/lexicon] ist definitiv der Anfang. Ohne dem geht nix. Habe ich das Template (z.B. als zusätzliche Datei bei DS Props) richtig verstanden, als abgewickeltes [lexicon]Mesh[/lexicon]? Zu verwenden um eigene Textur Maps zu erstellen oder UV-Maps?


    ...Dann würde ich sagen, die UVMap ist wichtiger als die Zuweisung der Materialzonen. ...

    Aber doch nur wenn ich Texture Maps verwenden will. Solls nur Farbe sein, reicht doch die Materialzuweisung, die ja bekanntlich einfacher ist als eine UV-Map zu erstellen. Oder? Und was, wenn ich bspw. an einem Objekt beides verwenden will. Etwa Face 1+2 als Baumrinden-Textur (also vorher UV Map) und Face 3+4 nur als Farbe (Materialzuweisung). Oder denke ich als Newbie jetzt wieder zu krumm? :rolleyes: Unter Material(zuweisung) verstehe ich grundsätzlich (also egal ob ich nur Farbe oder eine Textur verwenden will), eine gezielte Aufteilung des Objektes. Ich kann also 2 verschiedene Objektzonen auch mir zwei verschiedenen Farben und/oder Texturen ausstatten, was bei default (eine Materialzone) nicht möglich wäre. Oder nur, s.u. ...



    Sobald UVs da sind, kannst du Texturmaps zuweisen, auch wenn das ganze Objekt nur eine Surface namens Default hat.

    ...was DS z.B. bei den selbsterzeugten Primitives macht, richtig? Und hier könnte ich dann nur über zwei speziellen Texture-Maps (mit entgegengesetzten Transparentzonen) zwei unterschiedliche "Materialzonen" erzeugen, welche dann keine echten Objekt-Materialzonen sind.


    Manche Programme brauchen auch für prozedurale Texturen UVs.


    Den Begriff habe ich hier schon des öffteren gehört. Sagst Du mir bitte, was prozedurale Texturen sind. Den Begriff "Texturen aus dem Nichts" finde ich interessant. Heißt das, hier wird direkt die Geometrie verändert, ähnlich der Wirkung einer Displacemant Map, nur eben ohne Map? Kushanku hatte einen Tutorial Link "Blender Bump painting" gesetzt. Scheint eine coole Sache zu sein.


    Wobei DS bei den prozeduralen Texturen nicht so stark ist, insbesondere für Iray gibt es da so gut wie nichts.

    Korrekt. Blender kann das und Octane auch. Offen gestanden ist die DS Strategie mit "kostenlosen" iRay wieder mal sehr clever. Wer genauer hinschaut, erkennt das iRay mitnichten kostenlos ist. Octane kostet Geld, ja, bringt aber eine nahezu komplette Shader-Datenbank mit, die ich bei iRay (zumindest für den bestehenden Content) kaufen muss, weil iRay die alten 3DLight Shader nicht umsetzt. Octane tut das. Zzgl. der weit besseren Texturen aus der OC Datenbank. Ich brauche nichts kaufen. Außer eben Octane ^^ Sorry, I'm offtopic :rolleyes:


    Und sorry wegen der vielen Fragen, aber Du scheinst im Moment die Einzige zu sein, die hier die Stellung hält. Herzlichen Dank dafür :):respekt



    .

  • Gerne doch. Irgendwann werd ich eine Art Q&A auf meiner Homepage machen und die Infos von hier dort integrieren :D


    Zitat

    Habe ich das Template (z.B. als zusätzliche Datei bei DS Props) richtig verstanden, als abgewickeltes [lexicon]Mesh[/lexicon]? Zu verwenden um eigene Textur Maps zu erstellen oder UV-Maps?


    Ja, das Template ist ein abgewickeltes [lexicon]Mesh[/lexicon], es ist die bildliche Darstellung der UV-Map. Man nimmt es als Anhaltspunkt für die Texturen. Wenn du für ein Objekt eine neue UVMap erstellst, sieht das neue Template dann ganz anders aus.


    Zitat

    Aber doch nur wenn ich Texture Maps verwenden will. Solls nur Farbe sein, reicht doch die Materialzuweisung, die ja bekanntlich einfacher ist als eine UV-Map zu erstellen. Oder? Und was, wenn ich bspw. an einem Objekt beides verwenden will. Etwa Face 1+2 als Baumrinden-Textur (also vorher UV Map) und Face 3+4 nur als Farbe (Materialzuweisung). Oder denke ich als Newbie jetzt wieder zu krumm?
    Unter Material(zuweisung) verstehe ich grundsätzlich (also egal ob ich nur Farbe oder eine Textur verwenden will), eine gezielte Aufteilung des Objektes. Ich kann also 2 verschiedene Objektzonen auch mir zwei verschiedenen Farben und/oder Texturen ausstatten, was bei default (eine Materialzone) nicht möglich wäre.


    Wie gesagt, bei DS brauchst du auch für einen prozeduralen Shader eine UVmap. Wenn es wirklich nur Farbe sein soll, dann brauchst du keine UVs. Aber das Fehlen von UVs schränkt die Verwendbarkeit eines Objektes ziemlich ein. Ohne UVs kannst du nicht einmal eine Transparenzmap auftragen, kein Bump, nichts.
    Und ja, die Materialzuweisung teilt das Objekt auf, so dass du verschiedene Farben zuweisen kannst. Aber wenn ein Objekt nur eine Surface hat, aber dafür UVs hat, kann ich mit den Maps trotzdem beliebig viele verschiedene Materialien darauf darstellen. Wenn es zwar mehrere Surfaces hat, aber keine UVs, kann ich lediglich sehr einfache Materialien verwenden und bin an die Vorgabe der definierten Surfaces gebunden. Daher finde ich persönlich die UVs noch wichtiger als die Materialzuweisung, weil man mit einem gemappten Objekt einfach mehr machen kann. Aber natürlich ist es optimal, wenn ein Objekt beides hat: UVmaps und gut eingeteilte Materialzonen.


    Zitat

    ..was DS z.B. bei den selbsterzeugten Primitives macht, richtig? Und hier könnte ich dann nur über zwei speziellen Texture-Maps (mit entgegengesetzten Transparentzonen) zwei unterschiedliche "Materialzonen" erzeugen, welche dann keine echten Objekt-Materialzonen sind.


    Richtig, die DS-Primitives werden mit einer UVmap geladen. Dein Vorschlag mit den Transparenzmaps benötigt zwei Primitives in exakt derselben Position. Einfacher ist es, gleich eine ordentliche Textur-Map zu erstellen, damit das richtige Material an der richtigen Stelle landet, und zwar auf einem einzigen Objekt.


    Zitat

    was prozedurale Texturen sind.


    Prozedurale Texturen sind mathematisch erstellte Muster. Die werden nach irgendwelchen Algorithmen berechnet, je nach Einstellung. Manche Programme sind da sehr mächtig; in Vue etwa kann man durch verschiedene mathematische Funktionen komplette Landschaftstexturen erstellen. Auch 3Delight bietet im Shadermixer eine Anzahl von prozeduralen Bausteinen. Iray ist da noch etwas unterversorgt, aber es soll noch mehr kommen.
    Wenn in einem prozeduralen Shader eine Displacement-Komponente vorkommt, kann er auch die Geometrie verändern. Aber genausogut kann ein prozeduraler Shader nur die Farbinformation beinhalten, oder Glanzlicht, oder Transparenz.


    Zitat

    Wer genauer hinschaut, erkennt das iRay mitnichten kostenlos ist. Octane kostet Geld, ja, bringt aber eine nahezu komplette Shader-Datenbank mit, die ich bei iRay (zumindest für den bestehenden Content) kaufen muss, weil iRay die alten 3DLight Shader nicht umsetzt.


    Ansichtssache. 3Delight-Materialien, die auf Maps basieren, kann Iray gar nicht so schlecht umsetzen, mit etwas manueller Nachbesserung wird das Ergebnis sogar sehr gut.
    Prozedurale Shader kann Iray nicht von 3Delight übernehmen (siehe oben). Aber deswegen muss man nichts kaufen - was auch, da es keine prozeduralen Shader gibt. Und was Texturbasiertes kann man sich genausogut selber machen. Im Web gibt es tonnenweise lizenzfreies Bildmaterial, und dann passt das Material auch zum eigenen Objekt. Viele von den Shadern, die in letzter Zeit auf Daz herauskamen, sehen nur auf bestimmten Objekten gut aus.

  • Herzlichen Dank Esha :)


    Bezogen auf meine Ursprungsfrage stimmt diese Reihenfolge also. [lexicon]Mesh[/lexicon] => Material(zuweisung) => (ggf.)UV-Map => Textur => fertiges Objekt.
    Und wenn ich der Vollständigkeit halber noch die prozeduralen Shader einfügen wollte, würden die irgendwo bei [lexicon]Mesh[/lexicon] und/oder Material greifen, richtig?



    Gerne doch. Irgendwann werd ich eine Art Q&A auf meiner Homepage machen und die Infos von hier dort integrieren :D

    Das solltest Du tun. Deine Seite hat mir ganz am Anfang sehr geholfen :thumbup: Ich wünsche Dir ...schöne Festtage! :)

  • Man kann auch zuerst die UVmap machen und dann die Materialzonen festlegen. So mache ich das immer, weil ich meistens erst beim Texturieren endgültig weiß, wo ich die Zonen genau haben will. Aber eigentlich spielt die Reihenfolge keine Rolle.
    Und das "(ggf.)" bei UVMap würde ich wegtun, denn heutzutage werden eigentlich bei jedem Objekt ordentliche UVs erwartet.


    Die prozeduralen Shader kommen beim Texturieren zum Einsatz, anstatt der üblichen Bilddateien weist man dann einfach prozedurale Texturen zu. Da müssen UVs und Surfaces schon fertig sein.

  • Normal Maps ändern die Ausrichtung der Normalen, also die Schräglage der Polys, und verändern somit den Winkel, in dem das Licht auftrifft. Dadurch entsteht der optische Effekt eines Reliefs, obwohl sich die Geometrie nicht verändert. Ist im Prinzip sowas ähnliches wie eine Bumpmap, nur höher entwickelt.

    Noch eine Frage Esha. Im anhängenden Bild siehst Du wie Octane die Shader zuordnet, was manchmal einer Korrektur bedarf, weil Octane sie nicht korrekt verknüpft. Alles aber easy per DaD zu ändern und die Farben geben sogar die Anschlussmöglichkeiten vor. Hat man das verstanden, kann man sehr gut mit den DS Texturen arbeiten.


    Frage:
    Wie Du siehst sind in Octane bei einer Standard-V6, Bump-Map und Normal-Map eingeloggt. Du sprachst oben bzgl. der Normal-Map von einer höherwertigeren Bump-Map.
    Macht dann der Einsatz von beiden überhaupt Sinn?


    Wenn ich die Bump abkopple, wird die Haut glatt. Koppel ich die Normal Map ab ändert sich nichts. Möglicherweise muss ich diese aber auch nur noch einstellen.
    Ich möchte aber vorher wissen ob der Einsatz beider Maps überhaupt sinnvoll ist oder sogar Konklikte verursacht. Das im Editor ausgewählte Körperteil ist der Torso.

  • Hehe ... mein erster Beitrag für 2016 :D


    Zitat

    Ich möchte aber vorher wissen ob der Einsatz beider Maps überhaupt sinnvoll ist oder sogar Konklikte verursacht.


    Hm, das ist eine gute Frage. Ich kenne Octane nicht, also wirst du ums Probieren nicht herumkommen. Vielleicht hat die Bumpmap Vorrang, und man sieht von der Normalmap nur dann etwas, wenn keine Bumpmap da ist? Wäre vielleicht einen Versuch wert.
    Du könntest auch die beiden Maps mal ansehen, ob sie ähnlich sind oder unterschiedlich.


    Ich persönlich kombiniere nie Bump und Normals. Displacement und Bump ja, oder Displacement und Normals, denn da nehme ich das Displacement für die "großen" Formveränderungen und Bump/Normals für die feine Oberflächenstruktur. Aber zwei Maps, die sich für feine Strukturen eignen, das erscheint mir nicht sinnvoll. Mag aber sein, dass es in gewissen Fällen schon seine Berechtigung hat.


    Bumpmap und Normalmap unterscheiden sich in Iray in dem Punkt, dass man für Bump die Stärke mit einem extra Regler festlegen kann, während für die Normals die Stärke in der Map festgelegt ist, da gibt es an Einstellungen nur ein oder aus.

  • Hehe ... mein erster Beitrag für 2016 :D

    Es ist mir eine Ehre, Esha :D;)
    Habe die beiden Maps mal angehängt (001). Dieser Farbunterschied (jpg/Bump + tif/Normal) ist mir früher bereits, auch bei anderen Charakteren aufgefallen. Beide Map Ausschnitte sind in originaler Auflösung. Die Normal sieht eigentlich gröber, also eher nach Displacement aus. Und interessanter Weise werden auch in DAZ beide Texturen verwendet (s. Anhang 002). Kann es sein, das die Normal eine Displ Funktion ausführt ohne im Displ Kanal zu stecken (DAZ und Octane)? Werde Deinem Tipp folgen, mal antesten und hier dann rückmelden. Zunächst danke schön :)

  • Eine Normalmap bringt Informationen wie sich das Licht bei Höhenunterschieden verhält.
    Eine Bumpmap bringt Höheninformation in Form von Graustufen, die auch in einem Displacementkanal echte Höhenunterschiede erzeugen könnten.


    Deine gezeigte Normalmap unterstreicht hier nur das Lichtverhalten unter der Brust und erzeugt die wahrscheinlich bessere Illussion von Höhe. Die Brustwarze und die Hautstruktur werden durch die Bumpmap erzeugt, entweder auch gefaked im Bumpkanal oder echt im Displacement-Kanal.


    So sehe ich die Sache mit meinem Wissen über Normal- und Bumpmaps.


    Lg
    Kushanku

  • Ja genau Kushanku 8o Entschuldigt bitte, dass ich derzeit nicht alles sofort im Hirn vernetze, aber das ist doch wieder das Thema Shading aus dem anderen Thread, oder nicht? D.h. also auch hier, die Normal Map verändert die Normalen Vektoren auf den Vertices/Edges/Faces und simuliert so einen Höhenunterschied durch Schattierung. Umgekehrt können sie tatsächliche Höhenunterschiede wegsimulieren und lassen damit ein kantiges Objekt runder erscheinen (Face Group Shading).

  • Umgekehrt können sie tatsächliche Höhenunterschiede wegsimulieren und lassen damit ein kantiges Objekt runder erscheinen (Face Group Shading).


    Ob tatsächliche Höhenunterschiede gänzlich wegsimuliert werden können, wage ich zu bezweifeln (vielleicht bei kleineren Unebenheiten , dann ist das wohl besagtes Smoothshading), aber hier in Deinem Fall könnte ich mir vorstellen, dass die Normalmap eingesetzt wird, wenn die Brustwarze und Hautstruktur wegen Kleidung nicht sichtbar sind und nur die Brustwölbung gebraucht wird. Diese ist ja echt vorhanden und wird nur noch durch die Normalmap etwas plastischer hervorgehoben.


    Lg
    Kushanku

  • Da ich mich mit dem Thema [lexicon]Mesh[/lexicon]/Material/Texturen in Blender, Octane und (immer weniger) in DAZ beschäftige, hier eine grundsätzliche Frage dazu.
    Gibt es eine allgemeingültige Reihenfolge, wenn ich die Pipeline eines Objektes betrachte oder ist die programmbedingt u.U. unterschiedlich? Bisher dachte ich immer, die Reihenfolge sei:


    [lexicon]Mesh[/lexicon] => Material(zuweisung) => (ggf.)UV-Map => Textur => fertiges Objekt.
    Und ein Template, wie es bei guten Props mitgeliefert wird ist ein unwrapped [lexicon]Mesh[/lexicon], könnte also als UV-Map genutzt werden?


    Node Editoren wie in Blender oder Octane sind für das Verständnis ja recht hilfreich (Bilder).
    Aber meine (DAZ-geprägte) Vorstellung, Bump, Displacement, Specular wären grundsätzlich Texture-, respective Greyscale-Maps, hängen also hinter dem Material, ist wohl nicht ganz richtig.


    Mir ist nicht ganz klar, was du unter einer "Pipeline" verstehst, aber mir scheint du würfelst da etwas durcheinander:
    Es gibt einen gewissen allgemeinen Arbeitsablauf (Workflow) beim Erstellen von 3D Szenen (Reihenfolge kann variieren):

    • Modellieren ([lexicon]Mesh[/lexicon] erzeugen)
    • Materialzonen des Modells definieren
    • Texturkoordinaten den Materalzonen zuweisen (UV [lexicon]Mapping[/lexicon] -> UV Templates)
    • Texturen erstellen bzw auswählen (in Form von UV-Maps oder prozedural)
    • Shader erstellen (Material/Licht Eigenschaften unter Einbeziehung der Texturen diverser Oberflächeneigenschaften etc)
    • Riggen (Knochenstruktur, Bewegungsmöglichkeiten)
    • Positionieren
    • Ausleuchten
    • Rendern
    • Postwork (Nachbehandlung, Effekte, etc)


    Die Node Editoren für Cycles oder Octane betreffen nur die Punkte 4, 5 und natürlich 9.
    Für die Shader wird von den Materialzonen ausgegangen und für jede Zone der Shader deklariert. Wie genau ist von Renderer zu Renderer unterschiedlich, bei Octane gibt es die Grundarten

    • Diffuse (nicht reflektierendes Material, Sondermaterial wie Lichtemitter, Shadowcatcher, Volumen)
    • Glossy (reflektierendes Material)
    • Specular (transparentes Material)
    • Materialmix (eine Mischung, meist aus Glossy und Diffuse Materialanteilen)
    • Portal (ein Sondermaterial, das Licht nur aus einer Richtung durchlässt, z.B. für Fenster)

    Jede dieser Grundarten hat wiederum ihre eigenen Parameter wie Farbe (Textur), Oberflächenbeschaffenheit (glatt, rauh), Oberflächenstruktur (Bump, Normals, Displacement), Brechungsindex, usw. usf.
    Für jedes Objekt hat man also ein oder mehrere Materialzonen, für die definiert wird um was für eine Art Material es sich handelt und wie im einzelnen sich das Material zusammen setzt. Für die einzelnen Parameter kann man Zahlenwerte oder Texturen benutzen, wobei bei Texturen wiederum die Art der Projektion auf das Modell eine Rolle spielt. Üblicherweise richtet man sich nach der UV Map, bei Objekten ohne UV-Map oder prozeduralen Texturen ist eine alternative Projektionsmethode (box, zylindrisch, linear... ) u.U. besser geeignet eine verzerrungsfreie Abdeckung zu erhalten.
    Eine "Reihenfolge" existiert hier also in dem Sinne nicht, man muss nur die richtige Grundart auswählen und dann die richtigen Nodes an den passenden Stellen anstöpseln. Ob man sie dabei von links nach rechts oder von oben nach unten anordnet bleibt dem eigenen Geschmack überlassen.