Beiträge von acsto

    So ganz kann ich das nicht nachvollziehen, da ich vorher nur einen 8 gig CPU Computer mit 6 gig GPU hatte und es lief ja auch . Der war sicher schon mehr als 10 Jahre alt

    .Jetzt habe ich natürlich einen "besseren" Computer bzw es läuft noch besser . Wobei der eigentlich nur ein Asus Transformer Pad ist mit 16 gig CPU einer externen 8 GPU über Thunderbolt . Ich kann damit flüssig arbeiten .


    Eigentlich wollte ich mir ein Komplett neues System kaufen aber da diese Alternative bei mir super funzt belasse ich es noch dabei .

    Naja, bei mir ist das hier (siehe Anhang) leider Normalität. Andere Programme laufen recht stabil. ZBrush stürzt hin und wieder ab, aber das sind eher seltene Ausnahmen.

    Ich habe und nutze ZBrush und (weniger) 3D-Coat, bin allerdings mit beiden noch im fortgeschrittenen Anfängerstadium. Ich würde auch sagen, dass die beiden Programme einander eher ergänzen - allerdings eher auf der Wohlfühlebene.

    apropos 3D coat ist gerade noch im Sale

    Das hatte ich mir schon vor ein paar Wochen gekauft, aber es ist leider - zumindest auf meinen Rechnern - recht instabil und träge (wir hatten darüber ja unlängst gesprochen). Ich nutze es zwar für die eine oder andere Aufgabe, aber so richtig Spaß will dabei nicht aufkommen.


    Substance Painter ist fürs Texturieren meine erste Wahl; da kommt m.E. nichts heran. Dort stört mich nur, dass es bisher nicht möglich war, über UV-Kacheln hinweg zu malen. Das wird aber ja in Kürze (endlich) möglich sein. Die Bedienung fand ich die ersten paar Tage auch etwas schwierig/unintuitiv, aber dann wurde doch recht schnell alles klar. Der Funktionsumfang ist ja auch relativ übersichtlich, da das Programm keine eierlegende Wollmilchsau sein will sondern sich auf einen Aufgabenbereich fokussiert.


    Hexagon müsste ich mir mal näher ansehen, denn das lungert ja auch auf meinem Desktop herum. Allerdings komme ich für reine Modellierungsaufgaben derzeit noch mit Blender am besten zurecht. Vielleicht, weil es das erste Programm war, mit dem ich im Frühling dieses Jahres in die 3D-Materie eingestiegen bin.


    Ich finde die Qualität der UV-Maps, die ZBrush und 3D-Coat generieren, bisher übrigens absolut vergleichbar. Wahrscheinlich muss ich mich da in 3D-Coat aber noch ein bisschen tiefer einarbeiten, um wirklich das Potenzial zu erkennen und zu heben.


    Nachdem ich jetzt die Grundlagen für das Erstellen von Kleidungsstücken und Charakteren und das Texturieren soweit drauf habe, dass ich erste, akzeptable Ergebnisse damit erziele, werde ich mich demnächst wohl mal wieder etwas mehr auf DAZ Studio konzentrieren - und dort vorrangig auf Rendereinstellung (Shader, Kamera, Licht, ...).


    Frohes Fest Euch allen!

    Vielen Dank für die ausführliche Beschreibung, @Susann Houndsville!


    Im Prinzip habe ich das bei meinen Versuchen bisher ganz genauso gemacht, allerdings bin ich bisher nicht auf die Idee gekommen, das Original-Mesh zu unterteilen, bevor ich den Poly-Paint-Schritt mache. Das ist natürlich total sinnvoll!


    Deine Figuren finde ich übrigens sehr interessant! Du bist sicherlich ein großer Fantasy-Fan! :)

    Danke, Esha! Die Ränder durch rückseitiges Aufnähen von Säumen zu generieren, ist ein interessanter Ansatz. Das klingt zwar aufwändig, aber es löst auch das eine oder andere Problem. :)


    Die meisten Kleiderteile sieht man ja nur von vorn, daher wird dort gar keine Dicke benötigt. Bei der Kapuze ist allerdings Innen- wie Außenseite sichtbar.


    Würdest Du für Kleidung generell eher zu DForce raten?

    Auch das man keine geschlungen oder dicken Meshes flatten kann ist nicht richtig und zeigt mir erneut das du das mit der UVV map noch nicht so ganz verstanden hast .

    Da hast Du mich leider wieder missverstanden. Es geht mir darum, verschlungene, einseitige Meshes dick zu machen. Dabei verschmelzen die Strukturen, und dann ist ein UV-Mapping definitiv nicht mehr möglich.

    Ich kann mir schon vorstellen, was acsto meint, aber es ist eben Wunschdenken.

    Es wäre schön, wenn ZB beim Remeshing "bemerken" würde, welcher Originalvertex dem neuen Vertex am nächsten lag und dann gleich eine entsprechende Verbindung zu den UVs herstellen würde. So läuft das in der Praxis aber nicht. Sonst gäbe es so ein Tool doch schon längst.

    Ja, genau so meine ich das. Ich erkläre es offenbar nicht gut genug. Ich bin weiterhin davon überzeugt, dass es mathematisch - zumindest theoretisch - möglich ist, ein näherungsweise passables Ergebnis zu erzielen, wenn die Modelle nicht zu stark voneinander abweichen und die Original-UVs einfach strukturiert sind (was ja genau das Ziel ist).


    Wie Baking funktioniert, verstehe ich, und dass die Mathematik dahinter natürlich nicht 1:1 auf das hier diskutierte Problem übertragen werden kann, auch. Aber das Prinzip/die generelle Idee ist m.E. dieselbe.


    Ich werde mir auf jeden Fall mal die verschiedenen Programme fürs UV-Layouting ansehen, allerdings ist mein Budget jetzt erst einmal erschöpft.


    Ach so, und ich habe mir mal ein paar DAZ-Kleidungsstücke näher angesehen. Da wird tatsächlich oft das MD-OBJ verwendet, wie es scheint.

    esha & vidi : Danke für Eure Geduld! :) Ich bin sicher, dass ich irgendwo einen Denkfehler habe, aber solange mir etwas logisch erscheint, fällt es mir schwer, von der - vermeintlich - einfachen/logischen Idee Abstand zu nehmen.


    Was ist denn Euer typischer Arbeitsfluss vom MD-Modell zum finalen OBJ zur weiteren Bearbeitung in (z.B.) Daz Studio?


    Hürden, die ich dabei teils überwunden habe und teils noch nicht, sind:


    - Wie gehe ich am besten mit internen Nähten um (z.B., um Taschen aufzunähen, wie beim hier genannten Sweatshirt)? Bisher nehme ich die aus der Auswahl heraus, bevor ich das entsprechende OBJ aus MD heraus exportiere.

    - Sollte ich schon aus MD mit Dicke exportieren? Das mache ich zur Zeit nicht, weil mir dann das Mesh in ZBrush regelmäßig kaputt geht.

    - Sollte ich die Nähte schon beim Export verschweißen ("weld")? Auch das mache ich derzeit nicht, weil ich für den Fall, dass ich retopologisiere, die einzelnen UV-Gruppen als Polygruppen "retten" können möchte. Ansonsten müste ich sämtliche UV-Nähte manuell setzen.

    - Was ist Euer Weg, um einseitige MD-Meshes in ZBrush dick zu machen? Ich habe QMesh, Extrusion und Panel-Loops ausprobiert und mit allem gescheitert. Das einzige, was für mich bislang funktioniert, ist diese Methode: https://www.youtube.com/watch?v=6af2v49ubAM

    - Retopologisiert Ihr die MD-Meshes in Zbrush, oder arbeitet Ihr bevorzugt mit den MD-Meshes - insbesondere bei stark verschlungenen Strukturen? Einfache, glatte Strukturen sind relativ unproblematisch.

    - Remodelliert Ihr den MD-Export noch in anderen Programmen als ZBrush (z.B. Maya, Blender, ...)?

    Vidi, ich hab's vielleicht nicht anschaulich genug erklärt: Eine UV-Map enthält Koordinaten (Map = Landkarte). Um eine Normal-Map erstellen zu können, werden diese Koordinaten, das Original-Mesh und das retopologisierte Mesh benötigt. Aus den Unterschieden zwischen den beiden Meshes werden Normalenvektoren (Höhenunterschiede mit Richtungsinformation) berechnet und anhand der Koordinaten aus der UV-Map positioniert. Das nennt man "Baking" (warum auch immer).


    Um nun eine UV-Map auf ein retopologisiertes Mesh übertragen zu können, bräuchte man ebenfalls das Original-Mesh, das retopologisierte Mesh und die ursprüngliche UV-Map. Anstatt das retopologisierte Mesh vollständig "from scratch" abzuwickeln, wäre es - theoretisch - denkbar, die Informationen aus der Original-UV-Map mit dem 3D-Diff zu "verrechnen" und so möglichst nahe an etwas heranzukommen, das dem Original-UV gleicht.


    Außerdem: Wenn Z-Brush das Remeshing durchführt, weiß es ja exakt, welche Faces aus dem retopologisierten Mesh welchen Faces aus dem Original-Mesh zuzuordnen sind.


    Zeig doch mal das mesh das angeblich keine flachen uv maps erzeugen kann

    UV-Maps sind immer flach. :) Aber ich weiß, was Du meinst - und das habe ich ja bereits getan, aber ich mach's gerne noch einmal. Beachte: Das ist das Original-MD-Mesh, allerdings schon mit Dicke. Ich habe, wie erläutert, hier auf ZRemeshing verzichtet und stattdessen nur das existierende Mesh unterteilt, um dann die Details auf das Original zu projizieren, denn nochmals: es geht NICHT darum, IRGENDWELCHE UV-Abbildungen zu generieren sondern darum, die Form der Original-UV-Abbildungen zu bewahren. Dafür gibt es gute Gründe.

    Wenn ich "remeshe", verliere ich den Bezug zu den Original UV-Maps, und beim Hinzufügen von Dicke verschmelzen die Strukturen der Kapuze, was JEGLICHE UV-Abbildung unmöglich (bzw. unbenutzbar) macht. Das gilt aber, wie ich schon sagte, grundsätzlich für alle Arten von "verschlungenen" Strukturen, also z.B. auch Schals, Knoten, usw.


    Ich lasse mich aber natürlich gern eines Besseren belehren, denn das würde ja meine Probleme lösen. :)

    Die Hürde scheint es aber doch zu geben, den meines Wissens existiert kein solches Tool. Wäre aber großartig, wenn es das gäbe =)

    Vielleicht hat's einfach bisher noch niemand versucht.


    Beim Baking von Normal-Maps (z.B.) werden die Unterschiede zwischen einem hochauflösenden, detaillierten Mesh und einem Basis-Mesh in geringer Auflösung erreichnet, und daraus wird dann die Normal-Map unter Verwendung der im Basis-Mesh gespeicherten UV-Informationen erstellt. Für die gewünschte UV-Transformation wären ziemlich exakt dieselben Ausgangsinformationen erforderlich.


    Ich finde bei meiner Recherche im Internet sehr viele unterschiedliche Methoden, um das Fehlen eines solchen Werkzeugs mühsam auszugleichen. Wirklich zufriedenstellend sind sie aber, aus meiner Sicht, alle nicht.


    Momentan bin ich für mich persönlich zu dem Schluss gekommen, dass es am einfachsten ist, die suboptimalen Meshes, die MD erzeugt, als Basis zu nehmen und damit, so gut es eben geht, Details nach geeigneter Unterteilung zu pinseln und am Ende auf das Basis-Mesh zurückzuprojizieren. Alle Versuche mit ZRemeshing sind an irgendwelchen Hürden gescheitert.

    Randnotiz: Im ZBrush-UV-Master kann man, wie ich inzwischen gelernt habe, auch ein bisschen an den UVs zupfen. Zwar nicht so, wie ich es mir eigentlich wünsche, aber kleinere Korrekturen sind damit schon drin.

    Ja, das ist mir klar, Esha. Das ist ja genau das Problem, für das ich eine Lösung finden möchte - und die käuflich erhältlichen Kleidungsstücke beweisen eindeutig, dass es eine solche Lösung (bzw. einen entsprechend optimierte Arbeitsfluss) gibt.


    Dieser UVLayout-Editor sieht ziemlich genau nach dem aus, was ich mit meinem obigen Kommentar gemeint hatte. Natürlich würde ich mir eine einfachere Option wünschen - ich dachte an eine automatische Projektion der UVs vom Original-Mesh auf das retopologisierte Mesh mit (idealerweise geringen) manuellen Anpassungen. Solange die retopologisierte Form nicht allzu dramatisch von der Originalform abweicht, sollte das durchaus machbar sein. Im Prinzip ist es ja eigentlich nichts anders als Baking. Mathematisch sehe ich da keine unüberwindbare Hürde.

    Ach so, und ich habe die aktuellste MD-Version. Aber das, was aus MD herauskommt, muss auf jeden Fall immer retopologisiert werden. Die Topologie, die MD erzeugt, ist immer Murks - egal, ob "quadranguliert" oder nicht. Zumal MD auch niemals wirklich 100% in Quads wandelt.

    Danke an Euch alle für die Antworten!


    Kyrla, das Video kannte ich schon. Ich nutze allerdings leider nicht Maya. Mit Blender oder 3D-Coat, die ich ansonsten im Angebot hätte, wird das so wohl nicht möglich sein.


    Die Nähte sind passend gesetzt, und die Polygruppen in ZBrush sind auch entsprechend erzeugt. Das nützt mir aber leider für mein beschriebenes Vorhaben in keinster Weise, denn, wie ich schrieb, möchte ich ja einfache, saubere und symmetrische Muster wie in MD (idealerweise exakt die UVs aus MD) zur Verfügung haben. So ziemlich alle Kleidungsstücke im Daz-Shop haben derartige UVs. Auf den Chaos-UVs, die - auch mit sauber positionierten Nähten - logischerweise aus einem zerknautschten 3D-Kleidungsstück resultieren, lässt sich ja keine sinnvolle Texturierung aufsetzen.


    Eigentlich müsste es ja nur einen Editor geben, der es erlaubt, die UVs nachträglich manuell zu glätten/begradigen und dabei die Positionen im OBJ anpasst. So etwas gibt es doch bestimmt ... oder?

    Eins hätte ich noch: Wenn ich ein mit UVs importiertes Mesh "zremeshe", ändert sich die Topologie, und folglich gehen natürlich die UVs verloren. Aus einem am Körper befindlichen Kleidungsstück lässt sich aber beim besten Willen mit keinem Zauber ein sauberes, flaches UV rekonstruieren- Es kommt logischerweise immer Müll dabei heraus.


    Wie geht Ihr vor, wenn Ihr die (z.B. in Marvelous Designer erstellten) existierenden UVs für ein Mesh erhalten wollt, das Mesh aber retopologisiert werden muss? Die UVs für am Markt existierende Kleidungsstücke sind ja i.d.R. schön klare Schnittmuster, mit denen man vernünftig texturieren kann. Es muss also eine (vermutlich simple) Lösung geben.

    Ich werd' wahnsinnig, wenn ich dem Burschen, der das UDIM-Video gemacht hat, länger als 15 Sekunden zuhören muss. Wird der für die Anzahl der Wörter, die er in eine Sekunden quetschen kann, bezahlt? :D


    Aber schön zu sehen, wie es mit Blender immer weiter vorangeht. Seit Version 2.79 hat sich da ja schon ordentlich viel getan, und auch die Bedienung ist nicht mehr ganz so krude.

    Schon wieder ein Problem, das ich nicht in den Griff kriege: Ein aus Marvelous Designer ohne Dicke exportiertes Sweat-Shirt soll gruppenweise in ZBrush importiert und dort fürs Sculpting vorbereitet werden. Das klappt weitestgehend gut, nur die Mütze macht Schwierigkeiten.


    Ich nutze die Funktion "Panel Loop", um die fehlende Dicke hinzufügen. Im Fall der Kapuze führt das aber dazu, dass Teile davon "ineinander schmelzen". Die so verschmolzenen Bereiche lassen sich dann auch nicht mehr auseinanderzupfen.


    Gibt es eine Möglichkeit, "Edge-Loops" zu erzeugen, so dass die dadurch dick werdenden Oberflächen einander ausweichen anstatt miteinander zu verschmelzen? Oder welches Vorgehen wäre sonst ratsam, um ein sehr verschlungenes/zerknautschtes Kleidungsstück wie eine Kapuze oder einen Schal in ZBrush weiter zu bearbeiten?


    Ich habe auch mal versuchsweise die Mütze mit Dicke aus MD exportiert. Dann habe ich aber andere Probleme (zum Beispiel Nähte, die auseinanderplatzen).


    P.S.: Im gerade hochgeladenen Anhang sieht man einen Ausschnitt der Kapuze, an dem sich das Problem schön erkennen lässt.

    Es gibt eine eigene Ansicht für die UVs, da kann man alles so anordnen, wie man es möchte.

    Im Exportdialog kann man dann auch noch Unify UVs (oder so ähnlich) anhaken.


    Wie viele Tiles es allerdings exportiert, kann ich nicht genau sagen, ich bin bisher immer mit einer ausgekommen :nachdenklich:

    Ja, die UV-Ansicht kenne ich. Dort arrangiere ich meine UVs. Wenn ich allerdings beim Export "Unified UVs" anwähle, wird immer nur die erste Kachel exportiert, und wenn ich es nicht anwähle, kommt nur Murks heraus.

    Danke, Esha! Das sind allerdings Punkte, die ich schon abgehakt hatte. Die Nähte sitzen richtig herum, die Außenseiten sind außen, und die Particle Distance ist 5.


    Ich habe aber gerade einen Workaround gefunden. Wenn ich nicht irgendetwas massiv falsch verstehe (was durchaus möglich ist, da ich erst seit wenigen Tagen mit MD arbeite), halte ich das nun definitiv für einen Bug.


    Hier der Workaround: Nachdem ich das wildgewordene Kordelstückchen weder in der Simulation zu packen bekommen konnte noch durch irgendwelche Einstellungen das Problem in den Griff bekam, habe ich einfach mal in der 2D-Ansicht "Instance Pattern" angeklickt. Daraufhin wurde das Rechteck, welches die amoklaufende Kordel darstellt, verdoppelt (unerwarteterweise), und SOFORT fing der Amokläufer an, sich zu beruhigen. Ich habe dann das gedoppelte Rechteck wieder gelöscht - und es funktioniert weiterhin.


    Erklären kann ich mir das aber nicht.