Beiträge von tonie1

    z.B die Hand von Figur 1 anklicken dann unter Object add constraint anklicken und im Dropdown den Körperteil (bone) der Figur 2 auswählen. Wenn für Figur 1 Inverse Kinematic eingestellt ist passiert genau das, was du machen willst. In Poser recht einfach.

    Je nach Grad deiner Erfahrung in Sachen Animation in Poser kannst du dir auch auf YouTube Tutorials dazu anschauen.

    Suche nach Poser, constraints, inverse Kinematics.

    Ich hoffe inständig, daß die schweigende Masse hier im Forum von diesem Beitrag bzw. von dem was daraus gemacht wurde

    wie ich eher abgestoßen ist.

    Eine kurze Warnung vor kriminellen Machenschaften wie ihn Bohse getätigt hat finde ich gut. Die nicht so internetaffinen

    hier nehmen das vielleicht zum anlass aufmerksamer zu sein.

    Warum man eine solche Warnung aber benutzt um dermaßen negativ über die vermeintlichen Opfer herzuziehen ist mir

    schleierhaft.

    Jedes Strand-based Hair kann mit einem Deforce Modifier zu dynamischem Hair umgewandelt werden!

    Man kann das dann strand-based Hair + Deforce oder Deforce- Strand-based Hair oder wie auch immer nennen.


    Nach dem Drücken des Simulate Button passieren zwei Dinge

    1.das Haar wird in dynamisches Haar umgewandelt , das kann abhängig von der Dichte und Länge von 1 Minute bis auch zu einer Stunde dauern.

    2. die dynamische Simulation wird berechnet abhängig von den gewählten Parametern und der Pose der Figur auf der das Haar angewendet wurde.


    Wenn man nun anschließend die Pose ändert ist eigentlich nur der zweite Schritt notwendig, da sich am Haar nichts geändert hat. Position und Anzahl der Guide Hairs, Anzahl der Segmente und Zuordnung der Springs an die Segmente mit durch Parameter definiertem Verhalten bleiben ja gleich.

    Deshalb meine Frage wie man den ersten Schritt abspeichert damit er nicht unötiger Weise und zeitraubend immer wieder neu berechnet wird,

    denn genau das macht Dforce.

    Da es Kaufprodukte von dynamischem Haar gibt, die beim Drücken des Simulate Buttons dierekt mit der tatsächlichen Simulation sprich mit der Anpassung des Haares an die aktuelle Pose beginnen und nicht erst aus Strand-based oder sonstwie erstelltem Haar dynamisches Haar machen habe ich mich gefragt wie speichert man

    das erzeugte dynamische Haar um den 1. der beiden Schritte nicht ständig wiederholen zu müssen.

    Ich habe versucht das strandbased Hair auf verschiedene Weise zu sichern und die Dforce Einstellungen separat auch zu sichern .

    Richtig ist es mir bis jetzt nicht gelungen.

    Zum "Plugin von Videocopilot für cs6" eine kleine Anmerkung:

    Es handelt sich weder um ein Plugin noch funktioniert es nur in CS6! Es ist ein Workflow, der mit jeder Version von After Effects seit CS6 funktioniert. Das was man herunterladen kann ist die Projektdatei, in der man sich den Workflow anschauen kann. Diese Methode macht nur Sinn bei Verwendung von prozeduralen Rauschen als Textur, da mit Überblendungen und Weichzeichnung gearbeitet wird.

    Weiß jemand wie man selbsgebautes Dforce-Strandbased Hair speichert? Wenn man beispielsweise G8 ein dichtes Ganzkörperfell geben will kann die Berechnung schon mal 30 Minuten dauern bevor die Simulation überhaupt beginnt. Ändert man jetzt die Pose oder Animation macht DS diese Berechnung unnötiger Weise jedesmal wieder von vorne. Ich meine nicht die Simulation sondern das Erstellen des dynamischen Haares.

    Du hast mich auf eine andere Idee gebracht. Da die Autofitfunktion nicht nur die Posen sondern auch den Shape der Figur (der hier custom ist) übernimmt welchen ich erhalten möchte, kann ich ja die Figur dublizieren, unsichtbar machen und das Zielobjekt des Autofittings an einem bestimmten Punkt der Timeline auf das unsichtbare Dublikat des Chars ändern. So ist der Übergang von Autofit zu keyframeanimierter Bewegung glaube ich am weichesten. Muß ich ausprobieren. Danke jedenfalls für die Hilfestellung.

    Der Deformer verhindert leider nicht, dass das Kleidungsstück weiter von der Bewegung der Figur beeinflusst wird

    was abhängig von der Bewegung merkwürdig aussah. Ich hatte diese Möglichkeit schon ausprobiert.

    Weiß jemand ob man trotz Autofit die Translate Tools in DS irgendwie benutzen kann?

    Ich möchte Kleidungsstücke an einer Person, die sich bewegt (Autofit) in ihrer Position

    bewegen können. Wenn man die Autofitfunktion prozentual aktivieren bzw. deaktivieren

    könnte wäre das ideal aber auch jede andere Methode um die Kleidung zu positionieren

    würde mich interessieren.

    Ein praktisches Beispiel wäre die Rüstung von Ironman die ihm im Gehen an den oder vom Körper fliegt.

    Vielleicht habe ich mich nicht genau genug ausgedrückt.

    Ich suche eine Möglichkeit das natürlich in Echtzeit gerenderte Bild zu exportieren.

    Bei diesem Programm geht es ja um Echtzeit und nicht um Raytracing.

    Das obige Video ist mir bekannt sagt nur leider gar nichts darüber aus, wie man das Bild abspeichern soll.

    Ohne genau definierte Auflösung und Bildausschnitt kann man mit den Renderpasses eigentlich garnichts anfangen geschweigedenn

    die Animationsmöglichkeiten des Programm irgendwie speichern.

    Ein Programm zu benutzen das alles was auf meinem Bildschirm passiert aufnimmt oder das windowseigene snipping tool für

    Einzelbilder zu verwenden scheint mir einfach zu dilettantisch und für Postpro (Renderpasses) auch völlig ungeeignet.

    Wenn es bei dem Programm alleine um das Modeln geht, damit man anschließend ein obj exportiert und in einem anderen Programm weiterarbeiet,

    machen die meisten neuen Tools überhaupt keinen Sinn.

    Ich meine alles was mit Shadern, Rendereffekten, Renderpasses, Licht, Inverse Kinematik u.a. zu tun hat.

    Hallo, ich würde gerne wissen ob hier irgend jemand die neue Version von Neobarok kennt/ benutzt.

    Ich suche irgendwie vergeblich eine Renderfunktion in diesem Programm.

    Ich habe in einer Hilfsdatei den Hinweis gefunden "rechts klick auf den Hintergrund öffnet die

    Renderoptionen" . Bei mir passiert da aber gar nichts. Es ist zwar nicht auszuschliessen aber doch

    eher ungewöhnlich, dass das Programm immernoch keine Renderfunktion hat.

    Weiß jemand irgendetwas darüber. Vor einem Jahr haben ja Einige hier etwas zu dem Programm gepostet.

    Bevor ich meinen Post gesendet habe, habe ich Ellithia 8 bei Daz eingegeben und rechts in der vierten Reihe mittig ein Demobild gesehen,

    dass abgesehen von der Frisur exakt so aussieht wie der Char deines Posts!

    Nachdem ich mir die Demofotos und die Videos auf Youtube angeschaut habe bin ich irgendwie hin und hergerissen.

    Wissen die Leute, die dieses Produkt erstellt haben nicht wie man in DS rendert oder ist das Produkt so schlecht.

    Die Fotos und Animationen, die ich gesehen habe waren jedenfalls allesamt unterirdisch grottenschlecht.

    Ich glaube selbst wenn es gratis wäre würde ich es nicht benutzen. Oder es liegt wirklich an der Unfähigkeit der Entwickler

    vernünftiges Demomaterial zu erstellen.

    Eigentlich nicht!

    Die Figuren sind frei, Haare, Kleidung und Zubehör gibt es haufenweise legal im Netz.

    Ich empfehle jede Menge Tutorials anschauen, viele Fragen in Foren wie diesem stellen

    und üben, üben, üben. Es gibt schon genug Konsumenten von Kaufcontent die alle die

    selben Bilder machen. Man kann mit Daz Studio schon mit wenig Grundkenntnissen

    interessante 3d Grafiken erstellen. Das Modellieren eigenen Zubehörs erfordert zwar ein bisschen

    Übung, ist aber auch keine Raketenwissenschaft. Ist aber nur meine Meinung.

    Seit wann ist nur die nichtkommerzielle Nutzung von Unreal Engine kostenlos?

    Meines Wissens nach ist nur die kommerzielle Erstellung und Verbreitung eines Games

    ab einem gewissen Umsatz kostenpflichtig (Umsatzbeteiligung)

    und nicht die Erstellung von Grafiken und Bewegtbildern sprich Animationen.

    Wenn dem so ist, müsste das neu sein.

    Was soll das für ein Lizenssystem sein?

    Während des Rendervorgangs habe ich keine Einstellungen vorgenommen!

    Die Loopfunktionen beziehen sich eigentlich nur auf das playback.

    Da ich diese Einstellungen nie verändere und der Renderfehler nur bei ca.

    jeder 3. Animation auftritt ist es eher unwahrscheinlich, dass da ein Bug drin

    ist.

    Probieren tue ich es trotzdem.

    Den Abspielloop in der Timeline und in Animate kann ich deaktivieren,

    Keymate hat anscheinend gar keine ansonsten kenne ich keine weitere Loopfunktion

    in DS.

    Soweit ich mich erinnere gab es dieses Problem in DS 4.10 und früher nie.

    Vielleicht ein versionsabhängiger Bug der bei 4.12 wieder verschwindet.

    Ich habe seit geraumer Zeit das Problem, dass Daz Studio am Ende einer gerenderten Image Sequenz wieder von vorne anfängt und die gerade gerenderten Bilder überschreibt.

    Anfänglich trat dieses merkwürdige Verhalten nur bei OpnGl Render auf, dann hat es auch in Iray versucht wieder von vorne anzufangen wobei immer ein Fenster aufging mit

    einer Warnung, dass eine gleichnamige Datei bereits vohanden ist und ob ich sie überschreiben will.

    Mittlerweile kommt diese Warnung in Iray auch nicht mehr und Daz fängt am Ende einer Animation wieder von vorne an und überschreibt die vorangegangene.

    Dieses Verhalten ist nur manchmal. Ich bin mir keines Bedienfehlers bewusst und habe auch keine Einstellmöglichkeiten für das Verhalten am Ende einer Animation in Daz gefunden

    Kennt irgendjemand dieses Problem? Ich arbeite mit 4.11 (bereits neu installiert) und Windows 10.

    Vielen Dank! So funktioniert's.

    Die Attribute node in Verbindung mit dem Multiplier war's, die das Emittieren auf den Smoke beschränkt und nicht die ganze Domain

    zum Leuchten bringt. Macht auch Sinn aber manchmal hat man Tomaten auf den Augen!

    Und das zweite war, dass es nur mit Cycles funktioniert wenn man die Szene wirklich nur mit dem Smoke beleuchten möchte.

    Ich habe mal eine Frage an die Blenderexperten.

    Gibt es eine Möglichkeit in Blender Smoke einen lichtemittierenden Shader zu geben so das die Smokevoxels die Szene beleuchten?

    Mir gelingt es sowohl mit eevee als auch mit cycles lediglich die Domain (cube) aber nicht den Smoke zum Leuchten zu bringen.

    Das Domainobjekt ist groß genug und adaptiv ist auch eingestellt.

    Wenn die Kamera nah an der Domain ist rendert auch alles einwandfrei

    nur wenn die Kamera sich entfernt fängt der smoke an zu clippen bis

    er ganz verschwindet. Also genau so wie es Objekte tun, wenn in der

    Kamera-clipping Einstellung der Wert kleiner ist als die Distanz der Kamera zum Objekt

    Das ganze gilt im Übrigen sowohl für die Renderkamera als auch für

    das Vorschaufenster und zwar bei Verwendung des EEVEE Renderers

    was ich vergessen habe zu erwähnen.

    In Cycles besteht das Problem nicht.


    Problem gelöst!

    Unter Volumetrics gibt es speziell für Eevee eine separate Clipping-Einstellung!

    Habe ich übersehen. Trotzdem Danke!