Beiträge von Melegrian

    Was gibt es Neues zu berichten?


    Vor gut zwei Jahren hatte ich ein paar Bilder von Leonardo generieren lassen, für einen Song, den ich nun endlich fertig habe.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Einen Tag später noch ein Short-Video dazu gefertigt, und das brachte innerhalb von Stunden mehr Zugriffe, als ich sonst innerhalb eines Monats habe. Doch einen Tag später fällt es dann wieder auf gegen 0 Zugriffe. Der Grund dafür ist einfach, YouTube testet, ob sich für ein neues Short-Video eine Zielgruppe finden lässt, oder zumindest eine Nische, in die es eingeordnet werden kann. Hörte es anfänglich nur in einem Video, doch nun kann ich es ja bestätigen, dass es sich so verhält, denn ich hatte das Short-Video nirgends verlinkt oder eingebunden, es konnte auf anderen Wegen somit noch keiner finden:



    Und dass es praktisch nur über die Shorts gefunden wurde, wird auch aus der Statistik ersichtlich.



    Jetzt ist es zwar wieder bei annähernd 0, doch durch beide Videos hat der Kanal endlich erste Abonnenten.

    Und weil es dadurch anfängt etwas mehr Spaß zu machen, habe ich mir gestern die Testversion von Dreamtonics Synthesizer V Pro heruntergeladen. Die Testversion ist beschränkt auf 40 Noten pro Song, bzw. pro Gruppe, mehr Noten werden ausgegraut angezeigt. Die Noten könnte man einzeln eingeben, doch eine MIDI-Datei von einer Melodie lässt sich schneller und einfacher laden, sodass man nur noch die Silben einzugeben braucht.


    Also kein online Tool, wie Suno oder Udio, sondern ein Spielzeug für den Desktop, und nur ein kurzer Test, doch ich denke, man hört schon etwas, in welche Richtung es geht. Die Voices in der Testversion sind noch nicht die besten, denke ich mir. Was solls, wollte ja nur testen, ob ich damit klarkomme, bisher war es einfach, beinahe selbsterklärend (insofern man an den Umgang mit einer DAW und/oder Piano-Roll gewöhnt ist).


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Habe mir heute für ihr einen Fuchs geholt, wahlweise mit einem Fell für einen Rotfuchs oder weißen Polarfuchs. Das Angebot war gerade um 80 % und damit umgerechnet unter 5 Euro. Weiß aber noch gar nicht, ob das alles so funktionieren könnte, wie ich es mir vorstelle. Falls ja, sollte der Fuchs im ersten Clip ins Bild

    gelaufen kommen, um sich dann in die Tänzerin zu verwandeln. Das wäre ja eigentlich nur etwas Morphing, was es schon lange vor KI gab. Der Fuchs braucht aber mindestens zwei Schwänze, sonst ist es keine Fee.


    Foxes by AM
    The cute Red and Arctic Foxes, 12 poses, several morphs, finely rigged and weight mapped for both Poser and DAZ Studio, and Look at my Hair fur presets to…
    www.daz3d.com

    Alle Erweiterungen waren nicht die besten, doch es geht so, weil durch ein Notenblatt verdeckt. Irgendwie finde ich es aber schade, dass man innerhalb von Leonardo auf Nano Banana wechseln muss, um gute Ergebnisse zu erzielen. Oben abgebildet, Prompt "Auto", unbedingt auf "Off" wechseln, sonst macht die von Leo dafür benutzte KI einen voller Eindrücke schillernden Reisebericht daraus, vermurkst dabei aber den eigenen Prompt. Habe ich nicht gleich bemerkt, erst als ich diesen für Bing kopieren wollte. Dabei wurde mir dann klar, warum eine hölzerne Tanzfläche nicht verwittert aussah, von der KI hinzugefügt wurde "poliert" zu Holz.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Nun habe ich seit zwei Tagen ein Abo bei Leo, erst gefreut, um wieder ohne Größeneinschränkungen auf alle Funktionen zugreifen zu können, doch gestern kam ich nicht aus dem Mich-ärgern heraus. Eine Menge neue Spielereien, doch die Gesichter sehen noch immer so fehlerhaft aus, wie vor zwei Jahren. Es sei denn, man benutzt gleich in der Auswahl Nano Banana oder allenfalls noch GPT-Images-01. Um die 2000 Tokens verballert und noch nicht ein Bild war fertig. Wenn vor zwei Jahren die Gesichter einem verknautschten Gummiball glichen, gab es die Einstellung "Image to Image" und bei einer Einstellung zwischen 80 % und 90 % konzentrierte sich die KI nur auf die Verbesserung von Gesichtern, ohne die Figuren neu zu platzieren. Dafür nahm ich wohl "Absolute Realität" als Modell. Man konnte beide übereinander legen in Gimp und holte nur die Gesichter durch. Nun steht "Absolute Realität" nur noch in Leo Canvas zur Auswahl, und da ist es nicht mehr die beste Wahl. Einmal hatte ich "Image to Image" wiedergefunden, doch nur einmal, weil es wohl noch mit anderen Einstellung verknüpft ist und ich nicht mehr weiß, wie aufrufen. Hier ist es noch mit Schieberegler, leider nur einmal gefunden.



    Als es mir völlig reichte, bin ich zum kostenlosen Bing Creator gewechselt. Als ich meinen Prompt kopieren wollte erst festgestellt, eine Einstellung bei Leo hatte den bis zur Unkenntlichkeit aufgeblasen, allen möglichen Blabla, aufgedunsen wie ein Erlebnisbericht oder so. Mit Füllwörtern kann keine KI etwas anfangen, die möchte Parameter haben. Suchmaschinen benutzten dafür Stoppwortlisten. Sauer war ich aber über "a polished wooden", weil ich nicht von poliert geschrieben hatte, mich nur wunderte, warum in allen Bildern die Flächen so poliert und damit untypisch aussahen. Dieses Pull-down-Menü steht bei einigen Modells zur Verfügung, Voreinstellung mit Auto und muss halt auf Off geändert werden. Irgend ein Bot kann noch nicht gedankenlesen, lieber selbst nachbessern, um einen Prompt zu optimieren.



    Den Prompt etwas umgeschrieben, dann einen für Irland und einen für Schottland, im Bing Creator den CPT-4o gewählt und der hat geliefert. Gut, weil Leo beim ersten Prompt noch nicht einmal wusste, was ein Reel Tanz ist, habe ich danach nur noch Stepptanz geschrieben. Bing hat gut den Unterschied zwischen irisch und schottisch herausgearbeitet.


    Irisch


    Schottisch


    Nur leider das Format bei Bing, aber ich habe bereits eine Idee.


    Nano Banana in der Auswahl bei Leo brachte aber auch kein schlechtes Ergebnis, eigentlich sogar das beste Ergebnis.



    Nun werde ich erneut mit Leo Canvas arbeiten. Ein erstes Bild von letzter Nacht enthielt im Bild einen Versatz.

    Dabei hätte das Video bereits fertig sein können.

    Hatte ich gestern noch übersehen, Leo hat einen Universal Upscaler. Mit dem habe ich heute ein Bild vom Original, welches ich zwar bereits erweitert hatte, aber noch nicht so sehr vergrößern lassen. Ist gut geworden.


    Und ich musste heute feststellen, dass ich recht vergesslich werde. Konnte mich nicht mehr daran erinnern, dass ich im letzten Jahr, genauer im März 2024, eine Begleitung zu Fairy Dance geschrieben hatte. Nun ja, es ist zu schnell Fee, da ein Irish Reel, wo die Mädels schneller steppen, als man zählen kann. Um zu prüfen, ob ich es wirklich vergessen habe, habe ich danach gesucht, wann ich welche Dateien erstellt habe. Eine Datei, die nur die Melodie enthält, ist vom 23.03.‎2024 und eine mit Begleitung vom 24.03.‎2024. Wie konnte ich so etwas vergessen, wo ich es doch selten machte?


    Bei Leo stehen 3 x Motion Videogeneratoren von Leo zur Verfügung, weiterhin 2 x Veo von Google und 1 x Kling AI. Soweit ich sah, ist Veo der teuerste, wo meine Tokens für einen Monat nur für 3 Clips von wenigen Sekunden reichen würden. Bei allen kann man ein Startbild für den ersten Frame verwenden, für Endbild für den letzten Frame soll in Arbeit sein.

    Nun habe ich wieder das Original genommen, als Style Referenz und als Content Referenz gleichzeitig im zweiten Versuch. Eine Verbesserung gegenüber den ersten Images ist feststellbar. Aber was für mich beim Bild von Nao Banana mehr nach Reisig als nach Funkenflug aussah, interpretiert Leo nicht anders. Das muss aus der Vorlage heraus retuschiert werden, sonst verplempert man seine Tokens.

    Dieses Bild hätte bei Wiederholung den Vorteil, dass es von Leo erzeugt, dadurch ein Upscaling ohne Verluste möglich wäre, wodurch dann der Ausschnitt auch mal kleiner gewählt werden könnte, um Figuren größer ins Bild zu bekommen. Die Ausleuchtung ist weniger gut, vor allem der Mondschein wirkt zu aufhellend.


    So, das Bild von Nano Banana habe ich in Leo Canvas in die Höhe und Breite angeflickt. Es ist jetzt größer, als ich es brauchen würde. Habe es deshalb so gemacht, wenn ich eine passende Melodie finden sollte, kann ich auf der linken Seite noch ein Notenblatt einfügen, bzw. den Platz dafür reservieren, bevor es animiert werden soll. Die Fuchsfee würde so aber ziemlich klein abgebildet. Das Bild ist jetzt 2464 x 1216 und sollte später auf 1920 x 1080 verringert werden.



    Alternativ könnte ich noch einen zweiten Test machen und noch eins auf 720p zuschneiden, dieses als Referenz laden und das ergebnis danch upscalen. Hatte ich auch erst vor, doch die Funktion dafür Image Guidance ist umgezogen, und ich fand diese erst nicht. Da nutzten auch keine älteren Video-Tutorials. Dafür scheinen aber nun mehr Optionen zur Verfügung zu stehen.



    Für ein Motiv habe ich heute bald mehr Tokens verbraten, wie in der Free Version in drei Tagen zur Verfügung stehen. Der Unterschied ist nur, im Free Plan werden diese täglich aktualisiert, in meinem jetzigen Plan nur monatlich. Habe jetzt zwar etwa die doppelte Anzahl, nur mit Bildern bekommt man diese kaum alle, aber, aber Videos dürften sehr viel mehr Tokens fressen.

    Nun habe ich erst einmal ein Bild generiert, welches über 1080p ist. Eigentlich habe ich nicht eins, sondern mehrere und zweimal den Prompt nachgebessert. Dann noch einmal versucht etwas mehr ins Rötliche zu gelangen, für kleine Nachbesserungen gibt es jetzt eine extra Funktion, die aber nicht viel bewirkt hat. Dann in Leo Canvas noch einen Streifen angeflickt, damit ich je nach Bedarf unten oder oben noch etwas abschneiden kann. Die Kamera braucht ja nicht auf einer Höhe stehenzubleiben.


    Etwas retuschieren werde ich noch versuchen, habe ja genug Bilder generiert. Dann im Daz Studio laden, meinen Charakter in unterschiedlichen Posen einfügen und entsprechend ausleuchten. Als Background wurden bisher alle Bilder leicht verschwommen, auf Plane gezogen nicht, nur könnte da die Ausleuchtung stören, werde es halt probieren müssen. Die besseren Farbstimmungen hatte das Bild von Nano Banana, auch das bessere Brennholz fürs Feuer. Kann ja versuchen das Wasserzeichen zu entfernen, dann mit Leo zu vergrößern.


    Deine 3D-Waldszene strahlt eine angenehme, menschliche Wärme aus.

    Diese warmen Farbtöne gefallen mir ebenfalls, stören tut mich diese ausgefransten Flamen am oberen Rand und der vermeintliche Funkenflug, der mehr fliegenden Reisig als nach Funken aussieht. Außerdem ist es zu klein für ein Video, dafür waren die Posen ja gedacht. Hochskalieren wird in diesem Fall nichts bringen, weil dann vom Gesicht nicht viel übrig bleiben dürfte.

    Nun noch ein Test mit Nano Banana und meiner Fuchsfee in ihrer ersten Pose. Hatte zwar noch weitere Posen vorbereitet, beließ es aber erst einmal bei der einen. Ich finde es gut, doch es haut mich auch nicht um. Meinen Vorstellungen kommt es aber nahe. Muss mir noch überlegen, wie es weitergehen könnte.




    Gerade gesehen, das mit PayPal zur Auswahl ist neu bei Leonardo. Da haben die Betreiber aber lange genug gepennt, ehe sie mitbekamen, wieviel Geld ihnen verloren ging.



    Aus den zwei Tuts, die ich sah, ging aber nicht hervor, ob neben einem Bild für den Startframe, auch ein Bild für den Endframe für Videoclips verwendet werden kann. Kling AI kann es. Wodurch durchgehende Handlungen oder Loops erstellt werden könnten, bei den das Bild für den Endframe vom ersten Clip als Bild für den Startframe des nächsten Clips verwendet werden kann. Für 5 bis 10 Sekunden brauchte man dafür nur zwei Render, um der AI klarzumachen, welche Übergänge sie rendern soll.


    Wer mehr darüber wissen möchte, könnte ich dieses Video-Tutorial empfehlen. Statt Charaktere von Midjourney zu benutzen, kann man seine eigenen mit Daz Studio erstellen. Oder gleich Charaktere mit Landschaften, wie ich es mit meinen tanzenden Chinchas innerhalb einer Terragen-Landschaft noch vorstellen könnte.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Das erste Bild wollte ich nun mit Nano Banana erweitern lassen.

    Dialog:

    Zitat

    Es wäre schön, wenn der chinesische Drache noch ein paar Hinterbeine mit Krallen hätte und in voller Länge zu sehen wäre.

    Nano B.

    Zitat

    Gerne, hier ist der chinesische Drache mit Hinterbeinen und in voller Länge:

    Ich:

    Zitat

    Es ist kein Bild zu sehen, soll ich meine Beschreibung ändern?

    Nano B.

    Zitat

    Entschuldigung, da ist wohl etwas schiefgelaufen. Ich kann leider kein Bild für dich generieren, da die Bildfunktion im Moment nicht richtig funktioniert. Ich hoffe, du verstehst das!

    Aber woran könnte es liegen? Sollte ich zuerst das Wasserzeichen von Kling entfernen, oder kennt Nono Banana keine Drachen, die der Vorlage entsprechen?

    Terragen ist bereits seit Mai 2022 bei Discord, wo es neben Diskussionen auch Image Sharing gibt, wo Nutzer ihre neuen Render vorstellen. Der letzte neue Terragen-Render wurde vor 8 Minuten vorgestellt. Der Zugang ist vermutlich nicht öffentlich, zumindest erhielt ich dafür eine Einladung. Vielleicht unterhältst Du Dich zuerst dort mit den Nutzern.

    Verwendete(s) Programm(e): Kling AI


    Vor einem Jahr oder länger hatte ich es bereits mit Leonardo probiert, doch Leo hat seither nichts dazugelernt und scheint noch immer keine chinesischen Long Drachen oder Wasserdrachen zu kennen. Für Kling AI war derselbe Prompt hingegen ein Heimspiel. Wäre ja auch schlimm, wenn die ihre eigenen Fabelwesen nicht kennen würden, so wie diese in Filmen dargestellt werden.

    Der Prompt:

    Zitat

    A photorealistic scene in which a white Chinese long dragon flies elegantly over a lake in the slightly hazy air.

    So wie alle Fabeltiere bei den Chinesen können auch die Drachen gut oder böse sein. Long Drachen benötigen als Fabelwesen keine Flügel, um durch die Lüfte zu gleiten. Neben in Weiß gibt es noch andere Farbvarianten, doch die weißen Drachen sind irgendwie die schönsten.


    Das erste Bild ist perfekt geworden, zumindest braucht dieser Drache sich nicht vor seinesgleichen in Filmen zu verstecken.



    Das zweite Bild ist eigentlich rein vom Optischen ebenfalls sehr gut geworden, hat aber zwei Mängel.

    Das obere Beinpaar ist zu sehr nach hinten gedreht, die Krallen müssten weiter nach vor verlagert werden, sodass diese vielleicht mit der Bauchlinie auf einer Höhe liegen könnten. Und unten bei der einen Kralle befindet sich etwas, was weder zum Drachen, noch zur Spiegelung gehört. Die unteren Beine scheinen auch nicht auf einer Höhe zu sitzen. Alles in allem, trotz Mängel, ein schöner Entwurf.


    Nochmal nachgebessert, nun sollte es erst einmal gut sein. Kleiderwechsel klappt ebenfalls durch Klick auf Auswahl, obwohl nur ein Objekt. Bei letzteren müssen aber noch alle Positionen verglichen werden, denn es wurden ja nicht alle Pfade von allen Dateien von Daz in der MTL mit angegeben.



    Wenn ich die Figur verschieben möchte, was sicherlich nicht ohne abgehen wird, dann muss ich den Standort von Figur und Rock um den gleichen Betrag verändern, dann sollte es gehen. Das andere im vorletzten Bild führte zwar zu keiner Explosion, doch viel fehlte wohl nicht mehr.


    Export von Blender als obj, dann als obj in DAZ importieren und an Deine Püppi parenten

    Beim einfachen Import brauchte nichts neu Texturiert zu werden, was schon einmal gut. Das Original war ausgeblendet, das Objekt ein, die Falten scheinen noch etwas schwach ausgeprägt zu sein, sehe sie aber schon.




    Aber mit Transfer Utility geht es nicht, jedenfalls nicht ohne Chaos. Braucht aber eigentlich nicht zu gehen, weil ja nur für ein Bild in einer Pose gedacht.


    Hatte es über Morph Loader versucht, hat jetzt geklappt, aber nur der Import. So wie ich von Null abweiche, ist Chaos.



    Mit Hexagon hatte ich es ebenfalls versucht, sehe aber weniger Schatten und die Gleichmäßigkeit wie im Skulpt Mode wüsste ich auch nicht, wie erreichen. So wie Du schreibst, sollte es gehen.

    Bin schon wieder bedient. Eine Falte etwas in Blender Skulpt-Mode verlängert, an der Ecke ebenfalls, sodass der Saum etwas welliger wird. Jetzt geht die Sucherei los, wie denn importieren. Ist in diesem Fall kein Morph, sondern ein Asset, wenn ich es richtig verstanden habe. Es soll doch nur für einen Rock in einer Pose sein, warum dann so umständlich.


    Neuer Versuch, wird vielleicht noch nicht der letzte gewesen sein.

    Push Modifier wieder auf 0 gesetzt, warum es heute ohne geht und gestern nicht, keine Ahnung.


    Mit der Vorschau Texture Shaded waren keine Falten zu sehen, mit Cartoon Shadow hingegen schon. Zum Test eine sehr kleine Plane als Hindernis verwendet, diese aber bei Frame 1 und Frame 40 der Simulation ausgerichtet, damit diese sich mitbewegt.



    Ergebnis:

    Stoff bleibt nun vor dem Knie abfallend, leider auch dieses gemusterte Band.

    Ohne Push Modifier sehen Falten weniger aufgeblasen aus.


    Linke Seite gestern ohne Plane | rechte Seite heute mit Plane.


    Erst einmal lasse ich es so. Ein allgemeiner Modifier für den Rock lohnt sich nicht, weil der nur für diese eine Pose gut wäre. Vielleicht probiere ich es aber dennoch einmal mit Hexagon, der könnte ja dann in dieser Datei verbleiben. Ging ja nur um dieses eine Flatterband, oder vielleicht noch eine Falte bis zum Rand durchziehen.

    Der Rock trennt in Blender nicht in Lose Parts.

    Dachte, es handelt sich um mehrere Parts, weil sich der Gürtel und die gemusterten Bänder sich gesondert einstellen lassen. So ist aber erst einmal kein herankommen. Außerdem wüsste ich momentan ohnehin nicht so richtig, was zu machen wäre, denn der Stoff fällt doch faltig bis zum unteren Rand.


      

    Mit einer Flying- Pose sieht das zwar nicht schlecht aus, in den Händen hält sie eigentlich eine Querflöte. Nur meine Landeposen, um die ich mich selbst kümmern muss, die kamen mir gestern noch etwas steif vor. Sie macht dabei einen Flügelabschlag, ist klar, weiß aber noch nicht, worauf sie landen wird. Und ich weiß nicht, wie lange so ein Abschlag dauert, 5 Sekunden kommen mir jedenfalls zu lang vor.
    Selbst rendern, ich hatte noch nie begriffen, wie das mit dForce Kleidung gehen könnte, da sich der letzte Frame von jeder Simulation nicht einfach mal so speichern lässt. Theoretisch brauchte man dann mindestens 30 Frames für die Simulation für einen Frame vom Clip, dachte ich bisher immer. Gestern einmal danach gesucht, mindestens einer dachte noch so.


    How do you animate a character in a dForce outfit?
    I have spent most of the last few days buried in documents and videos trying to come to grips with dForce, and getting it to work on my system without causing…
    www.daz3d.com


    Also, ich habe es so verstanden, Hände weg von einer Animation mit dForce Clothing, viel zu aufwendig.





    Den Rock der Fuchsfee habe ich wieder verlängert, zum traditionellen Hanfu passen traditionelle China-Boots ebenfalls am besten. Es klappte mit der Hose da, wo die Boots am oberen Ende teilweise Luft an der Wade hatten, nicht aber am vorderen Schienbein, da fiel der Stoff als loser Fetzen rüber, und die Boots wollte ich deshalb nicht weiten.

    Zitat

    Die Traditionelle Han-Kleidung: Hanfu

    Erste Belege deuten auf die Jahre der Shang Dynastie, zwischen 1766-1122 vor Christus, als Enstehung der Mode hin. In vielen Variationen ausgeführt, bleibt das Tangfu der chinesischen Hochkultur durch die Dynastien hinweg erhalten.

    Warum die einmal Tangfu statt Hanfu schreiben, weiß ich nicht, bei Etsy heißt es ebenfalls Hanfu.


    Beim ersten Bild habe ich die Textur gewechselt, um besser erkennen zu können, was gespielt wird. Rot trägt man aber nur zur Hochzeit. Jetzt habe ich einen Push-Modifier von 1 drauf, wodurch alles noch etwas aufgeblähter aussieht. Den Modifier könnte ich später wo möglich reduzieren. Aber der Faltenwurf, mit dem bin ich so oder so nicht zufrieden. Warum gehen diese nicht bis zum unteren Randes des Rockes? In der linken Bildhälfte vom ersten Bild befinden sich sogar eine auf volle Kollision mit einem (wie nennt man diese?) Musterband. Gut, diese Bänder lassen sich weiter abspreizen per Morph, was sich aber nur für sich schnell drehende Tanzbewegungen gut wäre.



    Die Maps sehen für mich merkwürdig aus, vor allem die Displacement. Aber ich will mir beides gelegentlich mit Blender ansehen. Vielleicht lässt sich etwas richten und als Morph verwenden.

    Noch einmal alle Einstellungen auf Grundeinstellung gesetzt, dann stattdessen einen Pushmodifier mit 0.60 verwendet. Kleinere Durchbrüche gibt es zwar noch, doch diese sind im Render nicht zu sehen. Der Rock endet nun normal aufliegend übern Knie.


    Mit langen Hosen wird es erträglicher, die wurden früher schon getragen, wodurch der Rock nur zum Überrock würde. Beim helleren sind die Kollisionen von der Hose deutlicher zu sehen. Nur etwas mit Collision Layer, Collision Offset und Maximum Displacement gespielt, schon steht es über Knie wieder ab. Hatte vorher nur die Texturen getauscht, an denen kann es doch eigentlich kaum liegen.


    Mir ist bisher nichts anderes eingefallen, als den Rock wieder zu verkürzen, hat jetzt nur noch plus 60 %.

    Der fällt einfach nicht gut mit Falten.




    Für G8 sah ich zwar noch etwas, doch ob der Rock besser zum Tanzen geeignet ist, daran habe ich leichte Zweifel.


    dForce Song Dynasty Female Suit for Genesis 8 Females
    The Song Dynasty Female Suit is slender and fit, fresh and refined, natural and elegant, quiet and simple, inspired by the Song Dynasty of ancient China.…
    www.daz3d.com


    Aber für G9 sah ich noch etwas, was auch für fliegende Feen oder sonstige Unsterbliche geeignet ist.


    dForce Lala HanFu for Genesis 9
    This outfit includes a Chinese ancient petticoat, a Chinese ancient dress, and a sash belt. This is a traditional style of ancient Chinese Hanfu. The design…
    www.daz3d.com

    Habe nun beides unter Wearables gespeichert, einmal mit und einmal ohne dForce Modifier.


    Dann wollte ich bei meiner Fuchsfee weitermachen, eine G8. Und das soll auch keine G8 bleiben, weil ich das Gesicht passend finde.

    Für diese hatte ich aber nur ein Kostüm mit einem zu kurzen Rock, welcher eine Handbreit über dem Knien endete.

    Deshalb hatte ich diesen um 220 % gestreckt. Die anderen Optionen habe ich nur geändert, damit nicht bereits in der Zero-Pose die Waden durch den Stoff dringen.



    Bei der ersten Pose dann ein Ergebnis, bei dem der Stoff vom Rock nicht vor dem Knie abfällt, wie ich es erwartet hatte. Also der Stoff fällt erst etwas vor dem Knien, nur um dann doch gerade weiterzugehen.




    Erst dachte ich, dass das Mesh durch meine Einstellungen vielleicht überdehnt wäre, doch in dieser Ansicht sieht für mich erst einmal alles normal aus, auch wenn ich auf Resolution Level Base wechsle. Wenn ich die Länge auf 0 stelle, wechselt die Unterteilung von Quadratisch auf niedrigere Rechtecke, ist klar.