Beiträge von Melegrian

    oder ich muss wohl ein eigenständiges Skelett bauen.

    Wollte einmal etwas machen und jedesmal wenn es von einer Seite so aussah, als würde ein oder mehrere Bones richtig sitzen, waren die Bones in einer anderen Ansicht bereits aus dem Mesh rausgerutscht, oder so ähnlich. Jedenfalls war das nicht so einfach. Habe gestern einige kürzere Tuts angeschaut, zwei waren für Einsteiger, heute finde ich nichts mehr wieder. Jedenfalls musst Du dem Mesch an der Schulter auch Luft geben, sonst wird das vermutlich auch mit eigenen Bones entgleisen.


    Eins habe ich jetzt wiedergefunden, ist zwar 10 Jahre alt, doch er erklärt es eigentlich ganz gut. Das ist länger und ich hatte mir gestern nur den Anfang angesehen, bis wo er zwische Ober- und Unterarm ein sehr einfaches Mesch vorbereitet, damit das beim Bewegen nicht entgleist. Das war in den ersten 5 Minuten.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Frage an die Daz Bastler.

    Wenn Du alle Gelenke bewegen möchtest, die auch eine Genesis hat, müsstest Du zuerst eine von beiden Figuren auf die anatomischen Proportionen der anderen bringen, was vermutlich viel zu viel wäre. Doch dann sollte es so oder ähnlich gehen.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Und was ich noch gefunden habe, es ist wahrscheinlich nicht einmal erlaubt, G8 Bones auf ein fremdes Objekt zu übertragen. Jedenfalls wird im dem Faden der Frage nachgegangen, ob und wie ein Transfer innnerhalb vom Daz Studio möglich wäre. Und den einen Post von Haseltine verstehe ich dahingehend, das es nicht erlaubt ist. In der Übersetzung mit DeepL:

    Zitat

    Bedenken Sie auch, dass daz die Verwendung seines Riggings für Add-ons (Kleidung, Haare usw.) erlaubt, nicht aber für eine eigenständige Figur, die möglicherweise eher ein konkurrierender Artikel als ein Add-on wäre.


    Copying Bones from Genesis 8 Figure to OBJ import

    Nun gut, nur für den privaten Gebrauch wäre es kein Thema.

    Was der Nerd mit seiner Verzögerung erklärt hat, ich meine Audacity gibt es für Windows und Linux und die Verzögerung ist so kurz, dass es eigentlich bei Sprachaufnahmen nicht auffallen sollte. Wenn er da aber über verschiedene Geräte den Ton einspeist, summiert es sich eventuell, weil jedes Gerät etwas puffert oder so. Ich konnte aber nicht verstehen, warum er das macht. Und meine beiden DAWs arbeiten mit ASIO Treibern, die wohl zusätzlich sehr niedrige Latenzzeiten bewirken sollen. Wie groß der Unterschied war, weiß ich aber nicht mehr.

    Mint 22 sieht eigentlich gut aus, aber komplett würde ich nicht mehr umsteigen. Habe ja noch viele Windows Anwendungen auf dem Rechner, fühle mich auch etwas zu alt für einen kompletten Umstieg. So ein kleines Bastelprojekt wäre etwas anderes gewesen.

    Hatte mich nur bei Amazon umgesehen, unterschiedliche Starter Kits für PI 4 und PI 5 zwischen 83 und 139 Euro sehe ich da auf der Seite.

    Code
    https://www.amazon.de/Raspberry-Starter-Kit-Netzteil-Geh%C3%A4use-L%C3%BCfter/dp/B0CRPF47RG


    Nun weiß ich nicht, wo der im Video die Preise her hatte, es geht wohl noch günstiger, jedenfalls war ja das Video auch noch nicht älter als einen Monat.

    olche Zigarettenschachtel-Rechner sind wohl eher für BastelWastelNerds geeignet,

    Nun ja, der wurde als Einstiegrechner für Kids entwickelt. Steht so in der Wikipedia. Und mit Programmieren stimmt auch, denn so bin ich auf dem aufmerksam geworden. Als ich selbst noch Python lernte, aber versuchte eine Frage zu beantworten, von einem noch neueren User im Python-Forum, warum er zwar die Web Radiosender hören könnte, die Stationen aber nicht auf seinem Monitor eingeblendet wurden. Nun ja, kam jemand von den alten Hasen, und dann lief sein Python Script, wobei ich auch gleich etwas dazulernte. Aus der Wikipedia, hinter dem Projekt steht die Raspberry Pi Foundation:


    Der Raspberry Pi kam Anfang 2012 auf den Markt; sein großer Markterfolg wird teils als Revival des bis dahin weitgehend bedeutungslos gewordenen Heimcomputers als Einstieg zum Programmieren und Experimentieren für Kinder angesehen.

    Habe nur einen Teil vom Video gesehen, hat mir gereicht.

    Ja, früher, früher, vor sehr vielen Jahren, hatte ich einmal eine Suse von Linux neben Windows auf der Platte. Eigentlich erschien mir die Installation recht einfach, doch weil ich zu wenig Ahnung von Linux hatte, blieb ich nicht dabei.


    Woran ich aber schon einmal vor nicht ganz so vielen Jahren dachte, einen Rechner mit einen Raspberry Pi zu bauen. Das teuerste daran wäre der Monitor gewesen, und ich weiß, dass man damit zumindest Webradio hören kann. Aktuell hat der Raspberry Pi 5 aber auch schon 128GB microSD plus 8GB Aebeitsspeicher oder so, und kostet bereits um die 100 Euro bei Amazon. In der ersten Zeit vor Jahren, da lag der Preis noch unter 50 Euro.

    Surfen im Web mit Firefox soll kein Problem sein, meint er im Video, wenn man genügend Wartezeit fürs Laden von Webseiten aufbringen kann. Laufen tut er mit Linux-Distributionen, soweit ich weiß. Wer denn unbedingt möchte, es gibt sogar Starter-Kits mit Gehäuse.


    Aslo für preisbewusste User soll er eine Alternative zum Desktop-PC sein, nur rendern mit man damit wohl nicht können.

    Code
    https://www.youtube.com/watch?v=BARQjctol0Y

    Displacementmapping wird für sehr feine Strukturen eingesetzt,

    Nein, dass ist ja das Grundprinzip von Terragen seit bestehen, dadurch entsteht ja erst das Gelände, Berge, Wellen usw., nur Matt hat das so gelöst, dass die Anzahl der Polygone mit der Entfernung von der Kamera abnimmt.


    Das Mesh vom Planeten selbst ist nicht zu sehen, doch der Painted Shader von TG folg dem Mesh, dann sieht man, wie groß die Triangel sind in welcher Entfernung sind.

    Bei kleinen Falten im Gesicht wirst du keinen Unterschied sehen,

    Wo nichts zum Verziehen im Mesh vorhanden ist, kann nichts verzogen werden.


    Schnelles Beispiel, dass ist eine Displacement Funktion.



    Die eine Linie habe ich zu tief eingezeichnet, kann vorkommen, wenn es schnell gehen soll.

    Was hatte ich noch nach den Stiefeln vor einem knappen Jahr vergessen?


    Wie man richtig die Sandalen als Wearables Presets speichert. Dachte anfänglich, ich müsste die Sandalen markieren und unter Safe As -> Wearables speichern, doch bemerkte, meine Erinnerung spielte mir einen Streich, es muss immer die jeweilige Genesis markiert werden. So wie im Screenshot ist es richtig.



    Dann klappt es auch mit dem Laden und Zuweisen.



    Nun ist es gut.

    Das war aber nur ein Weg für Sparer mit genügend Zeit. Neu kaufen wäre eine andere Option und spart viel Zeit.

    Heute habe ich mir gewaltig den Tag vertrödelt, so wie schon lange nicht mehr. Die hochhackigen Schuhe gefielen mir für die Scene nicht mehr. Also wollte ich Sandalen von G8 für G9 passend machen. Umgekehrt hatte es ja mit den Boots von G9 zu G8 ganz gut und zügig geklappt, wie hier beschrieben und mit Werten im Screenshot.



    Dachte, dass ich die umgekehrten Werte einfach übernehmen könnte, doch nichts passte richtig, vor allem die Riemchen am Bein trieben mich zur Verzweiflung, denn wenn diese nicht mehr hinten im Bein verschwanden, saßen sie zwischen den Zehen nicht mehr richtig, oder schnitten im Fuß ein, oder zwischen Hacken und Sole bildete sich ein Spalt.

    Dann erst einmal Nachmittagsruhe und auf ein Neues. Lang hat es gedauert.


    Deshalb noch einmal eine kleine Schritt für Schritt Anleitung in Bildern für G8 Schuhwerk zu G9. Die Screenshots lege ich letztendlich für mich gegens Vergessen an, denn nach einem halben Jahr wüsste ich es sonst nicht mehr genau. Die benutzten Werte bereits nach wenigen Minuten, und ob minus oder plus als Vorzeichen bleibt keine 3 Sekunden im Gedächtnis hängen. Und ich kann nicht mehr als immer wieder darauf verweisen, gegen Vergessen helfen Notizen und Screenshots, oder wie hier, beides kombiniert.



    Der Export erfolgt in DS mit 1%, um in Blender mit der richtigen Größe importiert werden zu können, wurde ebenfalls vermerkt.


    Auch in Blender, dass ich für beide getrennten Schuhe auch jeweils den Origon zuweisen muss, hatte ich vergessen, aber schnell bemerkt. Enthalten sind im Srceenshot alle Arbeitsschritte, sowie die Werte für rechte und linke Sandale, da sich bei einigen Werten die Vorzeichen ändern. All Transform ist bereits zu Anfang wichtig, um die 90° von der x-Achse loszuwerden.



    In Blender erfolgt der Export mit 100%.


    #


    In G9 beim Import sollte die G9 nicht markiert sein. Die Schuhe nehmen zwar bereits den richtigen Platz ein, würden ihr aber noch nicht folgen. Also zuerst mit Transfer Utility diese einer G9 zuweisen.



    Nun sollten diese ihr in Posen folgen, und dabei auf jeden Fall richtig sitzen, was kontrolliert werden sollte.



    Ja und hatte ich noch etwas vergessen, dazu gleich noch etwas.

    Was immer geht, sind Spotlights. Meistens habe ich zuerst eine Kamera auf die gewünschte Position ausgerichtet, dann die Position der Kamera auf ein Spotlight übernommen.



    So in etwa hatte ich es mir zwar vorgestellt, doch von unten kommend, nicht von oben. Könnte sein, das man so in unliebsamen Kontakt mit den Flügeln kommt. Nee, eigentlich nicht, ist ja nur als Background gedacht.


    Eigentlich ist doch nichts klar, denn nehme ich bei der Lampe nur etwas Luminosity zurück, oder beim Gestein nur etwas Translucency, so geht nichts mehr. Ab und an aber geht auch so nichts mehr, wie in diesem Schreenshot. Das passt dafür gut zu meiner ersten Vermutung, dass der Ray Tracer verdeckte Objekte erst ab einen gewissen Schwellenwert berüchtigt.


    Zurück zum Background für die Szene mit dem Höllenengel.


    Steine habe ich nur noch einen erstellt, doch der lässt sich halt drehen und unterschiedlich skalieren, so das daraus fünf werden könnten. Aber weil der sich kaum im Umriss vom Größeren abhebt, wenn dieser vor diesem liegt, kam ich auf die Idee, zwischen den Steinen ein rötlich strahlendes Licht zu positionieren. Wenn schon keine Lava oder Magma, dann doch wenigstens der Schein davon.


    Luminosity an einem Stein ausprobiert,da brauchte ich den Wert nicht viel überdrehen, bis der die anderen Steine mit aufhellte. Die Vorderseite soll aber nicht mitleuchten und eine Noisetextur lässt sich nicht bemalen. Eine TG Sphere so verkleinern, dass diese zwischen die Steine passt, auf die Idee war ich noch nie gekommen. Jedenfalls beim Positionieren stürzte auf einmal TG ab. Ob es daran lag, sonst weiß ich immer den Grund, warum TG sich kommentarlos verabschiedet, von denen lag keiner vor. Also schnell eine kleine von Blender auf einem Stiel gesetzt.


    Weil der Boden so trocken und gerade verlief, den Hügel erneut mit eingebunden, dann aber abgesenkt und nur soweit angehoben, bis er kurz davor war die Kugel zu erreichen.



    Der Schieberegler geht von 0 bis 1 und ich bin bei 200, was bei den Steinen gut aussieht. Hat bei den meisten TG Funktionen nichts zu bedeuten, Matt selbst überzieht auch, und er muss ja wissen, was er da entwickelt hat.


    Jedenfalls im Dunklen, mit einem Wert von 200.



    Doch hier ist noch nichts zu sehen davon, aber warum?



    Nun mit einem Wert von 400 und die zusätzlich Steine auf Translucency. Hat Translucency hier eine Bedeutung?

    Nein, so stelle ich es mir nicht vor, also erst einmal den Wert wieder reduzieren.



    Vorläufige Vermutung, da es sich bei der Lampe um ein verdecktes Objekt handelt, welches von der Renderkamera nicht zu sehen ist, wird es erst vom Ray Tracer erst ab einen gewissen Schwellenwert berücksichtigt, wenn dieser zur Gesamthelligkeit einen Beitrag leistet. Aber zuerst nehme ich Translucency wieder heraus, um zu sehen, ob es einen Einfluss hatte.


    Ja, Translucency hat den größten Einfluss, ohne ist auch bei 400 nichts zu sehen.

    Vier Stellen sind da ziemlich schnell weg,

    Das stimmt schon, dass bei vielen Nutzern vierstellige Beträge sich bei Daz häufen können.

    Selbst kaufe ich noch gelegentlich Haare und Kleidung, obwohl vieles, wenn nicht alles, man in Blender selbst machen könnte. Wer wenig bis nichts ausgeben möchte, muss halt lernen, es selbst zu machen. Genügend Tuts gibt es eigentlich dazu, es ist nur zeitaufwendiger.

    Tatsächlich ist es in vielen Fällen ineffizient, Figuren mit einer extrem hohen Polygonanzahl (wie sie beispielsweise bei DAZ-Charakteren üblich sind) zu verwenden

    Da sollte ich wohl ergänzen, dass sich bei G, G3, G8 und G9 die Mesh Resolution von der Voreinstellung "High Resolution" auf "Base" herabsetzen lässt. Habe da anfänglich nur noch nicht darauf geachtet, doch dabei wird schon einiges an Rechenleitung gespart.

    Bringe es hier gleich. Also nein, Ansicht und Farben reichen nicht an die Beispiele in diesem Faden heran.



    Einen Versuch war es Wert, doch damit soll es auch gut sein.

    Eventuell für TG ein Heightfield daraus machen, könnte die bessere Lösung sein.

    Heute ein anderer Versuch eine Textur zu erstellen.


    Auf der ersten Seite vom Faden hatte ich versucht, einen Feldweg anzulegen. Teilweise mit vorgezeichneten Höhen, teilweise mit dem Painted Shader, als Masken für Surface Shader. Das Ergebnis war noch nicht rundum perfekt, unter anderen, weil sich mit dem Painted nur recht ungenau zeichnen ließ.



    Heute habe ich einen größeren Teil als Textur gerendert. Im Unterschied zum gestrigen Test befindet keine Noise Textur auf eine Plane, sondern die Perspektive der Kamera wird so gewählt, um möglich das zu erfassen, was wesentlich für eine Textur sein könnte. Ein Verschnitt wird ebenfalls nicht erforderlich, so das gleich in der gewünschten Endgröße gerendert werden kann. Der Schattenwurf durch die Sonne wurde deaktiviert.



    Die Unregelmäßigkeiten werden ersichtlich, die Unterschiede in der Breite es Weges sind zu, dazu noch eine Engstelle. In GIMP versuchen auszugleichen, am günstigsten durch Klonen, denke ich mir.


    Das vorläufige Endergebnis, abgespeichert als Color Map und als Normal Map.



    Was niemanden beim Lesen auffiel, einschließlich mir, ich hatte nicht darauf geachtet, ob invertiert werden muss oder nicht. Gut, lag wohl am Muster, das es nicht erforderlich wurde, weil schon die hellsten Töne auch die höchsten sind. Doch diesmal geht es nicht anders. Bekanntlich werden helle Töne im Bild höher angehoben als dunkle, und der Weg ist in helleren Tönen gehalten. Er soll aber nicht höher als das Gelände angehoben werden.



    Also invertieren.



    War es das?

    Wir werden es im DS Faden feststellen.