Beiträge von Melegrian

    Noch ein Rezept für halbtransparente Tattoos. Gut, die Transparenz lässt sich eigentlich im L.I.E. einstellen, aber es geht halt auch mit GIMP für eine Textur. Wollte ja einfach einmal probieren, wie so ein Mal (vom Teufel oder nicht) aussehen könnte. Ohne eine Wiederholung hätte ich den Weg innerhalb von sehr kurzer Zeit wieder vergessen.


    Vorlage:



    Erste Arbeitsschritte:



    Weitere Arbeitsschritte mit G'MIC für GIMP:



    Letzte Bearbeitungsschritte:



    Ergebnis links im Bild, rechts im Bild eine andere Farbtönung, die weniger zu einem Mal passen würde, aber etwas besser zum Typ und zu den Haaren, jedenfalls nach meinem Empfinden.



    Vielleicht fällt mir aber bis morgen oder in den nächsten Tagen noch eine bessere Lösung ein.

    Direkt bei Mandelbulb gab es schon Fragen und Antworten. Ist zwar 10 Jahre her, doch einfach einmal in dem Faden posten, vielleicht findet sich noch einer, der Deine Frage beantwortet.


    Mandelbulb 3D (MB3D) fractal generator / rendering software | Mandelbulb.com
    Mandelbulb 3D formulates a wide range of 3D fractals in a versatile rendering environment. Windows, Linux, and Mac versions. Free software application.
    www.mandelbulb.com

    Sah gerade in einem Forum einen Screenshot mit:


    Blend Mode: Alpha Chanal Blend -> wenn es sich um ein JPG handelt, den Farbwert entsprechend einstellen.


    Und funktionierte bei mir nicht, der schwarze Grund blieb schwarz.


    Also weiter geschaut, im fünften Faden ein Post mit fünf Links als Quellen, zwei funktionieren nicht mehr, einer gibt nicht viel her, ein Video habe ich bereits eingebunden und das zweite ist 10 Jahre alt. Dann aber ein weiterer Post von 2023 mit einem Link, da scheint es dann aber wirklich darum zu gehen.

    Unter dem Titel "Intermediate Challenge Juli 2023 - L.I.E. (Leyered Image Editor)" ist mehr verlinkt.


    July 2023 - Daz 3D New User Challenge - Portrait Rendering and L.I.E.
    New User's Challenge - July, 2023 Sponsored by DAZ 3D
    www.daz3d.com


    Einer hat es geschafft, mit magischen Emissionstexturen (wie er es nennt) die Haut partiell zum Glühen zu bringen.



    Was hatte ich gestern noch gemacht?

    Danach entweder Weiß entfernen, oder das Ursprungsbild einfach einfügen, würde eine geflammte Umrandung ergeben, denke ich mir. Werde ich noch ausprobieren.



    Aber jetzt werde ich wieder müde, schlafe nur noch Stunden, dann einige Stunden wach, danach wieder einige Stunden schlafen, immer im Wechsel. Mal schauen, wie ich wieder einen normaleren Rhythmus finde.


    Nein, das sieht nur auf dunklen Grund gut aus, auf der Haut eher nach einem entzündeten, ins Eitrige übergehenden Rand.



    Wobei Blau da eh nicht zu passen würde. Aber egal, war nur ein schneller Versuch. Also die Farbe Weiß nicht entfernen, nur das vorhandene Image als Ebene darüberlegen und vielleicht als Grundfarbe Goldgelb verwenden. Nur nicht für Tattoos geeignet.

    Wusste doch, dass es ähnliche Male gibt, nur Brandzeichen oder Brandmal war nicht der richtige Ausdruck. Ist ja schon nunmehr über 50 Jahre her, als ich einmal den Hexenhammer las. Wobei ich mir heute nicht einmal sicher bin, inwieweit der Hexenhammer von Krammer darin enthalten war, oder ob das Buch sich nur auf diesen bezog, um die Torturen zu beschreiben. Jedenfalls waren es fünf Torturen, es begann mit einfachen Daumenschrauben, und steigerte sich dann bei Leugnern.
    Aber im Vorfeld wurde auch nach Hexenmalen gesucht oder regional eine Wasserprobe durchgeführt. Wer mit zusammengebundenen Händen und Füßen in einem Fluss nach unten sank und ertrank, war schuldlos, oder so ähnlich.

    Zitat

    Das Hexenmal ist ein angebliches Zeichen, das der Teufel nach Abschluss eines Bündnisses (Teufelspakt) vermeintlichen Hexen oder auch Hexenmeistern gleichsam wie einen Stempel auf die Haut drückte.

    Ganz sicher war das aber nicht immer so, als der Hexenhammer erschien, war das Spätmittelalter bereits so gut wie vorbei, die Hexenverfolgungen begannen mit der Frühen Neuzeit erst so richtig. Und noch viel früher war alles ganz anders. Mit gefallen Engeln hätte eh keiner so umgehen können, diese waren sicherlich selbst mächtig genug. Luzifer selbst soll ja nur ein gefallener Engel gewesen sein.


    Nun aber genug davon, ein Tattoo passt sicherlich zu ihr, doch so richtig wollte es bisher nichts werden. Bisher sah ich nur einige Videos über den Layered Image Editor, und diese würde ich eher als rudimentär vom Inhalt bezeichnen. Bisher habe ich nur den Blend Mode "Multiply" und "Source Over" getestet. Also heute die erweiterte Suche von Google genutzt, was sich bei Daz 3D zum Thema finden lässt. Alles und nichts. Jedenfalls seitenweise Foreneinträge vom Daz 3D Forum, wer will diese sich alle durchlesen? Dann im Daz Documentation Center, irgendwie enttäuschend, Links zu 64 Seiten, wo der Editor zu einem Produkt oder im Change Log kurz erwähnt wird, mehr aber auch nicht. Nun gut, vom Documentation Center bin ich nichts anderes gewöhnt.


    Beginne jetzt aber zuerst mit GIMP. Weil ich selbst erst wieder danach suchen musste, mit welchen Filtern sich was erreichen lässt, habe ich mir diesmal Screenshots angelegt. Um aus einer optisch völlig planen Vorlage so etwas wie eine 3D Textur zu machen, könnte man bei der einfachen SVG mit dem Drachen wie folgt vorgehen.


    Zuerst mehre Kopien anlegen, bei einer den Rand abschrägen, eventuell einmal wiederholen.



    Bei einer anderen Kopie bei den Kanten den Neoneffekt anwenden.



    Nun bei der Kopie mit dem Neonrand die Farbe Schwarz nach Alpha schicken und anschließend als oberste Ebene auf die Kopie mit dem abgeschrägten Rand benutzen. Das Ergebnis ist eine plastisch wirkende Textur, die sicherlich in einem anderen Farbton, wie z.B. Gelbgold, und mit den passenden Maps (eine Graumap müsste invertiert und an einigen Stellen bearbeitet werden, denke ich mir) ihre Wirkung nicht verfehlen würde.



    Aber nun wieder zum Layered Image Editor, wollte ja nur einmal sehen, welcher Einfluss von den beiden, bisher benutzen Mode ausgeht. Mehr habe ich noch nicht getestet und die Liste ist lang. Für die Tönung der Haut und den Schattierungen unter den Augen schien mir bisher Multiply gut geeignet, nun für Tattoos allgemein, da würde ich meinen ist Source Over die bessere Wahl.




    Nun fürs Tattoo der Vergleich mit der Textur.



    Also für Tattoos wäre eindeutig Source Over die bessere Wahl, würde ich meinen, damit es nicht wie Schwarz, sondern wie Schwarzblau wirkt. Den Farbton könnte man sich nun aus der Textur picken.


    Und wer hat die anderen Modes bereits getestet?

    Zweite, aber noch nicht die letzte Anprobe.


    Noch etwas die Textur nachgebessert, vor allem die Verläufe.
    Schon besser, würde ich meinen.



    Nun noch mit den Einstellungen etwas runter.


    Base Color die Deckung von 65 % auf 50 % verringert, und bei

    Translucecy Color die Deckung von 55 % auf 40 % reduziert.


    Erster Vorher-Nachher-Vergleich, also ohne und mit Untermalung unter den Augen.



    Was mir noch nicht gefällt ganz gefällt im rechten Bild, etwa ab mit der Pupille bis es ohnehin dunkler wird, sollte ich noch etwas über der Linie vom Unteraugenring schattieren. Aber auch so gefällt es mir schon etwas besser als das linke Bild.


    Also ja, man kann nach diesen grünen Landsmark zeichnen, auch wenn man wenig Talent besitzt, man muss nur häufiger vergleichen. Habe mit drei Hintergründen gearbeitet, eine Headtextur ohne grüne Linien, eine mit den grünen Linien, und einen weißen Hintergrund, die ich dann im Wechsel eingeblendet habe, um besser zu sehen, was ich mache. Und wann ich hatte ich angefangen mit den Experimenten, das war erst am Dienstag. Würde sagen, innerhalb einer Woche hat man es weg, um mit dem Layered Image Editor brauchbare Ergebnisse zu erzielen, zumindest um vorhandene Texturen den eigenen Vorstellungen anzupassen. Wobei, wollte ja erst über Blender gehen, doch diese UV-Ansicht habe ich ja nun gar nicht benutzt.


    Nun der letzte Vergleich, habe die eine Stelle unter den Augen so gut es ging nachgebessert.



    Was jetzt noch fehlt, ist eine Idee fürs Tattoo. Gute Bilder aus der Hölle gibt es nicht so sehr viele. Was ich schon gesehen habe, Zeichen auf der Stirn, die an zu leuchten fangen, doch das wird hier nichts, jedenfalls nicht auf der Head Textur.

    Erste Anprobe


    Ja, hat noch Mängel. Eingebunden ist Ebene (Layer) mit 65 % unter Base Color und mit 55 % unter SSS. Könnte noch etwas weniger sein, soll ja nur unterm Auge nicht zeichnungslos bleiben. Habe mich an den grünen Linien gehalten, doch man sieht z.B. auf der linken Seite (von ihr aus die rechte Seite), dass da ein heller Absatz entsteht, weil zu wenig Verlauf vorhanden ist. Und dann noch das eine oder andere.



    Habe mir aber die Temps im Istzustand gespeichert, vielleicht wird es nun leichter, wenn ich diese als Malgrund lade.

    Und noch etwas wäre erwähnenswert, weil ich auch gerade darüber stolperte. Pinsel haben einen Nachlauf zur Stabilisierung. Hat der Flame Painter ebenfalls, bei beiden Anwendungen soll es dazu dienen, dass kleine Verwackler ausgeglichen werden, indem der Pinsel nur der mittleren Linie des Pinsels folgt. Bei den Linien um den Augen war dieser Nachlauf von 50 px zu viel, sodass der keinen Bogen richtig folgte, sondern eine Abkürzung nahm.


    Lässt sich aber leicht einstellen und anpassen.


    Und dann keimt da noch die Frage, weil in den Temps mehr als nur diese Textur lag, ob da nicht alle Texturen nach der Benutzung von Layers dort liegen?
    Falls es so sein sollte, brauchte man diesen Layered Image Editor nur benutzen, bis man sich die fertigen Texturen aus den Temps kopieren kann.


    Gut, was zur Laufzeit verändert wird, das liegt auch zur Laufzeit von DS bei geöffneter Szene in den Temps, jedoch als PNG Dateien mit viel Gewicht.

    Nein, die lassen sich nicht kopieren, aber "öffnen mit ...", was letztendlich aufs Gleiche hinausläuft.



    Diese als JPG Dateien mit 100 % gespeichert, also ohne Komprimierung, werden zwar immer noch größer als die von DS, doch man brauchte dann keine Layers mehr laden. Dürfte einer meiner nächsten Tests sein, wie sich das auf die Renderzeiten auswirken würde?


    Ergänzung!


    Die eine Datei mit den grünen Linien hatte ich mir bereits gesichert, nun wollte ich noch die zweite Malhilfe eventuell mit zunehmen. Das Zuschneiden ist wirklich kein Problem, das packt selbst mein uraltes PSP noch und stammt noch aus dem letzten Jahrtausend.




    Quick-Start Krita


    Nun noch einige wenige Zeilen zu Krita. Sicher, ich benutze Krita weniger häufig als Gimp, betrachte es aber als eine wertvolle zusätzliche Hilfe, wenn es um Aufgaben wie diese geht. Aber weil ich es wenig benutze, vergesse ich das eine oder andere halt wieder. So war heute mein exakter Farbwähler verschwunden und ich musste erst einmal wieder schauen, wo ich den gefunden hatte. Deshalb habe ich mir heute auch für Krita einige beschriftete Screenshots angelegt, die das Wichtigste enthalten, um damit arbeiten zu können. Und wer bisher Krita noch nicht kannte, kann nach diesem Quick-Start in drei Bildern ebenfalls sofort loslegen.


    Das erste geladene Bild betrachtet Krita automatisch als Hintergrundebene und fügt mit einem Klick auf Plus eine Malebene ein. Ein zweiter Hintergrund kann so jedoch nicht geladen werden. Dafür kann aber die erste hinzugefügte Malebene verwendet werden, in der es mit Drag and Drop hineingezogen oder mit Copy and Paste eingefügt wird. Nun haben wir zwei Hintergründe als Malhilfen von DS geladen, zwischen diesen kann durch ein- und ausblenden gewechselt werden. Beim Speichern des Projektes das untere Häkchen nicht vergessen, um nicht bei jedem neuen Versuch die Ebenen neu anlegen zu müssen, falls es nicht beim ersten Versuch bereits perfekt klappte.



    Weil Augen meist paarweise ziemlich gleich aussehen, empfiehlt sich das symmetrische Zeichnen zu benutzen. Damit aber auch exakt die gleiche Position auf der gegenüberliegenden Seite getroffen wird, ist es ein Haar breit umständlicher als in Blender. Zuerst kräftig ins Bild zoomen, bis die Pixel sich bei 2048 ablesen lassen und die Linie dort gesetzt werden kann. Aber was ist von 4096 die genaue Hälfte, gehört die Teilung nicht eigentlich genau auf die Trennlinie zwischen 2048 und 2049?

    Nun ja, der Pinsel verhielt sich eigentlich wie erwartet. Bisher zumindest nichts Verdächtiges bemerkt.



    Und dann noch eine kleine Empfehlung. Wer nebenher noch Fotos geöffnet hat, oder im Browser sich Farbwerte aus anderen Bildern picken möchte, für denjenigen könnte der exakte Farbwähler von Vorteil sein, um RGB Werte direkt einzugeben oder kopierte Hexwerte einfach mit Paste einzufügen.



    Der Rest an Einarbeitung besteht dann praktisch nur noch in der Auswahl eines geeigneten Stiftes oder Pinsels. Mehr braucht man erst einmal nicht zu wissen.

    So, den Grauwert der Mundmaske habe ich für Neander auf 128 RGB eingestellt, wobei es letztendlich aber nur ein Anhaltswert für lineare Farbprofile wäre. Bei wahrgenommenes Licht (sRGB) oder was auch immer, wäre es nur noch ein Näherungswert. Die größten Unterschiede gab es bei TG zwischen RGB, sRGB, Gamma 2.2, Gamma 1.8 und Gamma 1.0, bei DS weiß ich bisher nicht einmal, mit was unter der Haube gerechnet wird.

    Beim Tattoo habe ich den Rotanteil zugunsten des Blauanteils verringert, auch einmal geschaut, was passiert, wenn ich es unter SSS nur mit 80 % einbinde, weil die SSS Textur ohnehin heller ist, doch es wird noch immer reichlich schwarz dargestellt, statt einem schwarzblauen Farbton, nun ein sehr dunkelgrauer. Doch das würde ich noch hinbekommen, denke ich mir, wenn einmal ein Tattoo benötigt würde.
    Anders mit einem Brandzeichen, von Pferden brauche ich keins, für Menschen waren auch einige zu finden, doch der Mensch wird vergesslich, denn erst heute fiel mir ein, ich habe ja selbst kleine am Handgelenk. So etwas kann man mit den Jahren halt vergessen. Das war eine Verbrennung mit Kalk, der eigentlich gelöscht sein sollte, dennoch anfing zu brennen fing. Man erkennt es eigentlich nur daran, dass diese Stellen weniger Farbpigmente enthalten, somit im Sommer etwas heller aussehen.


    Habe heute auch viel mit den Malhilfen von DS experimentiert, diese scheinen durchaus hilfreich zu sein und einiges vereinfachen. Doch wem würde es hier interessieren? Bei Blender Themen läuft es, bei DS ist in diesem Bereich eher tote Hose. Aber nein, ganz so ist es nicht, denn die Video Tuts erhalten ja viele Likes und darauf wollte ich mich ja eh mehr konzentrieren.


    Beginne einmal mit den Landmarks, die nicht nur in Blender oder ZBrush eine Hilfe sein können, sondern z.B. auch in Krita oder GIMP. Als unterste Ebene benutzt, ist es nicht schwieriger, als vergleichsweise ein Malen nach Zahlen. Was aber sicherlich besser wäre, diese nicht für eine beliebige G9 zu verwenden, sondern für einen gewünschten Charakter.



    Die Texturen liegen in der Runtime, jedoch es handelt sich nur um eine große, die alle Texturen enthält. Zuschneiden sollte aber kein Problem sein, denn beide Texturen für feminin und maskulin sind 8.192 Pixel groß. Hier z.B. die obere linke Ecke mit 4096 im Quadrat auszuschneiden, ist kein Problem für GIMP oder anderen Bildbearbeitungsprogrammen und der beinahe perfekte Background als Malgrund wäre fertig. Sollte sich ebenfalls beinahe perfekt mit einer UV Map von Blender vereinen lassen, um nach diesen Linien zu schattieren, oder was auch immer.



    Schrieb beinahe perfekt, richtig perfekt vermutlich aber nur für Base feminine oder Base maskuline. Bin mir nicht sicher, inwiefern diese sich einem bereits verzogenem Mesh für einen Charakter anpassen würde.


    Das habe ich heute nur mit anderen Landsmark getestet, also nicht mit den unter Material, sondern mit einem Layered Overlay. Mit einer Base Figur gut und schön.



    Doch wie sieht es mit einem Charakter aus?

    Die Textur mit den Linien, so wie in kleiner Ansicht links zu sehen, liegt in den Temps unter App Data und kann dort kopiert werden. Anschließend mit einem UV Meshansicht von Blender komplettiert oder ohne als Malgrund verwendet werden.



    Nun in der Ansicht mit einem Charakter gibt es Abweichungen.


    So ist hier z.B. die Unterlippe in der Breite abweichend, ebenso die Augenbrauen.



    Der Bereich unter den Augen, den ich noch gerne etwas mehr bei ihr schattieren wollte, dafür hingegen immer noch gut geeignet, denke ich mir. Wenn ich damit aber etwas mehr verändern möchte, sollte ich zukünftig keine graue DEV in Blender für eine UV Ansicht verwenden, sondern den benutzten Charakter. Nach meiner kleinen Übung vor einigen Tagen sollte dies bereits zügiger gehen.

    Nun ein neuer Test, nur mit einem transparenten Layer, ohne Maske. Für dieses Motiv wird keine benötigt, ich hatte es nur mit Maske getestet, weil für die Lippen eine benötigt wird, um diesen vor zu viel Bräune zu schützen, ohne sie gänzlich auszuschließen.


    Also ein einfacher Layer auf transparenten oder weißen Grund.

    Nahm einen transparenten, doch im ersten Video benutzt er einen weißen, was demnach ebenfalls funktionieren sollte. Farbton wie gehabt, ein dunkles Blau. Hätte noch etwas heller oder blauer sein können.



    Was ich bei den ersten Tests übersehen hatte, dass beim Zoomen dünne Scrollleisten entstehen, und so die Textur beliebig verschoben werden kann, je nachdem, wo etwas platziert werden soll, ohne diese später wieder nullen zu müssen.



    Da die Farbpartikel bei einem Tattoo bekanntlich unter der Haut liegen, muss hier der Layer zweimal eingefügt werden. Einmal bei Base Color und einmal bei Translucency Color.

    Wer damit nichts anfangen kann, die Bezeichner für die translucency Texturen enthalten das Kürzel SSS, welches für SubSurface Scattering steht. Und wer sich mit diesen Texturen oder Shadern nicht auskennt und nicht weiß, wofür die gut sein sollen, kann unter Volumenstreuung in der Wikipedia nachschlagen, oder sieht sich die Beschreibung mit vielen Beispielbildern in der TG Wiki von Planetside an, darunter auch, z.B. wie es sich mit Roughness Shadern oder Texturen abstimmen ließe. Jedenfalls wird die oberste Hautschicht etwas durchscheinender, wodurch die darunterliegenden Farbpartikel des Tattoos sichtbar werden.



    Aber ich werde beim Brandzeichen bleiben, lieber an diesem noch etwas arbeiten, passt einfach besser zu ihr.

    Und siehe da, also zum Endergebnis.


    In der Vorschau blau wie ein Tatto:



    Aber im Testrender eher ähnlich einem Brandzeichen/Brandmal, welches ihr wirklich gut steht.



    Als Preset habe ich es erst einmal gespeichert, mit den Farben werde ich noch etwas spielen.

    Ein Brandzeichen passt sicherlich besser zu ihr, als irgendein Tattoo.

    Heureka!


    Erstes kleines Erfolgserlebnis.


    Aber der Reihe nach.

    Nach einigen Stunden Schlaf dachte ich daran, es einmal mit Tattoos zu versuchen. Schaute kurz bei Etsy vorbei, entweder nur für einen Test zu teuer oder für wenig Geld nichts was mir zusagte. Aber, siehe da, der letzte Anbieter räumte mir 10 % Rabatt für weitere Feuer Texturen ein. Liegt vielleicht mit an meinen guten Bewertungen, die ich ihm gab.


    Jedenfalls dachte ich dann, nur für einen Test sollte es doch genügen, wenn ich eines meiner SVG Motive nehme, die ich für Schilde zu liegen habe. Die Linien sind zwar nicht so dünn wie bei Tattoos, doch mehr als ein Test soll es ja nicht werden. Hier ein Screenshot noch vor dem Invertieren.



    Nun los, ab damit nach DS.

    Für Color Layer nicht schwarz, sondern ein dunkles Blau gewählt.



    Und weil zuvor nach Zoom in die Ansicht von der oberen linken Ecke aus gezoomt war, jedoch nicht in die Bildmitte hinein, wollte ich es verschieben. Bei meinen Zoom-Scripts, die ich vor vielen Jahren einmal schrieb, war das problemlos möglich. DS ist hingegen eher ist Vorsicht zu genießen, denn da sah es danach auf einmal in der Vorschau so aus.



    Aber keine Panik, die Textur lässt sich auch wieder nullen.



    Was aber wichtig ist, die Maske zu markieren, zu skalieren und auszurichten.



    Und siehe da, kommt im nächsten Post.

    Lösung!


    Eine neue Maske mit Grautreppe erstellt.



    Diese wird erkannt, sowohl in der Vorschau, als auch im Testrender.



    Doch der Regler für Opacity wirkt nur auf die Color Layer, nicht auf die Maske.

    Beispiel bei 50 %.



    Um den Grauwert für die Teildurchlässigkeit für eine Maske zu ermitteln, lässt sich am besten eine einfache Grautreppe verwenden. Dann im Testrender den Grauwert anhand der Treppe ermitteln, der die gewünschte Teildurchlässigkeit zu bieten hat. Also das ist nur noch abzählen, welchen Grauwert man statt schwarz in einer Maske verwenden möchte.



    Somit eigentlich ganz einfach und Grautreppen gibt es zu Hauf im Web, die oben sichtbare Textur erfüllt ja bereits ihren Zweck.


    Binde einmal meine ein, die ist im Format 1024 im Quadrat.


    Nächster Test mit einer Maske mit Alpha Kanal und weiß bereits volle Transparenz. Nun halt als PNG gespeichert.


    Gar keine Reaktion mehr von Maske und Color Layer, die Plane bleibt einfach weiß.
    Außer wenn ich invertiere, dann erhalte ich das erste Ergebnis, nur halt umgekehrt.




    Versteht die Maske kein Opacity?


    Sollte sie eigentlich schon. Wäre ja schrecklich.

    Die Geschichte mit der Maske kam mir noch nicht wirklich geheuer vor. Und weil meine Schlafenszeiten z.Z. eh völlig durcheinander sind, erst einmal einige Tests mit einem Fliegengewicht gemacht.


    Also zwei Texturen für eine weiße Plane vorbereitet, die weiße als Textur, die schwarz/weiße als Maske. Schwarz sollte undurchlässig sein, Weiß hingegen durchlässig, eigentlich zumindest.


    Links Textur / rechts Maske.



    Also zuerst die Textur auf Plane ziehen, diese wird vom Layered Image Editor auch als solche erkannt.



    Danach eine Color Layer hinzufügen und danach die Maske, damit die Color Layer nicht auf der ganzen Fläche wirkt. Sie sollte zwar auch in der Mitte wirken, dort aber nur mit 50 %. In der Vorschau vom Editor sehe ich keine Veränderung, egal ob ich darunter Schwarz oder Weiß einstelle. Von Transparenz oder halber Durchlässigkeit keine Spur.



    Und im Testrender sehe ich davon ebenfalls nichts.



    Ich meine, dass das Weiß von der Plane den durchlässigen Bereich für die Colorlayer darstellt, wird ja erkannt. Doch dass der schwarze Bereich nur zu 50 % die Colorlayer blocken soll, wird nicht erkannt.

    Der Test brachte keinen Gewinner. Gleich ob eine mit DS erstellter Layer oder eine mit Gimp getönte Textur, die Renderzeit nahm bei beiden um etwa 5 % zu.


    Entschied mich für Layers, diese wiegen bisher erst einmal nichts. Für den Mund fügte ich eine Maske hinzu. Ja, die Lippen verändern sich eigentlich entsprechend der Hauttönung, wollte diese aber nicht blutleer darstellen. Habe mich dann für einen Wert von 50 % entschieden. Rein theoretisch würde die Haut nun um 20 % dunkler und die Lippen um 10 %, nur mit der visuellen Überprüfung habe ich ein Problem.



    Da ich eine feminine Textur aufgezogen hatte, habe ich erst einmal an ihr und nicht an ihm weitergearbeitet.
    Der Name für ein Preset sollte das zwar ausdrücken, andersherum aber auch nicht zu lang sein, um beim kleineren Bild eingekürzt zu werden. Sonst erkennt man am Ende nicht, welches Preset wofür ist.



    Was im Preset enthalten ist, ist der Name vom Preset, die benutzte Textur usw. , ob es sich auf eine andere Textur anwenden lässt, habe ich noch nicht ausprobiert



    Um nicht viele Layers für unterschiedliche Texturen erstellen zu müssen, dachte ich daran, Body, Arme und Beine mit Make-up anzugleichen. Hat einen Nachteil, Make-up deckt zu oder ab, etwas dicker aufgetragen, sieht es dann nicht mehr natürlich aus.



    Nun werde ich schon wieder müde, geht mir seit Tagen so.

    Nun in GIMP die Texturen nach den ermittelten Werten vorbereiten, um eventuell auf Layers für die Hauttönung verzichten zu können.

    Was wichtig ist, für die bearbeiteten Texturen ein neues Verzeichnis anzulegen, um keine Originale zu überschreiben. Für diese erstelle ich eins in der Runtime, doch die können auch unter Dokumente oder wo auch immer liegen.


    Multiply wird wohl jedes bessere Bildbearbeitungsprogramm verstehen, so sicherlich in PSP und GIMP.

    Wobei mich heute der Firefox ein Add On aufgeschwatzt hat, was gerade anschlug, weil Multiply nicht im Duden steht. Und gegen "Nun gut", hat es auch etwas.



    Nun gut, in Gimp nennt es sich Multiplikation. Der Vorteil, selbst bei 100 % Deckung, wird das darunterliegende Image nicht restlos zugedeckt, sondern die Farbwerte werden nur miteinander verrechnet.



    Doch der Algo unter der Haube unterscheidet sich wohl etwas, was vom verwendeten Farbprofil und anderen abhängen könnte. Jedenfalls sind hier 20 % Deckung etwas weniger als mit der von DS erstellten Layer, wie ein erster Testrender ergab. Der Farbwert ist der gleiche, den lieferte mir Google bereits als Vorschaubild für Farbton Schokolade, brauchte nicht einmal in die Bildersuche wechseln.



    Gut, dafür werde ich mich etwas mehr Zeit lassen, es ist eh eine Textur von einem femininen Skin. Zunge und Lippen sollten ebenfalls nicht mit eingefärbt werden.


    Nachteil, die JPG Texturen von DS sind komprimiert und wiegen um die 2,6 MB. Wenn ich ein bereits zuvor komprimiertes JPG erneut komprimiere, könnte es eine Pixelstreuung nach sich ziehen. Also speichere ich es mit 0 % Komprimierung und meine Texturen werden nun über 8 MB groß. Auch da müsste ich noch kontrollieren, inwieweit damit die Renderzeit beeinflusst wird, ob eventuell nicht doch von DS erstellte Layers günstiger sind.

    Ein erster Test, nur mit einer (nicht vorher angelegten) Color Layer.

    Also nur + Add Color Layer.



    Dann Blend Mode auswählen, in einem Video sah ich Multiply, erschien mir ebenfalls als geeignet.



    Dann der Layer einen Namen geben und die Deckfähigkeit in Prozent einstellen.



    Wie es wirkt, sieht man erst im Render richtig.


    Mit 14 % sieht es noch nach etwas mehr sommerlicher Bräune erwünscht aus.



    Mit 20 % erscheint es mir ausreichend, am deutlichsten am unteren Ende der Textur zu sehen. Beides hier schon unter Save AS -> Layered Image Preset gespeichert. Sollte dann eigentlich auf alle G9 anwendbar sein, zumindest auf die, welche die selbe Textur benutzen.



    Die Renderzeit mit Layer nahm um etwas 5 % zu. Kann sein, dass dies bei anderen Rechnern weniger ist, oder beinahe keine Rolle spielt.

    Wenn ich aber daran denke, dass die anderen Hauttexturen noch nachgeholt werden müssten, könnte die Renderseit merklich zulegen. Folglich könnte es günstiger sein, lieber die benötigten Texturen zu kopieren und mit einem Bildbearbeitungsprogramm zu bearbeiten. GIMP kennt ebenfalls Multiply.

    schau dir auch das mal an.

    Wenn ich etwas von monatlichen Preis lese, schalte ich ab.

    Anfang des Jahres hatte ich mir den Flame Painter geholt, zum Einmalpreis, das Geld hat mir bis heute nicht leid getan, obwohl noch etwas teurer als zur Zeit. Gebraucht bisher genau einmal. Monatlich würde ich nur dann für etwas bezahlen, was ich auch monatlich benötigen würde, und nicht für ein bis zweimal im Jahr.

    Jeder DS Nutzer wird wohl bereits mehr als einmal eine Textur gegen eine andere ausgetauscht haben. Mir ging es dabei bisher stets so, dass ich nach dem Einblenden der Liste auf "Browse..." klickte, eine andere Textur lud, und damit hatte es sich. Gut, den Image Editor hatte ich wohl einmal aufgerufen, festgestellt, dass ich keine Verwendung für den hatte, doch den darunterliegenden Layered Image Editor bisher noch nicht.



    Zumindest bis gestern, denn da schlug mir YT ein Video dazu vor, und dabei erkannte ich, dass dieser Layered Image Editor doch vielfältiger nutzbar sein könnte, als ich dachte.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Am Ende des Videos empfiehlt er, als Grundlage eine gespeicherte UV Map als Hilfe zu verwenden. Nun ja, auf diese Idee kam ich ja bereits bei Chincha ihren Boots auf der ersten Seite dieses Fadens, bei denen ich einen Schattenwurf anfänglich nur durch eine Bump Map andeute, bevor ich in die Stiefel mit Hilfe einer Weight Node gut sichtbare Falten ins Material zog. Damals genügte mir aber ein Screenshot von der UV Ansicht im Arbeitsfenster, diesmal nicht, weil selbst ein zugeschnittener Screenshot reichlich zu wünschen übrig lassen sollte, wenn dieser zu 4096 im Quadrat aufgebläht wird. Woher nun nehmen, da ja DS keine Speicherfunktion für eine UV Ansicht zu bieten hat?


    Bei der Gelegenheit gleich ein zweites Tut zum Thema, weil unter dem Video sich zwei Links zu allen UV Maps von Genesis 8 female und male befinden.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Für G9 dann dieser Faden, der neben Blender noch andere Möglichkeiten erwähnt.


    Gibt es eine Möglichkeit, die UV-Ansicht von DS zu exportieren


    Nun ja, da Blender ohnehin geschätzt jeder zweite oder jeder dritte Forum-User auf dem Rechner hat, habe ich halt damit zuerst einmal die UV Map vom Head erstellt. Beim ersten Anlauf noch etwas dumm angestellt, weil ich selten mit Blender arbeite, doch beim zweiten Anlauf ging es dann schneller und besser. Notizen dazu in diesem Faden.



    Im zweiten Video werden mögliche Arbeitsschritte in GIMP beschrieben, doch ich würde die UV Map auf weißen Grund einfügen, die Ebenen nach unten vereinen, und diese dann als Background benutzen, der nur schwach durchscheint. Am Ende nicht vergessen, den Background zu entfernen. Da mein Pentablet aber nicht mit GIMP zusammenarbeitet, werde ich es wohl mit Krita angehen und Krita legt bereits von sich eine Malebene/Layer über jedes geladene Original.


    Ob nun das erstellen einer Layer mit Krita nach einer UV Map einfacher wird, als mit Texture Painthing in Blender direkt ein Face zu bemalen, wird sich zwar noch herausstellen müssen. Denke aber, um z.B. um ein Tattoo oder Lidschatten auf einer Genesis zu platzieren, könnte der Layered Image Editor eine Hilfe sein und GIMP oder Krita die bessere Wahl.

    Bisher weiß ich noch nicht so genau, wie am besten vorgehen. DS verfügt über einen Layered Image Editor, der wäre gar nicht so schlecht, wenn sie nicht den Pinsel vergessen hätten. Man kann aber einen vorhanden Layer gut damit vorbereiten, auch dessen Deckfähigkeit bestimmen, wenn ich es richtig verstanden haben sollte. Nicht nur für Face Texturen, sondern z.B. auch um ein zusätzliches Muster auf Stoffen zu erzeigen und anderes. DS verfügt nebenher auch über eine Ansicht der jeweiligen UV Maps, wobei sie das Abspeichern in voller Größe vergessen haben. Als Schreenshot wäre es nur etwas für kleine Texturen eine Hilfe. Der einfachste Versuch wäre, eine Ansicht der UV Map mit Blender in voller Größe zu speichern und als Malhilfe zu verwenden.


    Auf Select All bin ich nicht gegangen, weil Blender mir da noch die anderen Texturen daneben legte, und dadurch nichts mehr zu erkennen war. So ist die Ansicht etwas unvollständig, weil Faces mit Schulteransatz und Halz eigentlich bis zum unteren Bildrand reicht, auch die Zunge oben liegende Zunge fehlt, und beim Inneren der Nasenlöcher wurde nicht alles erfasst.



    Als Malhilfe geht es aber, denke ich, wenn man diese Ansicht als unterste Ebene durscheinen lässt, und nach Fertigstellung das Löschen der ebene nicht vergisst.



    Und falls nicht, muss ich mir das mit Blender besser anschauen.


    ---


    Zwischendurch einige Stunden geschlafen, dann festgestellt, dass es selbstverständlich auch mit Select All geht, schneller und besser.


    Links nun auch mit Zunge und rechts im Inneren des Head.


    solange die UV-Map auch nicht verändert wird.

    Hatte mehre Videos gesehen, in einigen ging es nicht um Texture Painting, sondern um Skin Texturen, wobei unter UV Editing gearbeitet wurde. Die UV Maps wurden dazu bearbeitet, wenn auch nur geringfügig, um Mundwinkel oder Augenform neu anzupassen. Mir geht aber nur um Texture Paintig, um die vorhandenen Texturen zu übermalen. Gesehen hatte ich, wie z.B. eine Ebene mit Sommersprossen darübergelegt und angepasst wurde.

    Wenn DS hauptsächlich JPGs benutzt, ist das wohl den Datenmengen geschuldet, die bei 4 und 8k-Texturen

    Das wird wohl so sein, jedenfalls sind diese zusätlich noch komprimiert, bilden aber dennoch jede Hautpore aus der Nähe betrachtet ab. Wenn ich diese in GIMP öffne und bearbeite, aber unter einer anderen Endzahl speichere, haben meine meine JPGs mehr MB als die Originale.


    Bin mir jetzt nicht sicher, ob Blender unter Texture Painting eine Face Textur von Genesis so abwickeln würde, dass diese von Größe und Position unverändert bleibt. Sah nur ein Video und verstand nicht alles. Blender wollte alle Texturen auf die gleiche Fläche unterbringen, doch irgendwie hatte er hinbekommen, dass es doch ging.

    Heute habe ich noch einmal den Smoothing modifier mit dem Push Modifier verglichen.


    Das war eine der Posen, die Abschließend eine ausgefressene Kante hatte.



    Der Push Modifier bläht etwas zu sehr auf.



    Der Smoothing Modifier löst es eleganter.



    Abschließend Remove den Push Modifier. Den Smoothing aber nicht, diesen mit seiner Grundeinstellung unter Wearables gespeichert (bestehende Preset überschrieben), um bei Bedarf einfacher nachreglen zu können.


    Nun sollte es wirklich gut sein.

    Ausgerechnet in der Zero Pose stellte sich eine kleine Fehlerstelle ein.



    Noch ein Maß korrigiert, nun hält es in allen normalen Posen, die nicht zu extrem überzogen sind.




    in einigen extremen Posen kommen zwar noch Fehler, habe die Schuhe aber dennoch als Preset gespeichert.


    So soll es erst einmal gut sein, ein einfacher Push Modifier wäre zu viel geworden, weil der den ganzen Schuh wieder angedickt hätte.