Beiträge von vidi

    Es werden mittels Transfer die Bone Wichtungen von der Genesis auf dein neues Mesh übertragen, da die Genesis nun mal zwei Beine hat, wird genau das auch übertragen.


    Das Transfer Utility ist immer die Basis und bedarf danach der händischen Feinjustierung mittels dem Weightmapping

    Ich sehe gerade, wenn man Rigify aktiviert gehts noch easier mit CC Add-on


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Hast du Charakter und separat die Animation vorliegen? Wenn ja und du das  Add-on installiert hast, kannst du ganz einfach den Charakter und deine Animationen direkt in Blender importieren



    Im Scene Collector selektiert du dann zuerst den Charakter, den du die Animation geben möchtest und dann die Animation.

    Im Object Mode gehst du zu Menü Object Link Transfer / Data > Animation. Nun sollte der Charakter die Animation übernommen haben

    Also Blender kocht da auch nur mit Wasser und ist nicht präziser als der DAZ Groupeditor. RMB eröffnet das Zusatzmenü dann die Polygone selektieren und Surface Group erstellen, fertig



    Wenn durch ein externes Programm die UV Map wurde verändert wurde, kann man unter Figuren Geometrie die Option Load UV Set nutzen und muss das dann im Surface Tab auswählen.


    Bei Hexagon kommt eine erstklassige Anleitung mit, auf Seite 27 findest du Mouse und Keyboard Navigation.

    http://docs.daz3d.com/lib/exe/fetch.php/public/software/hexagon/2/userguide/hexagon_manual_us.pdf

    Ich bin zwar nicht der Applefreak aber mit dem ipad und Clipstudio macht das auch riesen Spaß zu zeichnen und malen. Sehr schönes Feeling mit dem Applepencil und Paperlikfolie.

    Habe aber auch noch ein Huion am PC auch toll, weil schön groß und hat von Hause aus eine matte Oberfläche, das ist immer besser als auf Glas zu arbeiten.


    Das ipad ist aber öfter in Benutzung, weil mobil, gerade bei dem schönen Wetter draussen ist das der Himmel auf Erden für creative Herzen.

    Zitat

    Das ist aber nicht speziel für Blender.

    Das ist woll ehe sowas wie Daz nur für Rigging. Damit sie ihren Contet besser verkaufen.

    Werder noch.

    Du kannst deine geriggte Figur auch in Blender verwenden, gibt sogar ein extra Blender FBX Profil

    es hat nichts mit DAZ zu tun und es ist auch nichts um denen ihr Content zu kaufen.


    Es ist ein Autorigger für menschliche (Zweibeiner) Charaktere.

    Abstandsregeln zm Monitor Ich lache mich schlapp :D

    Für Staubmasken gibt es auch strenge Regeln und keine Sau interessiert mehr


    Wen ich gefühlt jetzt besser arbeiten kann mit den Großen, sind mir irgendwelche Regeln auch wirklich Banane.

    Ich bin kurzsichtig und da ist es einfach für mich jetzt besser und es macht mich auch viel produktiver, weil ich jetzt so ein schönes wohlfühl Arbeitsumfeld habe.

    Ich habe auch ein 32 Curve Monitor und das ist für mich ein Genuss damit zu arbeiten. Ich sehe da auch keine Verzerrungen. Obwohl ich seit neuesten auch Fusion 360, also CAD für 3D Druck verwende.

    Als 2. Monitor habe ich noch ein 21,5 Pen Display. Da kann ich dann auch direkt am Bildschirm Zeichen und Texturieren oder einfach auch als 2 Monitor nutzen.

    Zitat

    in dem ich keine separaten Texturdateien mehr dazufügen muss..... somit ist doch "Baking" angesagt, oder?

    Nein, da gibt es noch ein wenig nachzuholen. , wie es scheint

    Also ein Objekt braucht es eine UV Map, damit das Programm weiß, wie auf dem Objekt die Textur platziert werden muss. Die Texturen sind in diesem Fall Image-Dateien. Diese liegen dem Modell sozusagen separat bei und werden in die betreffenden Materialslots geladen.


    Man kann aber nun auch prozedurale Materialien erstellen, um diese dann auch außerhalb von Blender zugänglich zu machen, müssen diese ja auf eine UV Map projiziert werden, um am Ende auch als Image Datei vorzuliegen, das nennt man baken.


    Auch baken ist, wenn man z. B. aus einem hochauflösenden Modell, die Details als Images Textur auf eine UV Map projektieren will, um sie als Normal oder Deplacement Map zu nutzen.


    Als Analogie kann man sich Backen so vorstellen wie, das, was man in der Szene gerendert sieht, davon ein Foto machen, das dann auf Grundlage der UV Map als Image Textur dient.

    Da war Esha schneller ^^ und stimmt Copyright ist ein heikles Eisen niemals anfassen, auch wenn man vorhat es for free zu machen. Öffentlich zugänglich machen ist da schon illegal und nur weils viele auch so machen schützt das nicht vor Strafe ;)

    Egal welche Add-ons du benutzt, dir muss klar sein, dass das am Ende ein brauchbares exportiertes Mesh im Standard Format wie FBX, obj. mit UV Map und dessen Images, Texturen sind, die da nur weitergegeben werden können, denn auf solchen Plattformen sollte idealerweise ein Objekt eigentlich mit jeder 3D-Anwendung kompatible sein.


    Außer du möchtest es nur direkt Blender User zugänglich machen.

    Dann den Mesh count mal im Auge behalten... so viel wie nötig, so wenig wie möglich ist dar immer die Devise und auch wie das UV Layout aussieht ist ein Merkmal, ob ein Profi oder Laie am Werk war.


    Also nicht außen hui und innen pfui, dann hat man auch zufriedene User.

    Damit die Rubrik hier nicht ganz verstaubt, werde ich sie mal mit ein bisschen Input füllen

    Ich habe mir neues Filament besorgt und mal Just for Fun etwas gebastelt um zu testen wie es verdruckt wird mit meinem IDEX Printer


    Sovol Idex SV04
    I bought new matte filament and wanted to test how it performs
    www.youtube.com