Um herauszufinden wieviele jobs du in der Trial noch übrig hast, kannst du /info eingeben.
Beiträge von christianz
-
-
Aber der Aufwand hat sich am Ende gelohnt.
Jetzt stell dir mal vor, wie lange es gedauert hätte mit "traditionellen" CGI-Mitteln, also Baum in PlantFactory oder ähnliches generieren, wahrscheinlich ausgedehntes Sculpting der Grundstruktur mit ZBrush oder ähnlichem, volumetrischer Nebel und Wolken (Tests rendern lange), eine Hexenfigur aus DAZ mit passenden Gothic-Kleidern usw......
-
Wenn du deinen Prompt optimiert hast, kannst du ihn hier verkaufen:
-
Bei dem von old_det verlinkten Artikel wird das Problem der Bezahlung angesprochen und da hört dann für viele Leute der Spass auf, die mit ihren traditionellen Techniken Geld verdienen. Auf der anderen Seite hat Vladimir Chopine in dem Webinar erzählt, dass er mit der Kombination von KI und eigenen Bildelementen schon mehrere Tausend $ pro Monat verdienen konnte.
Licke Aber für deinen Anwendung (ich nehme an: Story Illustrationen mit wiederkehrenden Charakteren) ist die Art wie die meisten KI's gesteuert werden ungeeignet, weil die Motive zufällig verändert werden bei jeder neuen Eingabe.
-
Es gibt auch Mittelwege mit verschiedenen Tools. Peter v. Stackelberg hat in dem Workshop gerade ein Beispiel gezeigt, wo er mit der A.I. eine Landschaft hat generieren lassen. Dann hat er in DAZ Studio einen Charakter zusammengestellt, gerendert, and die Farben des ersten Bildes angepasst und in die Landschaft eingesetzt.
Vladimir Chopine zeigte auch mehrere Beispiele wo er Compositing aus People-Fotografie + AIgenerated Backdrop kombiniert.
-
Diesen Samstag-Abend (22:00): A.I. Generated Art Workshop (DigitalArtLive)
Ein aktuelles Thema in diesem Community-Workshop mit Paul von DigitalArtLive sowie Vladimir Chopine und Peter von Stackelberg
Details und Registration (free ticket bestellen) : A.I. Generated Art : Community Workshop | Digital Art Live
-
Finde den Pilz jetzt sehr realistisch und gelungen. Aber stimmt schon, die Lamellen müsste man über eine Textur lösen, um die Polygonzahl radikal zu schrumpfen (sieht man bei Turbosquid Beispiele )
-
Wird immer besser (realistischer)! Weiter so

-
Ich habe ebenfalls Acronis für automatische Backups, aber langsam ist es schon. Die angezeigte Datenmenge wird jedenfalls viel langsamer abgearbeitet als einfaches Kopieren auf dem Schreibtisch dauern würde.
-
Zitat
. Kein gutes Zeichen für das Programm.
Kann sein. Aber 3D Objekte sind nicht der einzige Massstab für die Nutzung eines Programms. Cinema4D wird häufig für Motion Graphics eingesetzt, da wird nicht viel gemodelt. Dass Cinema4D heute mit seinem Preis und Abo-only nicht mehr für Hobbyisten geeignet ist, ist (leider) klar.
-
Hi
das ist ganz einfach: in der Creative Cloud-App ausloggen und mit neuem Namen und Passwort wieder einloggen.
-
Das sind alles interessante Informationen

Selbst habe ich erst vor etwa einem halben Jahr begonnen, Acronis mit externen Festplatten zu benutzen. Habe allerdings noch nie versucht, Daten zu retten oder ein System wiederherzustellen.
Aber auf längere Sicht brauche ich wahrscheinlich sowieso etwas Grösserers, z.B. ein NAS mit der passenden Backup-Software vom gleichen Hersteller.
-
Werde mich nächstens auch wieder mit dem kommerziellen FlipFluids Addon für Blender beschäftigen.
Es ist nicht nötig, gleich sehr grosse Szenen anzupacken, wie Strände und Ozeane. Das Addon kann sehr gut auch kleine Effekte wie visköse Flüssigkeiten und Splashes bewältigen.
Bei Fluidsims ist es auch meistens nötig, zuerst eine Simulation mit geringer Auflösung zu testen und erst wenn alles stimmt zur tagelangen Simulation zu gehen. Meine längste Sim (allerdings mit RealFlow) war ca. zwei Wochen.
-
Willkommen in diesem netten Forum!
Noch ein Schweizer hier... heute in Bern aber ursprünglich aus der Nähe von Schaffhausen.
-
@old_det Das ist ja schon mal schön reduziert, nicht schlecht. Will man dann das Mesh verkaufen werden wohl reine Quads erwartet, Unter/Rückseite des Objekts, alle Maps etc.
-
3dfan Da verstehen wir uns. Solche Scanner sind (wahrscheinlich) sehr gut, aber weit ausserhalb meines Budgets.
@old_det Auch ein schönes Stück!
Gerne würde ich mal auf einen Level kommen, wo das Mesh auf low-poly reduziert wird, aber dank den Foto-Texturen dennoch Realismus erreicht werden kann, so wie hier z.B. 3D model Fruit Bowl - Grapes Leaves Apples Cut Damast Knife VR / AR / low-poly | CGTrader
-
Das ist schon richtig, wenn wir von generischen Dingen reden, aber nicht, wenn es darum geht, real existierende Unikate zu digitalisieren oder Varianten der Objekte.
Eine gute Kamera sollte in den meisten Fällen genügen. Spezielle Scanner sind stärker limitiert was die Grösse der Objekte angeht und können weniger gut Texturen erfassen.
-
Danke! Jetzt muss ich die Nachbearbeitung lernen... entsprechende Tutorials gibts natürlich auch auf YouTube, zum Beispiel mit 3DCoat. Das sind dann aber schon ein paar mehr Schritte nötig.
-
Muss noch etwas warten mit Beta-Testen, weil das Programm schon ausgebucht ist, aber in den nächsten Monaten soll es für alle kommen.
Hier eines der besser gelungenen Projekte, die ich bereits mit RealityCapture machen konnte (eignet sich auch gut wegen der matten Oberfläche):
-
Hallo zusammen,
Epic Games, die Macher von Unreal Engine, haben kürzlich eine App als Betaversion vorgestellt, die einfache Photogrammetrie für die Game-Engine ermöglichen soll. Genauer gesagt geht es darum, dass man mit dem Handy mit vergleichsweise geringem Aufwand real existierende Objekte wie z.B. Haushaltgegenstände oder natürlichen Boden etc. mit einer Anzahl von Handy-Photos in 3D Objekte umwandeln lassen kann. Die dem zugrundeliegende Technologie kommt von "Reality Capture", eine Photogrammetrie-Firma bzw. Software die von Epic Games übernommen wurde.
Epic Games Launches RealityScan App in Limited Beta (80.lv)
Bin gespannt, wie gut das funktioniert. Habe selbst seit letztem Jahr etwas mit Photogrammetrie zu arbeiten begonnen und nach meiner bisherigen Erfahrung benötigen diese 3D-Objekte doch häufig ziemlich aufwändige Nachbearbeitung abhängig vom Material, LIchtverhältnisse, ob sie frei stehen etc, aber mal sehen.
-
Der Taskmanager zeigt die Auslastung der GPU nicht genau an. Nimm lieber ein Tool wie GPU-Z GPU-Z Graphics Card GPU Information Utility (techpowerup.com) um die Auslastung der GPU zu messen. So ist es bei mir hier jedenfalls mit Redshift als GPU-Renderer.
-
Vielleicht auch interessant für Flowscape-Artists: Digital Art Live führt wieder eine Masterclass-Veranstaltung durch zu dem Thema, 2. April 2022
-
Das "Ti" macht den Unterschied im Speicher aus. Auf dem Gebrauchtmarkt gibt es heute auch schon Nvidia Karten (ältere Modelle) mit grösserem Speicher.
-
Das klingt schon nach einem Problem mit Überhitzung. Hatte das mal mit einem Tower-PC wo sich die Prozessorkühlung vom Chip gelöst hatte -> abgeraucht Aber vielleicht ist es ja das Netzteil was leicht ausgetauscht werden kann. Viel Glück!
-
Uwe Kronemann Das sieht doch schon wesentlich mehr nach Unterwasser aus, nicht mehr nur Nebel.
Mir scheint, dass das Lake-Object von sich aus zwar gut als Wasseroberfläche aussieht, aber nicht das echte Displacement mit sich bringt, das für die Reflektion auf Wellen notwendig ist. Dazu passt auch die längere Renderzeit, weil jetzt die ganze Lichtbrechung erst ins Spiel kommt.