Beiträge von christianz

    Ok, dann war der Push-apart-effector nicht die beste Idee. Hatte nur an unregelmässige Klone gedacht. Anbei eine R20-Datei mit beiden Methoden.

    Bei der regelmässigen/Voxel-Variante links habe ich "uniform scale" abgewählt, sodass sich die Grössen der Cubes an die Füllmenge (in %) anpassen. Die Scale auf Uniform gibt eine regelmässigere Anordnung. Wegen der Lücken muss man von Hand die Anpassungen beim Kloner (Anzahl Klone und Grösse) machen um das ganz fein einzustellen.

    beste Grüsse, Christian


    cloner_fill_object.c4d.zip

    Hallo Uli,


    das kann ich gerne machen. Noch eine Frage: ist das Ziel das Füllen des Kopfes mit regelmässig/gittermässig angeordneten Würfeln (auch als Voxel-Effekt bekannt wie in dem von Pixelschubser verlinkten Tutorial), oder sollen die Würfel den Kopf in verschiedener Grösse und Orientierung füllen?

    Ja, das ist Fluch und Segen der verschiedenen "Denoiser", sie entfernen die Fireflys (weisse Noise-Pixel), greifen aber auch die Glanzlichter an.


    Die Stärke des Denoisers lässt sich noch begrenzt anpassen, allerdings nur global, und es gibt verschiedene Varianten von Denoisern (Optix, Odin).


    Habe nochmals einen Test gemacht mit 4000 Samples, was 18 Minuten dauerte (mit CPU hätte es wesentlich länger gedauert), aber der Noise im Vordergrund ist immer noch da. In dem Fall wäre es einfacher, das Bild in ein Malprogramm zu laden und mit einem Weichzeichnungs-Pinsel oder Denoise-Plugin die betreffend Stellen zu bearbeiten.


    Tja, so gesehen hat sich die anfängliche Begeisterung bei mir in das übliche "Dem geschenkten Gaul schaut man weniger ins Maul" verwandelt :)

    Hallo zusammen,


    LuxCoreRender ist zurück mit Version 2.5 (früher als Luxrender bekannt) für Blender 2.82-2.92, für CPU oder GPU und mit Denoiser. https://luxcorerender.org


    Selbst hatte ich den Luxrender vor ein paar Jahren mal ausprobiert und war von der Geschwindigkeit nicht überzeugt (damals noch auf Apple). Nun ist der LuxCoreRender mit allen modernen Features ausgestattet, wie es scheint. Auf einem einigermassen neuen Rechner mit drei GPU's (GTX1080Ti) kommt Freude auf. Habe einige Testszenen von der offiziellen Seite runter geladen und ausschliesslich auf CUDA/GPU rechnen lassen, mit und ohne den Denoiser, jeweils für 500 samples. Die Geschwindigkeit ist unter diesen Bedingungen überraschend gut, zumal für eine physikalisch korrekte Render-Engine (Redshift wäre noch schneller, aber das wäre dann eben eine "biased engine" und alles andere als gratis).

    Hallo Uli,


    schön, dass sich auch wieder mal jemand der mit C4D arbeitet im Forum findet. Hast du eine C4D-Version (ich glaube das war ab R18) mit dem Push-apart effector für Mograph? Das wäre das Mittel der Wahl gegen die Überlappung. Eine andere Option wären Dynamics mit rigid bodies um die Cubes auseinander zu zwingen.

    Glaube eher nicht, dass so etwas in DS kommen wird. Bei meinem Hauptprogramm, Cinema4D, ist es zwar möglich Video-Texturen zu verwenden, aber für einen Hintergrund würde wohl meist ein Videoschnitt+Effects Programm benutzt werden. Für eine bewegte Kamera müsste es dann möglich sein, die Animation der Kamera bzw. eines Platzhalters in das Videoprogramm zu exportieren.

    Ein Fertigsystem wie dieses hier https://www.brack.ch/medion-ga…neer-x10-md-35019-1187018

    wäre gerade noch im Budget drin. Hätte ich eigentlich nicht gedacht, dass das noch preislich möglich wäre, vor allem weil Grafikkarten im Moment so teuer sind (aber ich komme ursprünglich auch aus der Apple-Welt und dort ist immer alles noch teurer ;) ). Aber mit dem Zusammenstellen von Einzelkomponenten wird es wohl noch günstiger. Dafür bin ich aber kein Experte.

    Bin auf jeden Fall gespannt, wie sich die Sache entwickelt.


    Was ich noch nicht so ganz verstehe ist der Unterschied zwischen einer solchen Plattform und dem Verkauf von Content im klassischen Sinn. Solche Animationen und Bilder können bereits jetzt für einige wenige EUR von Stock-Steiten wie Shutterstock oder Adobe Stock etc. erworben werden. Der Unterschied zum NFT ist der Besitz eines Originals, dann aber zu wirklich guten Preisen mindestens 1000$+

    Eine gewisse Seltenheit oder Hype um den Künstler/in wird da schon nötig sein um die grossen Beträge einzustreichen.

    Hallo zusammen,


    kürzlich hat mich ein Bekannter auf eine neue Art des Kaufens/Verkaufens von Kunst aufmerksam gemacht, speziell für digital vorliegende Kunstwerke oder allgemein Sammelgut, das aus Bits und Bytes besteht. Diese Innovation beruht auf der sog. Blockchain, also einem öffentlich einsehbaren Register von Transaktionen bzw. einem Buchführungssystem, das auf viele Server auf der ganzen Welt verteilt ist und gegenseitig immer abgeglichen wird (mittels kryptographischer Verfahren um Manipulation und Diebstahl zu verhindern), sodass jede Transaktion einmalig und auch irreversibel ist.

    Nur gibt es neuerdings Auktions-Webseiten, auf denen Künstler (digitale) Werke anbieten können und Auktionen werden ermöglich auf der Basis des Ethereum-Kryptowährungs bzw. Blockchainsystems. Jedes Werk existiert hier aber nur einmal, im Unterschied zu den Coins der bekannten Kryptowährungen wie Bitcoin. Daher auch der Name NFT für "non-fungible Token", was soviel heisst wie einzigartiges und nicht-austauschbares Token.


    Weil die Transaktion einmalig ist, kann man so ein Werk kaufen und auch damit Handel treiben. Allerdings gibt es trotzdem keine technische Hürde, die Animation, oder das Bild, Scan oder sonstwas, zu kopieren. So kann man argumentieren, dass der Verkauf eigentlich sinnlos sei, weil es unendlich viele Originale gibt und die ganze Auktionsbörse lediglich zur Bereicherung der Besitzer diene. Überdies kann ein Blockchain-System auch absterben oder dessen Wert ins Bodenlose fallen. Das Betreiben eines grossen Blockchain-Systems ist auch mit signifikantem Energieverbrauch verbunden. Kürzlich gab es einige extreme Transaktionen die auf Interesse in der Öffentlichkeit gestossen sind (siehe Beeple).


    Hier hat mein Bekannter, James Merril, eine kurze Animation auf einer NFT-Plattform angeboten: https://foundation.app/lostpixels/orange-crush-9915

    Bin ja gespannt, wie die Geschichte weitergeht. 8)

    Zitat

    Ein optimales System wählt man sehr wohl nach der verwendeten Software aus -

    Und das heisst ja wohl heute vor allem: welche Render-Engine. Ist es ein reiner Grafikkarten-(GPU)-Renderer (Octane, Redshift), oder vielseitiger mit/ohne GPU wie etwa Cycles in Blender. Oder eben Iray in DAZ Studio (aber damit kenne ich mich nicht aus)

    Zitat

    nach dem Motto: Hat man keine Probleme, dann sucht man sich halt neue.

    Damit hast du wohl sehr gut zusammengefasst, was "Normaluser" vom Wechsel auf Linux abhält. Linux spielt eine grosse Rolle wo technisch versierte User und Informatiker sich um die System kümmern können, aber der/die Anwender/innnen die dafür keine Zeit haben, bleiben im Mainstream, und aus gutem Grund weil die Kompatibilität mit oft genutzter Sofware fehlt. Nur schon so etwas wie kein CUDA wäre ein No-go für mich, aber wer die Kenntnisse hat und die Zeit, der kann sicher viel Spass haben damit.

    Zitat

    Wie sieht es denn bei FilterForge zum Beispiel mit diesen ganzen Community Filtern aus, die da Mitglieder erstellt haben. Kann ich da jetzt daher gehen und einfach der Nase lang jede Textur als Bild ausrendern und dann ist das "meins"? Also wenn ich jetzt 100 Texturen erstelle, könnte ich die dann wieder bei itchio als Assets verkaufen?

    Ja, von dir gerenderte Bilder gehören dir. Sie sind vielleicht nicht besonders neu oder originell wenn die Settings nicht verändert werden, aber das Programm ist ja nur der Pinsel und das Bild hast du gemacht.