Beiträge von Thilion

    Ob sie das MB schon oft verbaut haben oder nicht, vermag ich nicht zu sagen. Was den Lärmpegel angeht, so habe ich eben mal gesucht und kann das eigentlich nicht direkt bestätigen. Es gibt Stimmen die sagen, dass der Geräuschpegel beim x570 nicht so hoch ist wie erwartet, weil sie ja diesmal kleinere Lüfter für den Chipsatz verbaut haben. Die gehen aber nur an, wenn der PCIe-x4 Steckplatz genutzt wird. Und die Graka-Lüfter seinen ohnehin lauter, als der Lüfter vom MB.

    Es ist auch wohl so, dass das x570 Gaming Motherboard den PCIe-x4 Steckplatz hat. Ich habe das x570 UD, was angeblich zwei PCIe-x4 Steckplätze hat.

    Und das Ganze kommt in ein Rijintek Zofos Evo Gehäuse, das schallgedämmt sein soll. Mal schauen, wie gut es gedämmt ist. Ich werde zu gegebener Zeit berichten.


    Auf jeden Fall danke für die rege Diskussionsbeteiligung!

    Danke für den Hinweis.

    Ob ich auf PCIe-x4 verzichten kann, weiß ich gar nicht. Ich gedenke nur die RTX 2080 hineinzustecken, vielleicht irgendwann eine zweite.

    Aber laut alternate.de hat das x570 UD gar keinen PCIe-x4-Steckplatz, sondern zwei x1-Steckplätze. Nur das B450M hat einen, dafür aber nur einen x1 Steckplatz.

    Und laut Hersteller hat die Gigabyte RTX 2080 Ti einen PCIe 3.0 x16 Anschluss. Jetzt blicke ich da nicht mehr durch :nachdenklich: PCIe-x1, PCIe-x4,PCIe 3-x16...


    Na ja, ich lasse das Gerät eh von unserem PC-Laden zusammenbauen, und falls das nicht passt, dann ist es deren Problem. Die Zeiten, als ich noch selbst geschraubt habe, sind schon ein paar Jahrzehnte her :)

    Moin,


    mein neues System wird wohl folgendes werden:

    - Ryzen 3900X auf Gigabyte X570 UD

    - Kingston HyperX Predtor (4x16)

    - Samsung 970 Pro (1TB)

    - Gigabyte RTX 2080 Ti

    + Zubehör wie Kühler, Netzteil und Gehäuse


    Auch wenn die Preisdifferenz vom 3900 im Vergleich zum 3700 ungleich der Leistungsdifferenz ist, habe ich dennoch das größere Modell gewählt. Ein preislich ähnlicher Threadripper, z.B. 2920, hat zwar 1125 statt 768 kB L1 Cache, aber dafür hat der 3900 64 statt 32MB L3 Cache und 3,8 statt 3,5 GHz Grundtakt, und trotzdem verbraucht er nur 105 statt 180 Watt. Beide haben 12 Kerne - das ist wohl mehr als genug. Bin mal gespannt, wie das dann abgeht im Vergleich zu meinem alten System.

    Die SLI-Bridge ist für unsere Zwecke völlig unnötig, das ist nur für Spieler interressant, die eine höhere fps wollen. Zum Berechnen bringt das keinen Vorteil, eher Ärger.

    Außerdem sollte man auch wissen, daß 2 Karten den Speicher NICHT verdoppeln.

    Danke für die Hinweise. Dass der Speicher nicht verdoppelt wird, sondern die Daten parallel geladen werden, weil beide GPUs alles berechnen, das habe ich schon mitbekommen und es ist auch einleuchtend, aber dass die NVLink bridge nicht nötig ist, das wusste ich noch nicht. Ich ging davon aus, dass das System die bridge benötigt, um beide Grafikkarten ansteuern zu können. Gut zu wissen, dass ich sie weglassen kann und die zweite Grafikkarte im Prinzip einfach einstecken kann, wenn's soweit ist (vorher PC ausschalten:D).

    Danke für die vielen Hinweise.:thumbup:

    Ich werde mich für die GeForce 2080 Ti entscheiden. Laut Berichten können wohl nur die Profi-Programme von Autodesk die Quadro-Qualitäten ausnutzen. Und in der Hoffnung, dass DAZ irgendwann ein Dual-Betrieb von 2 RTX-Karten nutzen kann, werde ich die Kiste mit einem genügend großen Netzteil ausstatten.

    Danke für die schnelle Antwort! Ich denke, da werde ich zum AMD greifen, wahrscheinlich den 3900, wobei ein Threadripper auch interessant scheint. Aber preislich doch um einiges höher.:pinch:

    Moin,


    es gibt zwar grad ein Thema in diesem Board, wo es um den Ryzen geht, aber ich überlege, ob der Ryzen gegenüber einem Intel i9 Vorteile hat, wenn man mit Blender / DAZ Studio arbeitet. Hat da jemand Erfahrung?


    Für meinen neuen PC schwanke ich gerade zwischen einer CPU von Intel aus der i9er Serie und einem Ryzen Threadripper aus der 3000er Serie. Die Ryzen CPU hat mehr Kerne und mehr L2/L3 Cache, während der i9 eine bessere Single-Core Performance aufweist.


    Hmmmm..... :/

    Guten Morgen,


    danke für die Antworten.

    Ich gehe mal davon aus, dass Du noch nichts neues gekauft hast - von daher die Frage: Welche RAM-Ausstattung hat Deine jetzige Garfikkarte?

    Richtig, ich habe noch nichts gekauft. Ich habe bisher ein Notebook, das bisher seine Arbeit gut macht. 32 GB RAM und eine 1080 mit 8 GB VRAM. Die 32 GB RAM habe ich aber noch nie ausnutzen können. DS alleine nimmt nie mehr als 20 GB, selbst bei großen Szenen mit vielen Polygonen. Auch wenn ich noch weitere Programm dazu öffne war die RAM-Auslastung noch nie höher als 22 GB von 32 GB. Das liegt aber wohl ehr am Windows-Speichermanagement denke ich.


    Eigentlich nimmt man Quadro's in erster Linie wegen spezieller Treiber für ausgesuchte Programme. Dort können sie ihre Stärke ausspielen. Weder Blender noch DAZ gehört dazu.

    Das befürchte ich auch, dass die Treiber das Problem sein könnten bzw. dass Blender/DS einfach nicht die speziellen 3D-Fähigkeiten der RTX ausnutzen können sondern nur die CUDA Kerne für ihre Berechnungen nutzen.

    Ich werde mal nach Anleitungen suchen, wie man Octane in DS einbaut - und dann vergleichen.

    2x 2080 TI Super im Dualbetrieb.

    Der Preis ist ja auch eine Frage.

    Eben :) Sonst wäre so ein Dual-Betrieb sicherlich eine nette Sache.


    Meiner Erfahrung nach ist die Anzahl der Kerne fürs Rendern in DS (mit Iray) durchaus wichtig.

    Das ist auch meine Erfahrung, da ich mit Iray rendere und schon oft diese Erfahrung gemacht habe, dass beim zweiten oder dritten Render die CPU genommen wird. Im VRAM-Verlauf kann man auch sehen, dass der VRAM nach dem Rendern nicht sauber geleert wird, also dass er nicht so leer ist wie vor dem Rendern. DS schließen und wieder öffnen behebt dieses Problem jedoch.

    Oder bei vielen gleichen Objekten Instanzen bilden statt duplizieren. Das hilft auch VRAM sparen.

    Moin,


    es gibt zwar gerade ein aktuelles Thema, wo es um Grafikkarten geht, aber ich habe speziell das Problem, dass ich mich nicht zwischen einer Geforce oder einer Quadro Grafikkarte von Nvidia entscheiden kann. Ich habe mir diesen Artikel (https://www.engineering.com/De…uadro-Graphics-Cards.aspx) durchgelesen, und würde von daher ehr zu einer Quadro tendieren, z.B. zur RTX 5000. Die hat 16 GB RAM, im Gegensatz zur RTX 2080 Ti, die 11 GB hat. Dafür hat die 2080 Ti 4352 CUDA Kerne, die 5000 "nur" 3072.


    Ich arbeite am meisten mit Blender, Marvelous Designer und DAZ Studio. Beim Rendern mit DAZ fällt auf, dass der GPU-Speicher oft voll ist und der/die/das Render-Engine dann auf CPU-Rendering umschaltet. Ist beim Rendern also GPU-Speicher wichtiger als Rechen-Power?


    Dann gibt es ja auch noch die Titan RTX mit 4608 CUDAs und 24 GB RAM. Allerdings ist noch mal 30% teurer als die RTX-5000 (von der RTX-6000 brauchen wir gar nicht zu sprechen: fast doppelt so teuer wie die 5000).


    Bleiben wir also bei der ursprünglichen Frage: hat jemand von Euch Erfahrungen mit GeForce und Quadro-Karten im Rendering-Bereich?

    Es gibt da ein wunderbares Tutorial von Andrew (Blendergruru).


    https://www.youtube.com/watch?v=YgwKPP2ZEjI


    Ist schon ein wenig älter, aber er gibt viele gute Tipps, wie man seine Domain und sein Obstacle einstellen soll. Einige dieser Einstellungen werden in anderen Tutorials nicht genannt, z.B. Volume Inititialization Type beim Obstacle. Da hätte ich ja auch mal von selbst drauf kommen können. Und den Cache-Ornder bei jeder Änderung umbenennen. Dann wird auch die alte Simulation nicht immer wieder geladen.

    Danke für den Link!

    Ich habe mal so eine "Ridgit Body World" hinzugefügt, damit der Teil "Ridgit Body Cache" erscheint, aber das hat leider nichts geändert. Egal was ich da klicke, es verändert sich nichts an der Simulation. Die Simulation klappt ja auch ohne Ridgit Body World, nur leider mit den aller ersten Formen, die er aus irgendeinem Cache holen muss. Anders kann es ja nicht sein, dass auch bei anderen Formen (habe zwischendurch mal cube statt cylinder genommen) die gleiche Simulation wiederholt wird.


    Was ich aber mal getestet habe: das Ganze ohne Eimer wird dann plötzlich neu berechnet. Also das Wasser fällt so zu Boden, wie man sich das vorstellt. Ich habe zum Test auch einen neuen Eimer gebaut, per Solidify Modifier mit dicken Wänden und im Physics Tab zum Obstacle gemacht. Dann ignorierte er allerdings den Eimer.


    ----------------------------------


    Mein normaler Aufbau:


    Simulation (Eimer ohne Funktion):

    --> Wasser fällt am Stück zu Boden


    Simulation mit Eimer als fluid->obstacle markiert:

    --> die alten Sim-Daten (mit viel weniger Wasser und aus alter Position) werden "berechnet"



    Ich werde einfach noch etwas herumtesten.

    Trotzdem danke für die Hilfe.

    Moin,


    ich weiß nicht was ich falsch mache, aber es kann ja nicht sein, dass es so gedacht ist.


    Ich habe einen sehr simplen Aufbau. Physics mit fluid. Ich habe einen Kasten (Domain), einen offenen Zylinder (Obstacle) und noch mal der gleiche Zylinder etwas kleiner geschlossen (fluid). Damit möchte ich Wasser im Eimer simulieren, das ausgegossen wird.

    Als ich das allererste mal auf "bake" geklickt habe, funktionierte es wunderbar. Das Wasser kam raus und fiel zu Boden. Dann aber habe ich die Größe der Domain geändert (nicht drastisch, ist auch alles nur wenige Meter groß), weil ich eine größere Höhe haben wollte und auch die Größe des "Eimers" - und seit dem ist jede weitere Simulation (bake) immer wieder eine Wiederholung der alten Simulation. Die Menge und Startposition des Wassers ändert sich nicht mehr. Ich habe schon folgendes versucht:


    - Blender beendet und wieder neu gestartet und gespeicherte Szene neue geladen

    - Ganz neue Szene eröffnet und alles noch mal von vorne erstellt

    - sämtliche Caches, die ich finden konnte, gelöscht (C:\Users\[ich]\AppData\Local\Temp\Blender\* und C:\Users\[ich]\Documents\Blender\cache_fluid)


    aber trotzdem immer wieder eine Wiederholung des ersten Versuchs. Was muss man noch löschen, damit Blender mit den veränderten Objekten alles neu berechnet?

    Moin,


    ich habe da ein komisches Problem. Wenn ich das "Tool Seetings" Pane einblende, dann wird die obere Hälfte außerhalb des Bildschirms platziert, also quasi bei y=-50 oder so, siehe Screenshot.


    Ich komme also nicht an die Titelleiste des Panes heran, um es zu verschieben. In den Einstellungen habe ich bisher nichts gefunden, um die Startposition des Panes zu ändern oder das Pane in eine vorhandene Toolleiste einzubetten.

    Wer weiß Rat? Das Ganze passiert übrigens auf einem Mac.

    Vielen Dank schon mal für die Antwort. Ich glaube, soweit war ich schon mal, aber der Hintergrund bleibt weiß.

    Allerdings habe ich zufällig gesehen, dass in der Vorschau (ganz rechts) das Blatt richtig angezeigt wird, also mit transparentem Hintergrund. Was habe ich denn da wieder falsch zugewiesen? Es gibt nur 2 Materialien: das Blatt und den orange-grünen Hintergrund..

    :nachdenklich:

    Mit Ausprobieren habe ich nun bemerkt, dass Blender den transparenten Hintergrund nicht in der Matrial-Ansicht zeigen kann, sondern nur in der Rendered-Ansicht. Also Problem gelöst. Besten Dank nochmal.


    Es gibt sehr viele Turtorials und Anleitungen (ist wohl das Gleiche :) ) in denen erklärt wird, wie man mit einem PNG eine transparente Textrur in Blender erstellt. Das ist in sofern einfach, weil die Transparenz in dem PNG bereits "eingebaut" ist. Ich habe aber zwei JPG Bilder. Eines mit einem Blatt, das andere mit der passenden Transparenz-Maske, also wo das Blatt weiß ist und der Rest schwarz.

    Jetzt möchte ich aber nicht das JPG in ein PNG mit Alpha-Kanal umwandeln, sondern ich möchte in Blender über die Nodes einen Shader basteln, der mit mithilfe der Transparenz-Maske das Blatt mit transparentem Hintergrund darstellt.

    Ich gehe doch mal davon aus, dass das geht. In DAZ Studio ist das ganz normal, dass man im Geometry Node unter Cutout Opacity die Transparenz-Maske lädt, und damit kann man dann die gewünschte Transparenz herstellen.


    Meine Nodes habe ich als Screenshot mitgeschickt,


    auch die passende Maske dazu.


    Wer kann mir sagen, wo der Fehler liegt?

    Ok, Normal-Map und Bump-Map.


    Da würde ich gerne wissen, wieso oft beides genommen wird?

    Ich bin kein Experte, daher habe ich zunächst versucht, mich schlau zu lesen. Die einen sagen, dass Bump-Map quasi der Vorgänger der Normal-Map ist, da Bump-Maps nur hoch oder tief simulieren können, aber Normal-Maps können in alle drei Richtungen "verformen", natürlich auch nur als Illusion. Andere Erklärungen sagen auch, dass Bump-Maps nur Höheninfos enthalten, aber dass Normal-Maps die simulierten Lichtstrahlen in X, Y und Z-Richtung ablenken können, also je nach Lichteinfall einen anderen Effekt haben. Kommt am Ende wohl auf das Gleiche hinaus.


    Wie auch immer. Welchen Vorteil habe ich denn, wenn ich eine Normal-Map mit einer Bump-Map kombiniere? Also welchen Effekt erhalte ich durch die Kombintion, den ich weder nur mit der einen noch nur mit der anderen nicht habe?

    Der volumetrische Nebel ist klasse! Geht in Blender ja auch relativ einfach, ist aber sehr effektiv. In DS muss man für sowas wesentlich tiefer in die Trickkiste greifen.