Ja, die Pipeline ist leider immer so ein Problem ...
Beiträge von Tiles
-
-
Zitat
Und mir gings bei der Erwähnung von UU3D hauptsächlich ums konvertieren. Das Tool kann nen ganzen Arsch voll Formate lesen und schreiben. Und konvertiert unter Anderem auch nach/von FBX. Als Nebeneffekt ist es auch noch ein recht brauchbares [lexicon]Mapping[/lexicon] Tool

-
Zumindest steht es schon mal drauf

Ich denke mal, da es sich bei der Messiah Version hier um die neueste Version handelt wird es auch die neueste FBX Variante verwenden. Zur Not gibts dann Programme wie Ultimate Unwrap zum konvertieren. Oder den FBX Konverter von Autodesk. Irgend nen Weg gibts immer

-
Najo, Modeln in Blender macht ja bisher auch nicht soo viel Spass. Ich sag nur keine N-Gons. Und wenn man sich dann mal die Polygontools in Blender anguckt, hmm. Technisch gesehen ist es zur Zeit einfach noch sinnvoller ein Polygon Model auswärts zu modeln. Und wenn man es von wo anders importiert stimmt das Scale automatisch. Vielleicht ist das einer der Gründe wieso auf solche Sachen nicht so detailliert eingegangen wird. Weils eh kaum einer macht.
Mit dem BMesh Code könnte sich da wohl so einiges ändern. Das bringt dann unter Anderem endlich N-Gons. Bin aber mal gespannt ob sie dann die komplette alte Polygon Modeling Philosophie in Blender umnieten. Was sie machen müsssten. Oder das Bmesh so zurechtstutzen dass es zwar in die alte Philosophie passt, der neue Code dadurch aber eigentlich sinnlos wird.
Aber da wird wohl eh noch viel Wasser den Berg hochfliessen bis Bmesh endlich in Blender drin ist. Die fangen frühestens nach Release der finalen 2.5x überhaupt mal mit den ersten Integrierungsversuchen in den Main Branch an. Diesen Sommer irgendwann. Und obs dann wirklich reinkommt steht auch noch in den Sternen. Ich habe da inzwischen ein wenig die Hoffnung verloren. Bmesh wird seit Jahren versprochen. Ich glaubs erst wenns wahr wird.
-
Kannst ja mal versuchen das ganze als Bug zu melden

-
Nix mit Download. Not found ... die bauen wohl noch um. Auf der Hauptseite ist grade noch Beta 2.54 zu lesen. Aber wer von Graphicall runterläd ist eh schon wieder nen Schritt weiter

-
Wenn du Blender fürs Modeln verwenden willst würde ich später wählen. Noch ist das Bmesh nicht drin. Bedeutet Blender kann immer noch keine N-Gons. Versuch da mal nen Edgeloop umzuleiten. Der Rest ist aber echt schon gut brauchbar

-
Die Bones sind nicht nur drin, sondern sind sogar recht brauchbar, wenn auch hier und da ein wenig kompliziert zu handhaben. Immerhin wurde damit schon so Filme wie Big Buck Bunny gedreht. Und derzeit Sintel

-
Japp, es ist und bleibt verwirrend. Ich dachte bis jetzt wirklich dass eine 3D textur zwar prozedural ist, aber eben nicht jeder prozedurale Shader als 3D Textur bezeichnet wird. Und doch habe ich Mecker bekommen weils genau so ist, hehe. Man lernt wirklich nie aus

Ihr habt hier ein Lexikon? Stubbi, du darfst gerne die Teile die du magst in euer Lexikon packen. Da habe ich nichts dagegen. Nur zu

-
Nachtrag zu 3D Textur, ich habe mich von einem Profi aufklären lassen dass prozedurale Shader auch 3D Texturen genannt werden. Ein einfacher prozeduraler Marble Shader ist somit tatsächlich eine 3D Textur. Zumindest in der Umgangssprache der Profigrafiker. Ich lag also falsch mit meiner Behauptung dass 3D Texturen keine prozeduralen Shader sind. Ich hätte schwören können ... . Und Wiki liegt dann da wohl auch ein wenig daneben. Trau schau wem

Ich dachte die Info sollte ich noch hier anhängen. Sorry für die Verwirrung

-
OT *Zurückfuchtel*

Irgendwann läuft man sich halt doch wieder übern Weg

/OT
Lichtfaenger, Gern geschehen.

-
Na gut, dann solls wohl doch ein sehr kurzes Tutorial in Sachen Texturierung werden. Betonung auf kurz

Im Prinzip fängst du mit dem UV [lexicon]Mapping[/lexicon] an. Dein Mesh, also dein Drahtgitterobjekt, muss jetzt auf einer 2D Fläche ausgebreitet werden. Der Vorgang nennt sich UV [lexicon]Mapping[/lexicon]. Da gibts die unterschiedlichsten Methoden für. Manche mappen die Faces mittels Projektionsmethoden von Hand. Dafür wählst du ein paar Faces am Mesh aus, wählst dann als Projektionsmethode sowas wie Planar oder Zylindrisch. Manche jagen das Mesh auch durch einen Unwrapping Algorythmus wie zum Beispiel LSCM. Der versucht dann das Drahtgitter so verzerrungsfrei wie möglich auf der 2D Fläche auszubreiten. Du solltest bei einem Haus drauf achten dass du das Dachteil extra mappst, die Wand extra mappst usw.
Nennen wir mal dieses fertig ausgebreitete Mesh auf einer 2D Fläche das UV Wire. Und die einzelnen Einzelteile deiner [lexicon]Mapping[/lexicon] Aktion UV Patch. An der Stelle speicherst du mal ab. Auf dieses fertig gemappte Objekt kommt dann später deine Textur drauf.
Nächster Schritt. Du musst nun dieses UV Wire aus deinem Programm als Textur rausspeichern in dem du das UV [lexicon]Mapping[/lexicon] gemacht hast. Das sollte auch in Carrara gehen falls du hier gemappt hast. Nimm die Grösse die auch deine fertige Textur haben soll. 1024x1024 zum Beispiel. Nennen wir das Ergebnis mal UV Wire Textur.
Das lädst du jetzt in dein Malprogramm. Neuen Layer anlegen. Kurzer Ausflug zu deinen Fotos. Sagen wir du willst ein Haus texturieren. Dann brauchst du also Fotos von einem Dach, Wänden, Türen, Fenster. Das sind deine Materialien die du nun zum Texturieren verwenden willst. Nicht zu verwechseln mit dem Material deines 3D Objektes!
Zurück in dein Malprogramm. Wir hatten ja einen neuen Layer gemacht. In den Layer lädst du nun eins deiner Materialien. Sagen wir das Foto vom Dach. Jetzt schaust du dir mal die UV Patches auf deiner UV Wire Textur an. Welches Teil davon ist das Dach. Den Teil musst du in deinem Layer stehen lassen, alles andere wegschneiden. Und genau so gehst du nun für alle anderen Teile vor. Den UV Patch für die Wand ermitteln. Neuen Layer anlegen, Wandmaterial laden, passend auf den UV Patch zuschneiden. Den UV Patch für die Eingangstür finden. Neuen Layer anlegen ...
Am Schluss vereinst du das Ganze zu einem Bild. Speicher es als deine Textur ab.
Zurück in deinem 3D Programm. Material draufhauen. Textur laden. Und dann sollte es passen

Wie gesagt, das war jetzt wirklich eine sehr sehr kurze Erklärung. Es gibt die unterschiedlichsten Mappingtechniken, es gibt noch tausende Tips und Techniken für den Texturenbau ...
-
Siehste, das meinte ich mit totale Verwirrung

Prozedurale Shader sind keine 3D Texturen. Das sind eben prozedurale Shader. Und das ist Shadercode. Teil des Materials

Was du vermutlich meinst ist der Einsatz von so einem prozeduralen Shader. Denn der kann natürlich auch anstatt einer Textur verwendet werden. Für eine prozedurale Holztextur zum Beispiel. Aber das ist schon wieder Kapitel Sonderfall.
Das hier ist eine 3D Textur: http://de.wikipedia.org/wiki/3D-Textur
Das kann Carrara meines Wissens nicht. Das kann so viel ich weiss noch nicht mal 3D Studio Max. Da brauch es ganz spezielle 3D Programme für. Und ein Desktop PC dürfte eh von der Datenmenge überfordert sein. Dass es überhaupt sowas wie eine 3D Textur gibt ist (nicht nur) für einen Anfänger einfach total verwirrend. Der bringt das gnadenlos durcheinander. Wie hier ja grade geschehen. Wenn ein normaler 3D Grafiker von Textur redet ist in der Regel immer die 2D Variante gemeint
.ZitatUnd da Lichtfänger auch selbst modellieren will, ist auch das UVMapping nicht völlig irrelevant.

Stimmt. Das UV [lexicon]Mapping[/lexicon] ist sogar sehr wichtig. Ohne UV [lexicon]Mapping[/lexicon] keine Textur.
Nur glaube ich halt dass er noch gar nicht an dem Punkt angekommen ist. Das Problem in der bisherigen Diskussion ist aus meiner Sicht dass hier schon viel zu viel Fachbegriffe und Sonderfälle genannt wurden, die mit dem eigentlichen Problem so gar nichts zu tun haben. Er hat hier die Frage nach den Anfängen gestellt. So habe ich es zumindest verstanden. Mit den Spezialbegriffen und Sonderfällen kann er doch noch gar nichts anfangen

Zuerst mal muss er die Grundlagen verstehen. Der nächste Halt wäre dann tatsächlich das Kapitel UV [lexicon]Mapping[/lexicon]. Und dann das Kapitel wie erstelle ich eine fürs UV [lexicon]Mapping[/lexicon] passende Textur. Nur wäre das meiner Meinung nach jeweils einen Extrathread wert. Vor allem weil beide Themen ganze Bücher füllen könnten ...
-
Zitat
Zwischenfrage: Was ist CGI?
Computer Generated Imagery . Ein gerendertes Bild ist zum Beispiel CGI.
Leut, ich glaub ihr stiftet grade mehr Verwirrung als der Gutste verkraften kann. 3D Texturen würden nur dann eine Rolle spielen wenn sein Programm die auch nutzen könnte. Bezweifel ich mal stark. 3D Texturen spielen selbst im Profibereich nur eine sehr sehr kleine Rolle. Er braucht die 2D Variante davon

Lichtfänger braucht doch eigentlich nur zwei Sachen zu wissen. Was ist ein Material, und was ist eine Textur. Ein Material ist die Summe von Shadercode, Farbe oderTextur und Normalmap oder Bumpmap. Textur ist somit Teil des Materials.
Textur, Normalmap oder Bumpmap sind im Grunde nichts weiter als 2D Bilder. Normalmap und Bumpmap ist dafür da der Oberfläche Struktur zu verleihen. Die Textur ist das eigentliche sichtbare Bild das du auf dein 3D Mesh aufbringst.
Was du jetzt wirklich wissen musst ist: Im Material stellst du die ganzen Sachen ein. Und da lädst du auch deine Textur. Mehr brauchts eigentlich gar nicht

Wie man eine brauchbare Textur für ein 3D Objekt erstellt, wie man unwrappt, das ist dann wieder ein ganz anderes Kapitel. Für ersteres braucht man in der Regel erst mal ein gutes Malproggie. Für zweiteres einen guten Unwrapper. Und für beides viel Übung und Erfahrung.
-
Zitat
Letzlich spielt die Dateigröße des Texturmaterials auch eine Rolle beim Rendern.
Das gehört wohl in den Bereich Mythos

Im Ram und zur Berechnung nimmt auch eine Jpeg Datei die gleiche Grösse wie ein entsprechendes Bitmap ein. Ein Bildpunkt ist ein Bildpunkt, egal in welchem Format*. Da hast du beim rendern nichts gewonnen. Im Gegenteil, denn ein komprimiertes Format muss auch noch erst wieder dekomprimiert werden. Das geht allerdings so schnell dass man es nicht mitbekommt, und es auch eigentlich gar keine Rolle spielt.
Auf Platte sollte die Dateigrösse inzwischen auch keine grosse Rolle mehr spielen. Die gehen ja inzwischen in den Terabyte Bereich. Wenn du unbedingt komprimieren willst dann geht meine Empfehlung zu PNG. Ist zwar nicht ganz so klein wie Jpeg, aber es ist wenigstens verlustfrei. Jpeg ist fürs Web gedacht. Und da hat es auch seine Daseinsberechtigung. Für Texturen ist es eigentlich gar nicht gedacht

*Einzig DXT und noch mal ein anderes ähnliches Format bilden da eine Ausnahme. Das Kompressionsverhalten gegenüber unkomprimiert liegt hier so um die viermal kleiner. Aber diese Dateiart ist eine Kompressionsmethode für die Grafikkarte, nicht für den Arbeitsspeicher. Die werden zum Beispiel in 3D Spielen verwendet.
-
Sollte man nicht machen. Jpeg erzeugt durch seine verlustbehaftete Kompression Artefakte im Bild. Deswegen lässt man für Texturen in der Regel die Griffel von Jpeg. Nimm lieber ein Format das verlustfrei komprimiert werden kann. PNG oder TGA zum Beispiel. Oder auch Bitmap wenns keinen Alphachannel hat.