uv-map zu einfacher textur konvertieren?

Es gibt 15 Antworten in diesem Thema. Der letzte Beitrag () ist von sternbach.

  • moin,


    gibt es eine möglichkeit eine uv-map, also die typische zerstückelte textur, zu einer normalen, simplen (unzerstückelten) textur zu konvertieren? hintergrund meiner frage:
    ich experimentiere grad mit photogrammetrie-programmen wie 123d catch und memento. selbst bei sehr flachen objekten/meshes generieren die programme immer uv-maps. ich brauche aber ganz stinknormale texturen. gibt es eine möglichkeit der konvertierung?... oder kenn jemand ein photogrammetrie-programm welches auch (sehr hochauflösende) einfache texturen generieren kann?

  • Ich musste erst mal nachgucken, was Photogrammetrie überhaupt ist :nachdenklich:. Leider begreife ich nicht ganz, was du brauchst. Eine "zusammengesetzte" Textur wäre ja schon das [lexicon]Mesh[/lexicon]. Oder meinst du eine Textur, wo die Säume keine Zwischenräume haben, sondern sozusagen alles zusammenhängend abgewickelt ist?

  • ok... ist auch ein bissl schwer rüber zu bringen das thema, sorry. ich versuche es noch mal mit mehr hintergrundinfos und beispielen:


    ich muss flache, strukturierte flächen von 2-4 m² grösse fotografieren. das ergebnis sollen hochauflösenden fotos sein, die absolut planar zur fläche von oben fotografiert sind bzw. so aussehen als ob. es besteht aber keine möglichkeit die kamera exakt mittig über der jeweiligen fläche zu positionieren. ich kann quasi nur um die flächen herum laufen und sie auf dem boden stehend per hand aus verschiedenen perspektiven fotografieren. dadurch entstehen logischer weise perspektivische probleme und die bilder lasse sich nicht ohne weiteres per hand zu einer einzigen aufnahme zusammenfügen, so dass es aussieht als ob exakt parallel von oben fotografiert wurde.
    meine idee war, dies mit photogrammetrie-software zu realisieren, da diese darauf spezialisiert ist aus etlichen einzelaufnahmen (aus verschiedenen perspektiven) ein korrekte 3d-model zusammen zu setzen inkl. texturen. das funktioniert auch wunderbar. das dabei entstandene [lexicon]mesh[/lexicon] interessiert maich aber eigenlich gar nicht, ich brauche nur die zusammengerechnete textur. das programm erzeugt aber automatisch uv-maps als textur, mit denen ich für meine zwecke nichts anfangen kann, das diese wie ein puzzle aussehen. ich brauche das zusammengesetzte puzzle (stitching). hier ein beispiel (kein reales beispiel des tatsächlichen materials sondern nur zur versinnbildlichung), links das was ich brauche, recht typische uv-map:


    3pnfrriu.jpg

  • Achso... hm. Es gibt einige gute Texturen-Seiten, wo man kostenfrei Texturen herunterladen kann, cgtextures.com oder so. Da könntest du mal stöbern.


    Oder du machst es ähnlich wie die Polizei: du legst an einer Stelle, die du vielleicht nicht brauchst, vor dem fotografieren einen l-förmigen Winkel mit cm-Einteilung (am besten quadratisches Schachbrett) auf die Oberfläche. Wenn du dann mit dem Grafikprogramm und der Perspektiven- / Scheren- / wiesieauchimmerheißt-Funktion das Bild deformierst, kannst du mit Hilfe dieser Schablone feststellen, wann es exakt "von oben" ist. Dann musst du nur noch die einzelnen Fotos zusammenmatschen. (Tipp: wenn du diesen Winkel mit dem Grafikprogramm machst oder einscanst, kannst du ihn als semitransparente Ebene über das Foto legen, um zu sehen, wann "exakt" auch exakt ist.)

  • Achso... hm. Es gibt einige gute Texturen-Seiten, wo man kostenfrei Texturen herunterladen kann, cgtextures.com oder so. Da könntest du mal stöbern.


    ja ist klar, aber ich brauche keine texturen. mir geht es nur um meine zu fotografierenden flächen.


    Zitat

    Oder du machst es ähnlich wie die Polizei: du legst an einer Stelle, die du vielleicht nicht brauchst, vor dem fotografieren einen l-förmigen Winkel mit cm-Einteilung (am besten quadratisches Schachbrett) auf die Oberfläche. Wenn du dann mit dem Grafikprogramm und der Perspektiven- / Scheren- / wiesieauchimmerheißt-Funktion das Bild deformierst, kannst du mit Hilfe dieser Schablone feststellen, wann es exakt "von oben" ist. Dann musst du nur noch die einzelnen Fotos zusammenmatschen. (Tipp: wenn du diesen Winkel mit dem Grafikprogramm machst oder einscanst, kannst du ihn als semitransparente Ebene über das Foto legen, um zu sehen, wann "exakt" auch exakt ist.)


    jepp... aber das ist eine sau arbeit wenn man 30 -100 bilder pro motiv hat. darum suche ich einen prozess das zu automatisieren. hinzu kommt, dass bei strukturierten flächen die höheninformationen aus jedem winkel immer leicht anders aussehen als wenn man parallel zur fläche von oben fotografiert. das bekommst du in photoshop kaum sauber hin... photogrammetrie-software kann das, weil sie ja genau darauf spiezialisiert ist um 3d-objekte zu erzeugen.

  • Wie sieht dieses erzeugte [lexicon]Mesh[/lexicon] aus? Ließe es sich mappen wie ein Würfel?


    Es gibt einige Programme, die eine Textur umrechnen können: UVLayout, ZBrush, sogar Daz Studio (aber da ist die Qualität nicht sooo toll)
    Voraussetzung ist allerdings immer, dass dasselbe [lexicon]Mesh[/lexicon] mit zwei verschiedenen UVs vorliegt. Du müsstest das [lexicon]Mesh[/lexicon] also auf eine Weise mappen, dass eine zusammenhängende Textur entstehen kann.


    Oder du könntest folgendes versuchen:
    Lade das [lexicon]Mesh[/lexicon] in ein 3D-Programm.
    Weise die Textur zu.
    Stelle das Licht so ein, dass möglichst wenige Schatten entstehen.
    Positioniere die Kamera in einem 90°-Winkel zum [lexicon]Mesh[/lexicon].
    Rendere in der gewünschten Größe.

  • Wenn ich es richtig verstanden habe existiert überhaupt erstmal gar kein [lexicon]Mesh[/lexicon] sondern nur ein Haufen Fotos aus unterschiedlichen Perspektiven. Wie wärs denn mit einem Photostitcher wie http://www.ptgui.com/info/photo_stitching.html
    123D Catch versucht ja aus Fotos ein gemapptes 3d Model zu generieren - aber ein zurückführen der UVs auf eine simple planare Projektion funktioniert nicht - woher soll das Programm wissen was wohin gehört?
    Der optimale Arbeitsablauf wäre ein Galgen mit Digi-Kamera über der Fläche und eine abgestimmte Objektiv-Korrektur in Deinem bildverarbeitenden Programm.

  • Hi, das sieht mir sehr nach einem QS-Thema aus.
    Wenn man, selbst mit einem Galgenstativ, nicht von der richtigen Position fotografieren kann, dann sind oft Maschinenteile oder Prozess-Abläufe "im Weg" (nur so 'ne unwichtige Vermutung :-) )


    Das Programm, was Du suchst gibt es schon ... ABER ... vorderste Front der Forschung und für Normalbürger ein Fall von: "Mit Kanonen auf Spatzen schießen" :-).
    Und vermutlich nicht so einfach zu bekommen.


    Du suchst offensichtlich sowas, wie den "ePuzzler" vom Frauenhofer-Institut.


    Schau mal hier:
    https://www.ipk.fraunhofer.de/…-zerrissenen-stasi-akten/


    Andererseits ... fragen kostet nichts.

    Konstruktive Bildkritik, Hinweise auf Fehler und /oder bessere Arbeitsweise immer erwünscht.

    "Besser auf neuen Wegen etwas stolpern, als auf alten Pfaden auf der Stelle zu treten!"

    oder

    "Wer immer tut, was er schon kann, bleibt immer das, was er schon ist."

  • danke für euer reges feedback :-)


    Zitat

    Wie sieht dieses erzeugte [lexicon]Mesh[/lexicon] aus?


    sehr flach, leicht strukturiert (also mit leichten höheninformationen) und die form meist ähnlich wie ein spiegelei.



    Zitat

    Es gibt einige Programme, die eine Textur umrechnen können: UVLayout, ZBrush, sogar Daz Studio (aber da ist die Qualität nicht sooo toll)
    Voraussetzung ist allerdings immer, dass dasselbe [lexicon]Mesh[/lexicon] mit zwei verschiedenen UVs vorliegt. Du müsstest das [lexicon]Mesh[/lexicon] also auf eine Weise mappen, dass eine zusammenhängende Textur entstehen kann.


    hmm.. hab leider keine ahnung ob und wie das im photogrammetrie programm geht....*grübel*


    Zitat

    Oder du könntest folgendes versuchen:.....


    genau so mache ich es seit ner weile... die quali reicht mir aber nicht. zu viel konvertierungsverluste etc. ...die uv-meshtexturen liegen leider immer nur als jpg vor (das PG exportiert nur jpg), so dass zur leichten schwammigkeit, die beim stitchen entsteht auch noch die jpg-komprimierung dazu kommt. öffnet man dann den/das [lexicon]mesh[/lexicon] in einem 3d-programm zwecks rendern, kommen noch mal qualiverluste bei der textur durch skalierung, interpolation, texturfilterung, usw. dazu. wenn ich das dann auf 8192 x 8192 pix ausrendere, ist das bild in der 100% ansicht zu matschig und wirkt wie ein bild von einer 4 megapixelkamera.



    Zitat

    Wenn ich es richtig verstanden habe existiert überhaupt erstmal gar kein [lexicon]Mesh[/lexicon] sondern nur ein Haufen Fotos aus unterschiedlichen Perspektiven. Wie wärs denn mit einem Photostitcher wie ptgui...


    jepp... wurde mir auch schon an anderer stelle empfohlen. schau ich mir als nächstes an.


    Zitat

    123D Catch versucht ja aus Fotos ein gemapptes 3d Model zu generieren - aber ein zurückführen der UVs auf eine simple planare Projektion funktioniert nicht - woher soll das Programm wissen was wohin gehört?

    .


    123D Catch ist zu schlecht. momentan experimentiere ich mit dem grossen bruder memento rum. ...und woher das programm das wissen soll? ganz einfach, indem ihm der anwender mitteilt aus welcher perspektive er eine map ausgerendert haben will. technisch dürfte das kein problem sein. photogrammetrie programme für luftbildaufnahmen wie Pix4D Mapper können das auch. leider leider haben die so viel anderen, fachspeziefischen analyse- ortungs, und 3d schnickschnack an board, dass da gleich mal $8000 fällig sind. utopisch.


    Zitat

    Der optimale Arbeitsablauf wäre ein Galgen mit Digi-Kamera über der Fläche und eine abgestimmte Objektiv-Korrektur in Deinem bildverarbeitenden Programm.


    ist mir klar (bin berufsfotograf), aber technisch vor ort nicht möglich. ich muss das motiv freihand umkreisen, und selbst das geht nicht immer 360°. ...es ist auch nur ein low-budget projekt, so dass investition in zusätzliche software oder equipment nicht drin ist. wenn ich die investierte arbeitszeit realistisch betrachte ist es betriebswirtschaftlich ein minus-projekt. ....ich beiss mich da nur so rein, weil mich die materie und die herausforderung interessiert :-)
    ich hab mich da in verbindung mit 3d auch nur so reingesteigert, weil ich zwei leute im www entdeckt hab, die genau das mit atemberaubender qualität hinbekommen (also exakt den workflow: photogrammetrie > texturtransfer von uv zu regulären 2d bildern) ...nur leider und verständlicher weise rücken die nicht mit ihrem know how raus. hätte ja sein können, dass ich bei beschäftigung mit der materie zumindest ansatzweise rausbekomme wie es geht.

  • [quote='enjoy_vue','http://www.3d-board.de/index.php/Thread/31883-uv-map-zu-einfacher-textur-konvertieren/?postID=278993#post278993'
    ich hab mich da in verbindung mit 3d auch nur so reingesteigert, weil ich zwei leute im www entdeckt hab, die genau das mit atemberaubender qualität hinbekommen (also exakt den workflow: photogrammetrie > texturtransfer von uv zu regulären 2d bildern) ...[/quote]
    Oha - das würde ich mir gerne selbst einmal ansehen. Hast Du einen Link?
    (Ich war mal zu einem Vortrag einer Firma die ganze Landstriche scannt und gleichzeitig UV-mappt - allerdings nur um dann HDRIs davon zu erzeugen)

  • Zitat

    Oha - das würde ich mir gerne selbst einmal ansehen. Hast Du einen Link?


    RDT bauen auf diesem weg z.b. ihre extrem hochauflösenden und detailreichen texturen (16k/24k ...regulärer verkauf in 8k):



    ähnlich arbeitet auch quixel beim aufbau ihrer megascans-library.


    den link zu dem ersten typen den ich damals entdeckt hab, finde ich grad nicht wieder. war in irgendeiner photogrammetry-diskussion.