Beiträge von Melegrian

    Bis heute Morgen waren damit noch große Fragen und Fehlschläge verbunden, doch weil mir die Suche nur bedingt half, schreibe ich einige Zeilen dazu. Eine DAZ to Blender Bridge half dabei nicht.


    Erster Schritt, in DS markieren und als Wavefront *.obj nach TG exportieren.



    Nun, da fehlt noch etwas, nein, nicht fehlen, eigentlich ist etwas zu viel, was da nicht hineingehört. Hätte mir schon gestern klar werden können, als ich mir die *.mtl Dateien von den Freebies mit OBJ- und TGO von Silva3d betrachtete, mit den es keine Probleme beim Import gab. Stolperte aber erst heute so richtig darüber, als ich mitbekam, dass auch Blender die Bildpfade nicht in Anführungszeichen setzt.


    Also raus mit den Anführungszeichen (eigentlich doppelte Hochstriche), alle in der MTL gelöscht und ein Objekt in ein zweites Projekt importiert.



    Schon besser, aber noch nicht ganz richtig, vor allem, was die unteren grünen Blätter betrifft. Nun das Objekt kurz in Blender importiert, markiert und wieder exportiert, es scheint beinahe annehmbar zu sein. Das vordere grüne Blatt ist in Blender ganz zu sehen, möglicherweise ist es hier im Boden versunken, von Gartenerde bedeckt, oder was auch immer. Doch die Blätter sehen nach Blätter aus.



    Bis hierher kam noch gelegentlich der Spruch als Warnung: "Unable to find surface motion vectors image"

    Später nicht mehr, zumindest nachdem ich die benötigten Texturen kopiert und die Kopien in ein Unterverzeichnis vom Objekt ablegte, selbstverständlich dabei die Pfade in der MTL anpasste (ohne Hochstriche).



    Die weiße Plane in den Bildern ist auf 10 x 10 Meter und die Primeln sind auf 0.7 skaliert. Ließ diese so groß, damit etwas zu sehen ist. In TG befindet sich aber unter dem Objekt Dialog eine Auswahl für Zentimeter, dann wären sie halt kaum noch zu sehen bei dieser Einstellung der Kamera. Da die Free-Version beim Import auf 3 Populationen begrenzt ist und ich noch nicht ausgetestet habe, ob das auch für Single Objekte gilt, bin ich beim Import über File -> Objekt gegangen.


    Wo ich mir nicht sicher bin, ob meine Auswahlen bei den Menüs von DS und Blender richtig sind. Habe lieber ein paar Häkchen mehr gesetzt, als zu wenige davon. Wer könnte dazu etwas sagen?

    Erstes Bild Export DS, zweites Bild, was ich für die Export-Optionen in Blender halte.


     



    Eine kleine Aktualisierung, es geht auch ohne den Umweg über Blender, also direkt vom DAZ Studio nach TG.
    Mehr dazu unter:


    Nun ja, ich verstehe oft nicht richtig, von was eigentlich die Rede ist. Das mit der Kleidung war ja mein Einstieg hier mit dem Thema "Outfits in Posen". Da blieben ja die Kleider auch zuweilen wie auf einem Garderobenständer stehen, oder die Haare in der Luft, während sie sich setzen wollte und andere Dinge. Ohne Fragen zu stellen, hätte es sicherlich wesentlich länger gedauert, ehe ich es kapiert hätte.


    Heute habe ich mir Blender installiert und eine Daz to Blender Bridge, weil ich im DAZ Shop einige Dinge gefunden habe, die dafür ausgelegt sind und sich in Terragen gut machen würden. Da gibt es wieder andere Probleme.

    Gut, aber den Satz habe ich nicht richtig verstanden.

    Dort kann das Teil der Pose zugewiesen werden (fit to) und bewegt sich nun brav mit der Pose.

    Warum auf Pose, diese wechseln doch auf der Timeline, teilweise mit angepassten Übergängen zwischen zwei unterschiedlichen Posen?

    Ich weise es der Figur zu, teilweise den jeweiligen Körperteilen bei weiteren Dingen, die Figur bewegt sich doch zu unterschiedlichen Posen.

    Bin gespannt, wie es weitergeht.


    Ich teste eine kleine Animation mit 375 Frames in verschiedenen Qualitätsstufen und Bildgrössen.

    Wegen Bildgrößen habe ich mir nie Gedanken gemacht. Lightworks liefert in der Free-Version zum Verwenden nur in einer YouTube Größe von 1280 x 720, bei Terragen verhält es sich ähnlich und woanders als bei YT werden meine Videos wohl nicht zu sehen sein. Allenfalls noch beim "Offenen Kanal", doch mehr gewiss nicht. Mehr würde mein Rechner wohl auch nicht bringen.

    Bis jetzt ist die noch nicht toll. Betrachte die auch eher als Übungsobjekt.


    Das Ufer auf der anderen Seite, da könnten die Farben beinahe so bleiben, diese Seite gefällt mir gar nicht. Um die Buhne etwas einzukürzen, müsste ich in der Heightfield versuchen, etwas Störendes habe ich schon weggenommen. Doch auch so, die sieht einfach noch nicht richtig aus. Den Image-Shader habe ich wieder deaktiviert, der war noch ungeeignet.
    Dann mal schauen, wie es mit Pflanzen aussieht. Meine, bis auf Sichtweite werden die alles gerodet haben, um Angreifer früh genug zu erspähen. Doch etwas Bewuchs gehört schon dazu. Nun ja, es eilt ja nicht.



    Doch, nun weiß ich, was ich will, zumindest für ein erstes Video. Bin einmal mit der Kamera übergesetzt, sah gut aus.


    Von der ersten bis zur letzten Position wurde es immer besser. Sieht nach Kreis aus, irgendwie gut, um dort eine Darstellerin zu positionieren, dann rein zu zoomen. Den Mittelpunkt suchen, dann vier Einzelrender zu einem Bild zusammensetzen, anders wird es nicht gehen mit der kostenlosen Version. Wenn das klappen sollte, ist das Bild aber groß genug, um ins Bild zu zoomen.



     

    Tja, und bei meiner Elblandschaft, da steht auf dem Burgberg keine Ruine, nur ein Restaurant. Ein Tor und etwas Mauerwerk ist erhalten, mehr nicht. Weiß nicht einmal, aus welcher Zeit. Die erste Burg wurde vor rund 1.000 Jahren von slawischen Stämmen (Elbslawen) abgefackelt, oder so ähnlich. In dieser Zeit wurde noch mit Holz gebaut, erste Burgen aus Naturstein kamen erst 150 Jahre später auf, las ich. Somit weiß kein Mensch mehr, wie die ausgesehen haben könnte, vermutlich eine hölzerne Palisade und einige passende Gebäude. Von der späteren gibt es ein Bild von 1845, doch darauf ist die nur aus der Ferne zu sehen.


    Heute habe ich mich weiter mit der Elblandschaft beschäftigt, versucht beim Buhnenkopf einen "Image map shader" zu verwenden. Der lässt sich nicht, im Gegensatz zu den bisher verwendeten Shadern, auf eine Höhe abstimmen, wie es ausschaut zumindest, und entweder ist er groß oder zu klein. Doch selbst auf 500 Meter aufgeblasen, hätte die Ausrichtung ohne eine Regie-Kamera noch einige Stunden länger gedauert. Die untere ist die Render-Kamera und der helle Fleck der Image map Shader.



    Vom Muster bleibt nicht viel übrig, wenn ein Image von 1280px im Quadrat auf 500 m² als schmales Band oder ebenfalls im Quadrat aufgeblasen wird. Ein ganzes Gelände zu Kacheln war hingegen einfach. Nun weiß ich zwar, wie es geht, nur so geht es halt noch nicht, wenn eine Sand- und Steinchenstrucktur erkennbar werden soll.


    Für den See und das Spotlicht habe ich mir ein Campfire vom DAZ Shop vorgemerkt. Müsste dann halt alles aufeinander abgestimmt werden.

    Hatte zum Abschluss des Tages nach Lichtern gesucht, Bilder unter dem Stichpunkt "Lichterritual auf dem Ganges" gefunden, dann weiß ich nicht mehr wie es kam, auf einmal war ich bei Wasserlaternen. Bei eBay und in einigen weiteren Angeboten, im Zehnerpack. Dachte mir, die könnten passen, wenn man diese etwas größer hält, so dass sie auch zu sehen sind. Mit Blender sollte es gehen.


    Und heute habe ich nicht schlecht gestaunt, hat genau diese Wasserlaternen schon einer mit Blender animiert. Gefällt mir, wie er das umgesetzt hat. Keine Ahnung, wie man hier ein Video einfügt.


    Blender Animation - Wasserlaternen

    Etwas dichter über der Oberfläche werden Spiegelungen erzeugt, auch mit ausgeblendeten Objekt,

    Bei diesem Punkt muss ich mich korrigieren. Werden nicht erzeugt, wenn man bei "Specular heighlits" das Häkchen entfernt, bei "Visible Object" ja ohnehin vor dem Rendern. Beide Häkchen weg und es muss bei diesem Licht ( Light source) nichts nachträglich retuschiert werden.


    Heute habe ich das Spotlight getestet. Es lässt sich etwas mühseliger ausrichten, zumindest nach meiner bisherigen Einschätzung. Doch nun habe ich mir erst einmal zwei Einstellungen gespeichert. Einmal etwas mehr auf einem Punkt und einmal etwas weitläufiger.


     


    Jetzt fehlt mir auf dem See beinahe etwas, vielleicht eine richtige leuchtende Kugel. Besser, etwas Ähnliches, wie diese Schalen mit Lichtern auf dem Ganges. Habe gerade einen Pack Wasserlaternen gesehen. Denke schon den halben Tag daran, ob ich mir noch Blender installiere, damit sollte es gehen, nehme ich an. Was ich mir angesehen hatte, wie man mit Blender Findlinge und Kugeln fertigt.

    Nicht das ich davon Ahnung hätte, bin immer zufrieden, wenn bei mir alles läuft. Keine Ahnung, ob es damit zusammenhängt und etwas bringen würde. Ist ein kurzes Video, in dem eine Sperre umgangen wird:


    Remote Desktop (RDP) in Windows 10 HOME aktivieren


    Noch ein anderes Video dazu gefunden. Er erklärt es etwas ausführlicher, verweist aber auch darauf, dass Microsoft diesen Umweg zukünftig sperren könnte und das Video ist vom Januar 2020. Falls es noch funktionieren sollte, weißt man nie, wie lange noch, deshalb würde ich es so eher nicht machen, falls nicht unbedingt erforderlich.

    Hier die aktuellen Quellen zu DEM

    Copernicus DEM von der ESA erwähnen die aber auch nicht, oder habe ich etwas übersehen?

    zusammengesetzt aus dem USGS Archiv

    Zum Herunterladen bei USGS hatte eine Anleitung gesehen, bin der Schritt für Schritt gefolgt, dann fehlte, im Vergleich zum Video von 2019, eine Auswahlmöglichkeit. Später fand ich dann eine Website von der NASA, wo man sich diese herunterladen konnte. Die gelblichen Beschriftungen im Screenshot sind nur meine Notizen . Was ich gesucht hatte, war aber bei denen nicht so gut, wie bei Tangrams.

    Nun habe ich es, nachdem ich gestern eine Beispielrechnung fand. Allerdings eine alte Rechnung, die mich zunächst verwirrte. Zu DOS-Zeiten soll es eine Regelung gegeben haben, nach der die Endung von Dateien nicht mehr als 3 Buchstaben haben sollten, oder so ähnlich. Jedenfalls kann man an viele Bildformate noch ein w für eine Datendatei anhängen. Bei nicht mehr als drei Buchstaben wurde bei *.tif auf das i verzichtet, seither gibt es eine *.tfw.


    Nun ja, es soll auch mehr Druckereien gegeben haben, die Landkarten druckten. Dafür war die Berechnung auf Seite 15 der PDF (Georeferenzierung über das TFW-File). Wenn eine Karte im Maßstab 1 zu 10.000 gedruckt wird, dann entspricht 1 cm auf der Karte gleich 100 Meter real. Wenn diese aber nun mit 300 dpi gescannt wird, kommt dabei ein Wert für die erste und vierte Position von 0,846666666667 heraus. Habe es aber nicht nachgerechnet.

    Jedenfalls war ich viel zu hoch mit meinen Testzahlen, musste mich langsam herantasten, wo ich denn nun mit meinen bei Google Maps gemessenen 15 km bleibe. Der Inhalt meiner TFW sieht nun so aus:


    0.00015100

    0.0000

    0.0000

    -0.00015100

    1.10000

    1.10000


    Als geografischen Koordinaten 5 und 6 habe ich mir einen Punkt im Atlantischen Ozean in der Nähe des Äquators und des Nullmeridians gesucht, sind somit bedeutungslos und werden ohnehin nicht angezeigt. Hat den Vorteil, dass diese nie geändert werden müssen.

    Es können mehrere Heightfelds in einem Verzeichnis liegen, ganz wichtig ist nur, dass die zusammengehörigen TIFs und TFWs einen gemeinsamen Namen erhalten und sich nur durch die Endung unterscheiden.

    Die Größen richten sich nach den jeweils gemessenen Entfernungen und können schnell angepasst werden. Habe es quadratisch zugeschnitten, damit ich nicht zweimal messen brauchte, und dabei am Ende noch vertauschen. Zum Beschneiden von Images einige Notizen gemacht, sonst müsste ich später erneut überlegen. Nun sollten sich die einzelnen Schritte mit jedem Bildbearbeitungsprogramm und Texteditor durchführen lassen.

    Habe es für den eigenen Gebrauch so geschrieben, dass ich dafür kein weiteres Programm benötige. Nun werden nach den Laden die richtigen Entfernungen angezeigt, wie im ersten Bild. Das zweite Bild ist nur nebenbei und hat nichts mit Terragen zu tun, nur mit den verkürzten Bearbeitungsschritten.


     


    Ergänzend: Terragen berücksichtigt, dass der Abstand zwischen zwei Bogensekunden sich zu den Polen verjüngt. Laut Wikipedia beträgt dieser am Äquator etwa 30,9 m, bei Oberhof etwa 21,1 m, in Mitteldeutschland etwa 19,5 m und bei Sylt etwa 17,7 m.

    Bei einem Ausschnitt verjüngen sich die Angaben aber nur für diesen Ausschnitt. Was unten noch 15100 m war, ist dann in Mitteldeutschland nordwestlich Salzwedel nur 14833 m und auf Spitzbergen 14476 m. Bei Google Maps verjüngen sich die Entfernungen ebenfalls etwas, wenn man unten und oben nur von einer Seite bis zur anderen Seite des Monitors misst, somit sollte es sich ausgleichen. Für Spitzbergen:


    0.00015100

    0.0000

    0.0000

    -0.00015100

    79.75865745927891

    16.666384546961652


    In Terragen - xyz: 14476, 0, 15111

    Im Groben und Ganzen ging es.
    Dieses raus, das andere dafür rein.


     


    Ein Heightfield von Tangrams auf 900 x 900 Pixel zugeschnitten, halbwegs richtig geschätzt und den geschätzten Wert übernommen.



    Zusätzlich noch etwas mit Height multiplier gespielt, es kommt nicht ganz hin, aber auch nicht riesig weit entfernt. Mein Berg ist 33 Meter hoch, wenn ich mit der Maus darüber fahre, in der Wikipedia steht aber bei Arneburg: "Der Burgberg liegt 35 Meter über der Elbe." Den Wasserstand müsste ich wohl auch noch abziehen, dann fehlen einige Meter.


    Der Vordergrund gefällt mir bisher am wenigsten vom Bild, doch so ungefähr vom Geländeprofil sieht es dort aus, nur halt das der Berg bewaldet und verbuscht ist. Zumindest vor Jahren noch, war schon lange nicht mehr dort.



    In der TG Wiki heißt es:

    Zitat

    The georeferencing data is loaded from TFW files, which should be in the same location as the TIFF.


    Übersetzt: "Die Georeferenzierungsdaten werden aus TFW-Dateien geladen, die sich am selben Ort wie das TIFF befinden sollten."


    Also eine TIF und eine TFW in einem Ordner speichern, verstehe es so. Die TFW enthält nur 6 Zeilen nach einem einfachen Schema, so viel ich bisher las.


    Georeferenzierung 

    Etwas älter auf Seite 6: Leitfaden_Georeferenzierung.pdf und wenn man es nicht kippen will, kann man sich einen Teil der Berechnung sparen, denke ich mir. Ein erster Versuch schlug aber fehl.

    Vielen Dank

    War ja mein Fehler, hätte kontrollieren sollen, ob der Link funktioniert. Also ebenfalls vielen Dank für den Hinweis.


    Bin bei Tangrams den unteren Links gefolgt, ein Script liegt bei GitHub, mit Anbindung an Blender, wie es ausschaut (von richtig durchblicken bin ich weit entfernt). Von da aus bin ich den zweiten Link bei "Uses Mapzen’s global elevation service" gefolgt, und da steht tatsächlich etwas davon, dass sie begonnen haben, auf 10 Meter umzustellen. Das letzte Update auf der Seite ist von 2016/2017, könnte sein, dass sie zwischenzeitlich in Europa angekommen sind, zumindest hatte ich den Eindruck, was die Auflösung bei Tangrams anbelangte.


    Für kleinere Aufgaben bei der Bildbearbeitung verwende ich einige Python Codeschnipsel, weil Python eigentlich mit Pillow eine gute Library dafür besitzt. Wie es dann eigentlich geschrieben wird, da fand ich bisher meist im Web etwas, oft bei Stack Overflow. Vom Beispiel habe ich die Zeilen für Kontrast entfernt, den kann man in TG vorher einstellen, doch für ein geringfügiges Nachschärfen bin ich auf einen Wert von 1.8 gekommen. Gut, das kann man auch mit jedem Grafikprogramm. Doch ein in Range darüber, den Code einrücken und es lässt sich schnell ein durchnummerierter Stapel verarbeiten.

    Wie man Daten aus einer Elevation-Map ausliest, dazu fand ich etwas, nur nicht, wie man sie einträgt.


    Bei eigenen Zeichnungen kann man sich danach richten, dass TG aus einem Pixel einen Meter macht. Vielleicht sollte ich erst einmal seinem Beispiel mit Creating canyon in Terragen folgen, denn gestern bin ich mal wieder an einige Grenzen gestoßen, dabei feststellte, noch viel zu wenig TG zu verstehen.


    Es scheint doch zu funktionieren, nur nicht, wie ich es mir vorstellte. Über Add Operator – Heightfield Resize wird aus einer heightfield.png vom Flachland, dargestellt mit berghohen Maulwurfshügeln, scheinbar wieder Flachland. Muss noch etwas genauer die einzelnen Schritte notieren. Werde einmal schauen, wie weit Tangermünde und Arneburg, beides Elbstädte, auseinanderliegen und mit denen testen, ob die Erhöhungen realistisch aussehen.

    Mit den Heightfields und Heightmaps war es bisher viel verspielte Zeit, ohne zu einem befriedigenden Ergebnis zu kommen. Bei Tangrams zeichnet sich die Elbe in unserer Gegend wie ein dunkler Faden ab, eventuell nachbearbeitet. Dafür fehlen zu einer Map gehörende Angaben. Die Auflösung dürfte etwa 10 Meter pro Punkt betragen, zumindest nachdem zu urteilen, was ich mir gezogen hatte und gestern grob mit den Entfernungen bei Google Maps verglich. So ein kleiner Landgraben, wie im zweiten Bild, dessen Verlauf lässt sich aber bei dieser Auflösung nicht einmal mehr erahnen.


     


    In einer Heightmap von der NASA konnte ich hingen den Verlauf der Elbe auch nach Stunden nicht eindeutig finden. Die Bogensekunde hat hier kein 30 Meter mehr, obwohl die Auswahlen noch als Quadrate angezeigt werden.


    Würde Tangrams vorziehen, wenn sich die Daten ergänzen ließen, doch das scheint nur in der Pro Version von TG möglich zu sein. Wie man es bereits vorher machen könnte, dazu fand ich nichts. Bei XY Size (metres) ist die Voreinstellung 1 zu 1 bei Heightfield load, womit:

    Zitat

    For example, a 300 pixel wide image will be 300 metres across.

    Und das kann es eigentlich nicht sein, denke ich mir, wenn bei der Aufnahme ein Punkt 10 bis 30 Meter entspricht, nur die Heightfield.png diese Daten nicht enthält. Falls sich da noch etwas zu finden lassen sollte, werde ich eventuell einen neuen Faden aufmachen, hat ja nichts mehr mit Wolken zu tun.


    Lese ich heute erst (vor einem Monat hätte ich danach noch nicht gesucht), von der EU werden über Copernicus ja auch DEM-Daten zur Verfügung gestellt, ebenfalls mit einer 30 Meter Auflösung.

    So, die Registrierung hat geklappt, man muss noch bei zwei Pulldown-Menüs etwas auswählen, Non-Profit und Land Processes kann wohl nicht verkehrt sein, dachte ich mir. Jetzt erst gesehen, eine Mail kam ja auch:

    Zitat

    Willkommen beim Earth Observing System Data and Information System (EOSDIS) der NASA!

    Vorher hatte ich noch einmal etwas gelesen, die Auflösung beträgt bei diesem Projekt eine Bogensekunde, was am Äquator etwa 30 Meter entsprechen soll. Nun ja, bei uns dann vielleicht die Hälfte oder so. Einen Graben dürfte man dann wohl noch nicht erkennen, einen Fluss hingegen schon, oder so ähnlich (nur eine Vermutung bisher). Alles in einem Rutsch herunterladen, ginge nur theoretisch, weil 365 GB. Erst einmal nur eine ..._dem.tif heruntergeladen, Gimp meinte, ich sollte eine der 9 enthaltenen Dateien auswählen. Da fungiert die Tif nur als eine Art von Containerformat, das kannte ich noch nicht.


    Habe nichts ausgewählt, sondern die dann gleich in TG nicht als File sondern als DEM geladen. Alles perfekt wäre übertrieben zu schreiben, muss mir den Import noch einmal im Video ansehen. Zumindest wurden die Maße erkannt.


     


    Da hatte ich nicht richtig geschaut, nicht 9 Dateien, sondern 9 Ebenen.


    Was mich etwas irritierte, ein gewisser Unterschied gegenüber dem oben verlinkten Video beim Import in TG. Die "Georeferencing of heightfields/DEMs" wird zwar richtig berechnet, doch nur in der Pro Version werden die Werte Latitude und Longitude angezeigt und lassen sich dort wohl bei Bedarf editieren.

    Glaub mir, das ist eine Welt für sich.

    Ja, ich weiß. Deshalb war ich sehr zufrieden, dass es zur Canon gleich ein Bildbearbeitungsprogramm für RAWs und andere Formate mit zu gab. Dieses DQ Tool hatte ich benutzt, als ich noch einen Röhrenmonitor hatte, doch nie richtig eingestellt bekam. Als dann der erste Wechsel auf einen flachen Monitor erfolgte, sahen viele Bilder nur noch flau aus, die von einem Labor angefertigten Abzüge waren gut.


    Mit den Files, das hat eigentlich Zeit. Aber danke für das Angebot. Mir geht es mehr darum, wie es funktioniert, sich gezielt etwas auszusuchen. Warum ich bei TG nicht mehr Daten eingeben kann und warum es da in der Auswahl nicht mehr vorhanden ist. Hier steht zumindest:

    Zitat

    Dieses ASTER-Produkt ist für jeden Benutzer gemäß einer Vereinbarung zwischen METI und NASA kostenlos erhältlich.

    Und auf der Seite von der NASA unter diesem Punkt, wobei die Vorschauen richtig aussehen:

    Zitat

    ASTER Global Digital Elevation Model V003

    Showing 20 of 22,912 matching granules

    Antesten werde ich es wohl, nur nicht mehr heute. Ist mit Registrierung, doch sich bei der NASA registrieren, halte ich weniger für problematisch. Nur mal schauen, was da enthalten ist.

    Warum wird das Bild hier so dunkel?


    Da warst Du gerade schnell. Das zweite Bild finde ich von der Helligkeit gut.

    Hatte vor langer Zeit einmal so ein DQ Tool vom Verband der Photoindustrie, jetzt aber auch nicht mehr, da verlasse ich mich auf eine einfache Graustufentreppe, oder wie man dazu sagt. Nun gut, vielleicht sollte ich es mir einmal herunterladen, oder das andere Tool, was unten auf der Seite angezeigt wird. Bei denen sollte man, wenn ich mich richtig erinnere, auf manuellen Download gehen, sonst holt man sich anderen Murks mit herunter, hatte ich vergessen zu erwähnen. Bin mir aber nicht völlig sich, ob es bei denen war. Das zweite Testbild lässt sich aber gleich, bei Klick auf Download, im Browser öffnen und braucht nicht unbedingt heruntergeladen und abgelegt zu werden. Habe es gerade probiert.


    Und danke für Deine Einschätzung, die hört sich gut an für den Anfang.


    Kartendienste gibt es noch mehr. Eine Karte mit einer polnischen Endung, macht zwar keinen vertrauenserweckenden Eindruck mit der Pflege, doch wenn man erst einmal herausgefunden hat, dass sich die Karte mit der rechten Maustaste in allen Richtungen drehen und verschieben lässt, ebenso wenn man zwischendurch die kleine Gitter-Auswahl, ebenfalls Rechtsklick in der Mitte vom Gitter, mit hinterherzieht, dann geht es. Was schlechter ist, der Download besteht aus einer RAW-Datei und Gimp antwortet mir:

    Zitat

    Es ist kein RAW-Lader zum Öffnen von »Pentax PEF-Raw«-Dateien installiert.

    Danach werden dann noch die RAW-Formate aufgeführt, die Gimp laden kann.

    So gesehen weiß ich nicht, was eigentlich enthalten ist.


    Was eigentlich auch gut zu sein müsste, Import DEM Maps von earthexplorer.usgs.gov und dazu diese beiden kurzen Videos. Im ersten Teil erklärt er seine Auswahl für eine Heightmap bei USGS, im zweiten Teil, seinen Import bei Terragen. Nun ja, ich nehme an, dass er es erklärt, verstehen tue ich leider nicht viel, sehe nur, was er macht und das sieht gut aus. Eigentlich genügt das ja.


    Mit der Auswahl in Europa hatte ich in einem ersten Versuch meine Probleme. Möglicherweise auf Nordamerika beschränkt oder so, ich weiß es nicht.


    Das mit USGS habe ich mir noch einmal angeschaut und noch einmal versucht. Mit der Auswahl in Europa klappt es beim Wechsel auf World Features, doch bei "Digital Elevation" fehlt die Auswahl "Aster Global DEM" und unten steht ohnehin ein Vermerk, nicht zum Download. Das dürfte sich damit erledigt haben.


    Es scheint doch noch über USGS zu gehen, denn sein Video "Terragen 4 Basics: Importing Real Terrain" ist ja erst 4 Wochen alt, nur etwas anders.

    sondern mich auf eines, vielleicht zwei Apps konzentrieren.

    Eben zwei kommen mir zurzeit bereits wie etwas zu viel auf einmal vor.


    Mit den Wolken hatte ich verschiedene Varianten mit "Haze densitiv" bei der Atmosphäre und "Cloud color" durchgespielt, um den Mond herum verloren die ihre Wirkung, praktisch nur auf der linken Seite sahen diese natürlicher für einen nächtlichen Himmel aus. Dann sollten auf dieser Seite vom Himmel aber ein paar Sterne zum Ausgleich funkeln, um zwei Varianten bei der Retusche verlaufen zu lassen.


    Mit der Kugel (Light Surce) habe ich ebenfalls noch etwas gespielt. An die Zahlen, die mich zunächst abschreckten, kann man sich gewöhnen. Hat man erst einmal über den Schieberegler einen akzeptablen Potenzwert (oder wie sich das nannte, e war wohl Exponent) gefunden, lassen die sich wieder einkürzen auf lesbare Zahlen. Im Beispiel auf 2.0 (2.0e+07), wobei für eine Feinabstimmung um 0.5 Schritte genügen sollten, denke ich mir bisher.


    Wichtiger wäre es bei der Kugel zu Anfang gewesen, gleich Visible Objekt zuwählen, denn für mich sah es anfänglich so aus, als würde sich der Grundriss vom Würfel noch über Land befinden, ähnlich wie im ersten Bild. Mit eingeblendeten Objekt war dann zu sehen, dass dieser am Abtauchen ist, wie im zweiten Bild.


       


    Etwas dichter über der Oberfläche werden Spiegelungen erzeugt, auch mit ausgeblendeten Objekt, doch das Umland erhält wieder etwas mehr nächtliche Schatten, wie im dritten Bild. Luminosity von den Shadern habe ich hierbei wieder auf 0 gesetzt, mir sahen die etwas glitschig aus, doch richtig gefallen mir die Farben noch nicht, werde ich noch weiter anpassen.

    Die Kugel habe ich im dritten Bild nicht ausgeblendet, die Spiegelungen auf dem Wasser bleiben auch dann, lassen sich aber leicht retuschieren, denke ich mir. Und ohne Nacharbeit in der Dunkelkammer ging es schon bei der Schwarzweißfotografie nicht ab. Soll ja nur ein Einzelbild werden.



    Ob die Kugel sich mit einem Spotlight verträgt, habe ich noch nicht ausprobiert. Zwei Kugeln wollte TG aber scheinbar nicht berechnen, bei einem ersten Test zumindest.

    Die Dimensionen sprechen nicht unbedingt dafür, es als Background Image im DAZ Studio zu verwenden, doch wenn der Betrachter keinen weiteren Anhaltspunkt hat, wie eben diese Kugel (Durchmesser bei den Vorschauen 400 Meter, im gerenderten Bild 100 Meter) sollte es im Vordergrund noch möglich sein, ein oder zwei Darsteller einzublenden.

    Dazu müsste ich mich dann aber richtig in die Beleuchtung vom DAZ Studio einarbeiten. Dass die Schatten im Background Image sichtbar werden, hatte ich schon einmal probiert, nur noch nicht weiter. Wobei mir erst einmal ein anderes Motiv vorschwebt.


    Dazu habe ich heute den Heightmapper ausprobiert. Zuerst die Ortsnamen mit anzeigen lassen, um besser unsere Umgebung zu finden. Angezeigt hat der mir die Höhen mit 24 bis 76 Metern, was hinkommen könnte. Die Größe der exportierten heightmapper.png entspricht des sichtbaren Fläche es Monitors, wobei ich weit reingezoomt habe, und die Bittiefe beträgt 32. Also diese heightmapper.png hat Terragen erst einmal ohne Probleme gefressen.


    Kleinere Problemchen danach, hätte ja diese Werte genommen. Es sind nur keine Meter, sondern die Pixel der verwertbaren Fläche vom Browser oder so, in einem mir unbekannten Maßstab. Könnte mir höchsten noch einmal die Ortsnamen anzeigen lassen, um dann grob zu schätzen, wie weit die Entfernung in Pixel ist, oder so ähnlich.



    Was mich aber etwas nervt, mein erstes selbstgezeichnetes Heightfield von weiter oben hat TG anders als die neue Datei verknotet. Beides sind nur PNG Dateien, beide habe ich nur über Add Terrain - Heightfield (load file ) geladen. Mein selbstgezeichnetes hat TG aber bei Fractal wrap verknotet und das jetzige nur als Heightfield shader. Ich weiß nicht mehr, was ich beim ersten Versuch anders machte.


       

    Deine Übersetzung habe ich gefunden, danke.

    Bevor ich TG herunterlud, hatte ich mir hier zwei Beiträge durchgelesen, "Terragen 4 Test" und "Terragen 4 verstehen".

    Habe mir so viele Seiten und Videos vorgemerkt, meine Notizen werden nur langsam unübersichtlich. Ich muss die unbedingt selbst mit Tags ordnen. Mir ist aber so, als hätte ich beim Erstellen vom Faden ein paar Tags eingegeben. Sicherlich nicht Terragen und Versionsnummer. Sah gerade, unter Thema bearbeiten lassen sich die Tags ergänzen.

    Einiges habe ich hier im Forum bereits gelesen, anderes noch nicht. Habe mir auch einige Videokanäle vorgemerkt. Darunter sicherlich nur einen englischsprachigen Kanal für spätere Zeiten, von Vladimir Chopine. Den verstehe ich zwar nicht, doch ich sehe, was er macht.

    Freut mich, ich lerne nur noch.


    Heute habe ich mich mit der Luminosity von den Shadern beschäftigt, in wieweit sich die Helligkeitswerte verändern, dann Stunde um Stunde, wie sich Light Source verwenden lässt.

    Anfänglich wunderte ich mich nur, dass die sich nicht drehen lässt, weil ich die ähnlich wie einen Scheinwerfer in eine bestimmte Richtung benutzen wollte, dann verstand ich nicht, warum dieses Licht sich sträubte, das Ufer auszuleuchten. Als ich mir die Lichtquelle dann anzeigen ließ, war ja zu erkennen, dass es sich um eine Lichtkugel handelt, die nur noch mit der oberen Hälfte aus dem Wasser ragte.


    Jedenfalls wurde es danach einfacher, nur es sind halt keine merkbaren Werte für mich, die gehen leider bis 1e+06 und die Vorschau finde ich wenig aussagekräftig, wenn es um eine Feinabstimmung geht.


    Die beiden Bilder unterscheiden sich nur etwas durch die Position der Kugel. Den Mond habe ich im Test jetzt nicht hineinkopiert.


     


    Mir fehlen nun etwas die vielen langen Schatten in der Nacht.


    Bei Gelegenheit werde ich noch das Spotlight testen. Die Bilder, die ich vorher gesehen hatte, da haben mich einige eher an ein Schneetreiben erinnert. Doch die ich gestern fand, wie er damit seine Neandertaler am Lagerfeuer ausgeleuchtet hat, finde ich gut. Oder ist mit PT Renderer noch ein anderer gemeint? Von der Vollversion vielleicht?


    und für den Mond würde ich eine kältere/bläulich-graue Farbe nehmen.

    Ja, oder einen Kupfermond/Blutmond, kommt halt immer darauf an.


    Gerade gefunden, weiter unten die Auswahlmöglichkeiten. Das Bild von den Griechen finde ich aber auch nicht schlecht.


    Zitat

    Was glaubst du, warum der Mond rot ist?


    Damit Verliebte in schönerem Licht knutschen können.

    Jetzt habe ich mir noch das Ergebnis anzeigen lassen, 60% sind für die wissenschaftliche Erklärung, doch immerhin 29% fürs Knutschen bei rotem Mond.


    Nun habe ich eine Vorstellung, was dazu passen könnte, ein Lagerfeuer mit mindestens einer Zweiergruppe.