Beiträge von Melegrian

    Das wirklich geile Zeug mit dem sich deine Musik auch nach was anhört macht dich aber arm, seufz ...

    Bei virtuellen Instrumenten werden die meisten nicht zum Testen angeboten. Da bin ich schon mit reingefallen.
    Vor Jahren ist es mir noch nicht aufgefallen, doch in diesem Jahr, dass die meisten virtuellen Instrumente, kostenlose vielleicht nicht, doch andere, nur noch über den Kontakt Player von Native Instruments laufen, Freischaltung über Native Access. Den kann ich so oft deaktivieren wie ich will, schaue ich in den Task Manager, sehe ich immer etwas von NI Service und NI Host.

    Und das FL Studio hat einen ZGameEditor Visualizer, nur da möchte ich es nicht beschwören, dass man mit dem in der Free Version bereits arbeiten kann. Hatte ich nicht getestet, weil ich vom eigentlichen Funktionsumfang bereits erschlagen war. Nun nicht für Videos benutze, weil nicht meine Richtung, es liegen aber genug Beispiele für Kamerafahrten usw. bei und die lagen auch in der kostenlosen Version bei.

    Mir geht es jedoch wie immer um kostenlose Freeware.

    MuLab von MuTools gibt es in einer kostenlosen Version, die Pianoteq mit kleinen Einschränkungen ebenfalls.

    Und gerade fällt mir noch ein, vom FL Studio hatte ich zuerst auch nur die kostenlose Version getestet. Die hat einen Haken, man muss Begonnenes fertig machen und als Audio speichern, bevor man die Anwendung schließt. Ein begonnenes Projekt lässt sich in der Free-Version nicht erneut aufrufen.

    Hatte mit Samplitude Music Studio (nicht mit Music Maker verwechseln) von Magix angefangen, zwischendurch auch mal MuLab von MuTools ausprobiert, mir im Januar noch die Producer Version vom FL Studio zugelegt. Würde Anfänger heute immer noch zum preiswerteren Music Studio von Magix raten (sah gerade eine Version von 2019 bei Amazon für 19,99), weil über der Pianoroll die Noten mit eingeblendet werden.


    Mein bisher nicht veröffentlichtes Beispiel (wollte ja eine Figur etwas Flöte spielen lassen), die Gilderoy von 1726, die in der Wikipedia und anderswo als Vorläufer von Star of the County Down betrachtet wird. Und ja, die Intervalle sind es. Die Flöte ist eine synthetische Piccolo aus dem FL Studio und beim Piano handelt es sich um eins aus der Pianoteq 7 von Modartt, ebenfalls synthetisch und nicht gesampelt.


    Gilderoy 1726

    Du darfst nur die Löcher nicht mit Boolean reinmachen.

    Danke, den Tipp werde ich mir merken und daran denken, wenn ich soweit bin. Jetzt habe ich mir nur zwei Videos angeschaut, beide haben nach Vorlage Bauern für Schach gefertigt, die restlichen Figuren wohl in den nächsten Parts. Beide sind etwas unterschiedlich vorgegangen.

    Die etwas ältere Version war auf Deutsch und dadurch für mich verständlicher, die neuere nicht, doch in dieser wurde nur die Hälfte der Vorlage nachgezeichnet, dann ein Zirkel geschlagen, oder so, und fertig war die runde Grundlage.

    Ein wenig so ist es "leider", andererseits wollte ich Blender, wo nun außerplanmäßig installiert, etwas besser verstehen lernen. So ein Stück Holz drechseln, damit es am Ende aussieht wie eine Flöte, dazu sollten sich Videos finden lassen. Nicht direkt für eine Flöte, doch für ein Geländer mit gedrechselten Sprossen, da lief mir bereits eins über den Weg.

    Bin aber schon gespannt wie Texturen aussehen wenn sie von DAZ Puppets in Bryce importiert werden....

    Sicherlich noch etwas anders. Bei mir handelt es sich ja nur um einzelne Objekte.
    Habe es noch einmal durchgespielt, es lässt sich abkürzen:


    1. einen neuen Projektordner im TG Verzeichnis anlegen,

    2. in diesem ein Unterverzeichnis für Objekte,

    3. in diesem ein Unterverzeichnis für Texturen.

    4. Von DS als OBJ ins Unterverzeichnis für Objekte von TG exportieren.

    5. Nun die benötigten Texturen manuell ins TG Verzeichnis für Texturen kopieren.


    Bis hierher sieht der Inhalt der MTL-Dateien noch so aus wie im Bild und wird von TG nicht richtig geladen:



    6. Nun kurz in Blender importieren, markieren, exportieren, damit die MTL neu geschrieben wird.

    7. Danach die Pfade manuell aufs neue Verzeichnis einkürzen:



    Nun liegt alles im grünen Bereich, etwas hochskaliert:



    Vielleicht hätte ich fürs Herunterladen nicht DazCentral benutzen sollen, sondern manuelle Installation. Keine Ahnung, wie es damit funktionieren würde.
    Es kommt eine andere Frage erneut auf, lassen sich über Blender so auch Objekte von VUE importieren und als OBJ exportieren?


    Diese hätte ich ganz gern verwendet: Old Irish Rock Walls With Flute - Vue 9 - VOB File.

    Keine Ahnung wie das mit den Figuren bei Terragen mittlerweile ist, habe keine zeitgemäße Version.

    In der Free-Version würde es gar nichts bringen, weil in dieser noch keine Animation vorgesehen ist. Doch für Hintergrundmotive in DS sollte die gut sein, dachte ich mir. Im See würden sich die Wellen nicht bewegen, wäre weniger schön, doch über festem Land bekommt es keiner mit, wenn die Wolken in 10 Sekunden nicht weiter ziehen.

    Bis heute Morgen waren damit noch große Fragen und Fehlschläge verbunden, doch weil mir die Suche nur bedingt half, schreibe ich einige Zeilen dazu. Eine DAZ to Blender Bridge half dabei nicht.


    Erster Schritt, in DS markieren und als Wavefront *.obj nach TG exportieren.



    Nun, da fehlt noch etwas, nein, nicht fehlen, eigentlich ist etwas zu viel, was da nicht hineingehört. Hätte mir schon gestern klar werden können, als ich mir die *.mtl Dateien von den Freebies mit OBJ- und TGO von Silva3d betrachtete, mit den es keine Probleme beim Import gab. Stolperte aber erst heute so richtig darüber, als ich mitbekam, dass auch Blender die Bildpfade nicht in Anführungszeichen setzt.


    Also raus mit den Anführungszeichen (eigentlich doppelte Hochstriche), alle in der MTL gelöscht und ein Objekt in ein zweites Projekt importiert.



    Schon besser, aber noch nicht ganz richtig, vor allem, was die unteren grünen Blätter betrifft. Nun das Objekt kurz in Blender importiert, markiert und wieder exportiert, es scheint beinahe annehmbar zu sein. Das vordere grüne Blatt ist in Blender ganz zu sehen, möglicherweise ist es hier im Boden versunken, von Gartenerde bedeckt, oder was auch immer. Doch die Blätter sehen nach Blätter aus.



    Bis hierher kam noch gelegentlich der Spruch als Warnung: "Unable to find surface motion vectors image"

    Später nicht mehr, zumindest nachdem ich die benötigten Texturen kopiert und die Kopien in ein Unterverzeichnis vom Objekt ablegte, selbstverständlich dabei die Pfade in der MTL anpasste (ohne Hochstriche).



    Die weiße Plane in den Bildern ist auf 10 x 10 Meter und die Primeln sind auf 0.7 skaliert. Ließ diese so groß, damit etwas zu sehen ist. In TG befindet sich aber unter dem Objekt Dialog eine Auswahl für Zentimeter, dann wären sie halt kaum noch zu sehen bei dieser Einstellung der Kamera. Da die Free-Version beim Import auf 3 Populationen begrenzt ist und ich noch nicht ausgetestet habe, ob das auch für Single Objekte gilt, bin ich beim Import über File -> Objekt gegangen.


    Wo ich mir nicht sicher bin, ob meine Auswahlen bei den Menüs von DS und Blender richtig sind. Habe lieber ein paar Häkchen mehr gesetzt, als zu wenige davon. Wer könnte dazu etwas sagen?

    Erstes Bild Export DS, zweites Bild, was ich für die Export-Optionen in Blender halte.


     



    Eine kleine Aktualisierung, es geht auch ohne den Umweg über Blender, also direkt vom DAZ Studio nach TG.
    Mehr dazu unter:


    Nun ja, ich verstehe oft nicht richtig, von was eigentlich die Rede ist. Das mit der Kleidung war ja mein Einstieg hier mit dem Thema "Outfits in Posen". Da blieben ja die Kleider auch zuweilen wie auf einem Garderobenständer stehen, oder die Haare in der Luft, während sie sich setzen wollte und andere Dinge. Ohne Fragen zu stellen, hätte es sicherlich wesentlich länger gedauert, ehe ich es kapiert hätte.


    Heute habe ich mir Blender installiert und eine Daz to Blender Bridge, weil ich im DAZ Shop einige Dinge gefunden habe, die dafür ausgelegt sind und sich in Terragen gut machen würden. Da gibt es wieder andere Probleme.

    Gut, aber den Satz habe ich nicht richtig verstanden.

    Dort kann das Teil der Pose zugewiesen werden (fit to) und bewegt sich nun brav mit der Pose.

    Warum auf Pose, diese wechseln doch auf der Timeline, teilweise mit angepassten Übergängen zwischen zwei unterschiedlichen Posen?

    Ich weise es der Figur zu, teilweise den jeweiligen Körperteilen bei weiteren Dingen, die Figur bewegt sich doch zu unterschiedlichen Posen.

    Bin gespannt, wie es weitergeht.


    Ich teste eine kleine Animation mit 375 Frames in verschiedenen Qualitätsstufen und Bildgrössen.

    Wegen Bildgrößen habe ich mir nie Gedanken gemacht. Lightworks liefert in der Free-Version zum Verwenden nur in einer YouTube Größe von 1280 x 720, bei Terragen verhält es sich ähnlich und woanders als bei YT werden meine Videos wohl nicht zu sehen sein. Allenfalls noch beim "Offenen Kanal", doch mehr gewiss nicht. Mehr würde mein Rechner wohl auch nicht bringen.

    Bis jetzt ist die noch nicht toll. Betrachte die auch eher als Übungsobjekt.


    Das Ufer auf der anderen Seite, da könnten die Farben beinahe so bleiben, diese Seite gefällt mir gar nicht. Um die Buhne etwas einzukürzen, müsste ich in der Heightfield versuchen, etwas Störendes habe ich schon weggenommen. Doch auch so, die sieht einfach noch nicht richtig aus. Den Image-Shader habe ich wieder deaktiviert, der war noch ungeeignet.
    Dann mal schauen, wie es mit Pflanzen aussieht. Meine, bis auf Sichtweite werden die alles gerodet haben, um Angreifer früh genug zu erspähen. Doch etwas Bewuchs gehört schon dazu. Nun ja, es eilt ja nicht.



    Doch, nun weiß ich, was ich will, zumindest für ein erstes Video. Bin einmal mit der Kamera übergesetzt, sah gut aus.


    Von der ersten bis zur letzten Position wurde es immer besser. Sieht nach Kreis aus, irgendwie gut, um dort eine Darstellerin zu positionieren, dann rein zu zoomen. Den Mittelpunkt suchen, dann vier Einzelrender zu einem Bild zusammensetzen, anders wird es nicht gehen mit der kostenlosen Version. Wenn das klappen sollte, ist das Bild aber groß genug, um ins Bild zu zoomen.



     

    Tja, und bei meiner Elblandschaft, da steht auf dem Burgberg keine Ruine, nur ein Restaurant. Ein Tor und etwas Mauerwerk ist erhalten, mehr nicht. Weiß nicht einmal, aus welcher Zeit. Die erste Burg wurde vor rund 1.000 Jahren von slawischen Stämmen (Elbslawen) abgefackelt, oder so ähnlich. In dieser Zeit wurde noch mit Holz gebaut, erste Burgen aus Naturstein kamen erst 150 Jahre später auf, las ich. Somit weiß kein Mensch mehr, wie die ausgesehen haben könnte, vermutlich eine hölzerne Palisade und einige passende Gebäude. Von der späteren gibt es ein Bild von 1845, doch darauf ist die nur aus der Ferne zu sehen.


    Heute habe ich mich weiter mit der Elblandschaft beschäftigt, versucht beim Buhnenkopf einen "Image map shader" zu verwenden. Der lässt sich nicht, im Gegensatz zu den bisher verwendeten Shadern, auf eine Höhe abstimmen, wie es ausschaut zumindest, und entweder ist er groß oder zu klein. Doch selbst auf 500 Meter aufgeblasen, hätte die Ausrichtung ohne eine Regie-Kamera noch einige Stunden länger gedauert. Die untere ist die Render-Kamera und der helle Fleck der Image map Shader.



    Vom Muster bleibt nicht viel übrig, wenn ein Image von 1280px im Quadrat auf 500 m² als schmales Band oder ebenfalls im Quadrat aufgeblasen wird. Ein ganzes Gelände zu Kacheln war hingegen einfach. Nun weiß ich zwar, wie es geht, nur so geht es halt noch nicht, wenn eine Sand- und Steinchenstrucktur erkennbar werden soll.


    Für den See und das Spotlicht habe ich mir ein Campfire vom DAZ Shop vorgemerkt. Müsste dann halt alles aufeinander abgestimmt werden.

    Hatte zum Abschluss des Tages nach Lichtern gesucht, Bilder unter dem Stichpunkt "Lichterritual auf dem Ganges" gefunden, dann weiß ich nicht mehr wie es kam, auf einmal war ich bei Wasserlaternen. Bei eBay und in einigen weiteren Angeboten, im Zehnerpack. Dachte mir, die könnten passen, wenn man diese etwas größer hält, so dass sie auch zu sehen sind. Mit Blender sollte es gehen.


    Und heute habe ich nicht schlecht gestaunt, hat genau diese Wasserlaternen schon einer mit Blender animiert. Gefällt mir, wie er das umgesetzt hat. Keine Ahnung, wie man hier ein Video einfügt.


    Blender Animation - Wasserlaternen

    Etwas dichter über der Oberfläche werden Spiegelungen erzeugt, auch mit ausgeblendeten Objekt,

    Bei diesem Punkt muss ich mich korrigieren. Werden nicht erzeugt, wenn man bei "Specular heighlits" das Häkchen entfernt, bei "Visible Object" ja ohnehin vor dem Rendern. Beide Häkchen weg und es muss bei diesem Licht ( Light source) nichts nachträglich retuschiert werden.


    Heute habe ich das Spotlight getestet. Es lässt sich etwas mühseliger ausrichten, zumindest nach meiner bisherigen Einschätzung. Doch nun habe ich mir erst einmal zwei Einstellungen gespeichert. Einmal etwas mehr auf einem Punkt und einmal etwas weitläufiger.


     


    Jetzt fehlt mir auf dem See beinahe etwas, vielleicht eine richtige leuchtende Kugel. Besser, etwas Ähnliches, wie diese Schalen mit Lichtern auf dem Ganges. Habe gerade einen Pack Wasserlaternen gesehen. Denke schon den halben Tag daran, ob ich mir noch Blender installiere, damit sollte es gehen, nehme ich an. Was ich mir angesehen hatte, wie man mit Blender Findlinge und Kugeln fertigt.

    Nicht das ich davon Ahnung hätte, bin immer zufrieden, wenn bei mir alles läuft. Keine Ahnung, ob es damit zusammenhängt und etwas bringen würde. Ist ein kurzes Video, in dem eine Sperre umgangen wird:


    Remote Desktop (RDP) in Windows 10 HOME aktivieren


    Noch ein anderes Video dazu gefunden. Er erklärt es etwas ausführlicher, verweist aber auch darauf, dass Microsoft diesen Umweg zukünftig sperren könnte und das Video ist vom Januar 2020. Falls es noch funktionieren sollte, weißt man nie, wie lange noch, deshalb würde ich es so eher nicht machen, falls nicht unbedingt erforderlich.

    Hier die aktuellen Quellen zu DEM

    Copernicus DEM von der ESA erwähnen die aber auch nicht, oder habe ich etwas übersehen?

    zusammengesetzt aus dem USGS Archiv

    Zum Herunterladen bei USGS hatte eine Anleitung gesehen, bin der Schritt für Schritt gefolgt, dann fehlte, im Vergleich zum Video von 2019, eine Auswahlmöglichkeit. Später fand ich dann eine Website von der NASA, wo man sich diese herunterladen konnte. Die gelblichen Beschriftungen im Screenshot sind nur meine Notizen . Was ich gesucht hatte, war aber bei denen nicht so gut, wie bei Tangrams.

    Nun habe ich es, nachdem ich gestern eine Beispielrechnung fand. Allerdings eine alte Rechnung, die mich zunächst verwirrte. Zu DOS-Zeiten soll es eine Regelung gegeben haben, nach der die Endung von Dateien nicht mehr als 3 Buchstaben haben sollten, oder so ähnlich. Jedenfalls kann man an viele Bildformate noch ein w für eine Datendatei anhängen. Bei nicht mehr als drei Buchstaben wurde bei *.tif auf das i verzichtet, seither gibt es eine *.tfw.


    Nun ja, es soll auch mehr Druckereien gegeben haben, die Landkarten druckten. Dafür war die Berechnung auf Seite 15 der PDF (Georeferenzierung über das TFW-File). Wenn eine Karte im Maßstab 1 zu 10.000 gedruckt wird, dann entspricht 1 cm auf der Karte gleich 100 Meter real. Wenn diese aber nun mit 300 dpi gescannt wird, kommt dabei ein Wert für die erste und vierte Position von 0,846666666667 heraus. Habe es aber nicht nachgerechnet.

    Jedenfalls war ich viel zu hoch mit meinen Testzahlen, musste mich langsam herantasten, wo ich denn nun mit meinen bei Google Maps gemessenen 15 km bleibe. Der Inhalt meiner TFW sieht nun so aus:


    0.00015100

    0.0000

    0.0000

    -0.00015100

    1.10000

    1.10000


    Als geografischen Koordinaten 5 und 6 habe ich mir einen Punkt im Atlantischen Ozean in der Nähe des Äquators und des Nullmeridians gesucht, sind somit bedeutungslos und werden ohnehin nicht angezeigt. Hat den Vorteil, dass diese nie geändert werden müssen.

    Es können mehrere Heightfelds in einem Verzeichnis liegen, ganz wichtig ist nur, dass die zusammengehörigen TIFs und TFWs einen gemeinsamen Namen erhalten und sich nur durch die Endung unterscheiden.

    Die Größen richten sich nach den jeweils gemessenen Entfernungen und können schnell angepasst werden. Habe es quadratisch zugeschnitten, damit ich nicht zweimal messen brauchte, und dabei am Ende noch vertauschen. Zum Beschneiden von Images einige Notizen gemacht, sonst müsste ich später erneut überlegen. Nun sollten sich die einzelnen Schritte mit jedem Bildbearbeitungsprogramm und Texteditor durchführen lassen.

    Habe es für den eigenen Gebrauch so geschrieben, dass ich dafür kein weiteres Programm benötige. Nun werden nach den Laden die richtigen Entfernungen angezeigt, wie im ersten Bild. Das zweite Bild ist nur nebenbei und hat nichts mit Terragen zu tun, nur mit den verkürzten Bearbeitungsschritten.


     


    Ergänzend: Terragen berücksichtigt, dass der Abstand zwischen zwei Bogensekunden sich zu den Polen verjüngt. Laut Wikipedia beträgt dieser am Äquator etwa 30,9 m, bei Oberhof etwa 21,1 m, in Mitteldeutschland etwa 19,5 m und bei Sylt etwa 17,7 m.

    Bei einem Ausschnitt verjüngen sich die Angaben aber nur für diesen Ausschnitt. Was unten noch 15100 m war, ist dann in Mitteldeutschland nordwestlich Salzwedel nur 14833 m und auf Spitzbergen 14476 m. Bei Google Maps verjüngen sich die Entfernungen ebenfalls etwas, wenn man unten und oben nur von einer Seite bis zur anderen Seite des Monitors misst, somit sollte es sich ausgleichen. Für Spitzbergen:


    0.00015100

    0.0000

    0.0000

    -0.00015100

    79.75865745927891

    16.666384546961652


    In Terragen - xyz: 14476, 0, 15111

    Im Groben und Ganzen ging es.
    Dieses raus, das andere dafür rein.


     


    Ein Heightfield von Tangrams auf 900 x 900 Pixel zugeschnitten, halbwegs richtig geschätzt und den geschätzten Wert übernommen.



    Zusätzlich noch etwas mit Height multiplier gespielt, es kommt nicht ganz hin, aber auch nicht riesig weit entfernt. Mein Berg ist 33 Meter hoch, wenn ich mit der Maus darüber fahre, in der Wikipedia steht aber bei Arneburg: "Der Burgberg liegt 35 Meter über der Elbe." Den Wasserstand müsste ich wohl auch noch abziehen, dann fehlen einige Meter.


    Der Vordergrund gefällt mir bisher am wenigsten vom Bild, doch so ungefähr vom Geländeprofil sieht es dort aus, nur halt das der Berg bewaldet und verbuscht ist. Zumindest vor Jahren noch, war schon lange nicht mehr dort.



    In der TG Wiki heißt es:

    Zitat

    The georeferencing data is loaded from TFW files, which should be in the same location as the TIFF.


    Übersetzt: "Die Georeferenzierungsdaten werden aus TFW-Dateien geladen, die sich am selben Ort wie das TIFF befinden sollten."


    Also eine TIF und eine TFW in einem Ordner speichern, verstehe es so. Die TFW enthält nur 6 Zeilen nach einem einfachen Schema, so viel ich bisher las.


    Georeferenzierung 

    Etwas älter auf Seite 6: Leitfaden_Georeferenzierung.pdf und wenn man es nicht kippen will, kann man sich einen Teil der Berechnung sparen, denke ich mir. Ein erster Versuch schlug aber fehl.

    Vielen Dank

    War ja mein Fehler, hätte kontrollieren sollen, ob der Link funktioniert. Also ebenfalls vielen Dank für den Hinweis.


    Bin bei Tangrams den unteren Links gefolgt, ein Script liegt bei GitHub, mit Anbindung an Blender, wie es ausschaut (von richtig durchblicken bin ich weit entfernt). Von da aus bin ich den zweiten Link bei "Uses Mapzen’s global elevation service" gefolgt, und da steht tatsächlich etwas davon, dass sie begonnen haben, auf 10 Meter umzustellen. Das letzte Update auf der Seite ist von 2016/2017, könnte sein, dass sie zwischenzeitlich in Europa angekommen sind, zumindest hatte ich den Eindruck, was die Auflösung bei Tangrams anbelangte.


    Für kleinere Aufgaben bei der Bildbearbeitung verwende ich einige Python Codeschnipsel, weil Python eigentlich mit Pillow eine gute Library dafür besitzt. Wie es dann eigentlich geschrieben wird, da fand ich bisher meist im Web etwas, oft bei Stack Overflow. Vom Beispiel habe ich die Zeilen für Kontrast entfernt, den kann man in TG vorher einstellen, doch für ein geringfügiges Nachschärfen bin ich auf einen Wert von 1.8 gekommen. Gut, das kann man auch mit jedem Grafikprogramm. Doch ein in Range darüber, den Code einrücken und es lässt sich schnell ein durchnummerierter Stapel verarbeiten.

    Wie man Daten aus einer Elevation-Map ausliest, dazu fand ich etwas, nur nicht, wie man sie einträgt.


    Bei eigenen Zeichnungen kann man sich danach richten, dass TG aus einem Pixel einen Meter macht. Vielleicht sollte ich erst einmal seinem Beispiel mit Creating canyon in Terragen folgen, denn gestern bin ich mal wieder an einige Grenzen gestoßen, dabei feststellte, noch viel zu wenig TG zu verstehen.


    Es scheint doch zu funktionieren, nur nicht, wie ich es mir vorstellte. Über Add Operator – Heightfield Resize wird aus einer heightfield.png vom Flachland, dargestellt mit berghohen Maulwurfshügeln, scheinbar wieder Flachland. Muss noch etwas genauer die einzelnen Schritte notieren. Werde einmal schauen, wie weit Tangermünde und Arneburg, beides Elbstädte, auseinanderliegen und mit denen testen, ob die Erhöhungen realistisch aussehen.