Beiträge von Melegrian

    Für mich hatte es sich, im Zusammenhang mit der anderen Frage von gestern, so gelesen, als wenn sich Maggan22 das Daz Studio erst vor wenigen Tagen heruntergeladen und installiert hätte. Nun nach der Versuch-Irrtum-Methode vorgeht, was zu unbefriedigenden Ergebnissen führt.

    Werden denn da Einstellungen gespeichert?

    Einstellungen fürs Projekt werden gespeichert, wenn Du ein Projekt speicherst.


    Falls Du mit der englischen Sprache vertraut sein solltest, könntest Du Dir diese beiden PDFs herunterladen. Die sind beide gut bebildert und dadurch verständlich. Anschließend werden sicherlich immer noch Fragen bleiben.


    Falls nicht, so wie ich, habe mir mehr als 10 Videos von "Pams Welt "- jetzt scheinbar umbenannt in Pams DAZ Studio Grundlagen - angesehen, wie z.B. Bewegungen im Arbeitsfenster. Dann zwar immer noch Fehler gemacht, aber so ganz ohne jede Anleitung für einen Einstieg an eine Sache herangehen, da brauchst Du länger.

    ich habe mir für DAZ ein Bundle runtergeladen

    Danach gesucht und angesehen hatte ich mir dieses "It’s a Fungi’s World Bundle" für Genesis 8.1., wobei dann weiter unten auf der Angebotsseite Vaispora mit erwähnt wird. Da ich aber selbst noch nicht viel Ahnung habe, hatte ich mit einer Antwort gezögert.

    Jedenfalls, es liest sich für so, als würdest Du Dir für den Anfang reichlich viel vornehmen, halte es zumindest für nicht ganz so einfach. Die Oberflächen wurden bereits erwähnt, könnte mir aber vorstellen, man sollte bereits mit Kamera, Ausleuchtung und anderen Dingen vertraut sein, bevor es gut wird.


    Habe es mir gerade noch einmal betrachtet, auf dem zweiten Bild, welches mir mit am besten gefällt, achte einmal auf die Schatten. Sieht nach mehr als nur einer Lichtquelle für mich aus. In "Dwarf's World" wird auch erkennbar, wo das Licht herzukommen scheint. Aber frage mich nicht, wie die das gelöst haben. Gut, da wird dann als Inhalt aufgeführt, Lampe 1 bis 6, nehme an, diese wirst Du entsprechend positionieren müssen.


    Für Daz Studio habe ich jetzt kein deutschsprachiges Tutorial gefunden, dieses Video ist für Unreal Engine, erklärt es aber auch mit Emissive Materials.

    Weiter oben im Thread wurde noch angemerkt, dass es u.U. zu Problemen kommen könnte, wenn eine Typo in eine Druckdatei eingebunden weitergegeben werden würde.

    Ich schrieb aber auch, dass ich bisher noch nie etwas davon hörte, dass es jemals Probleme deshalb gab.


    Bei mir verhielt es sich etwas anders.
    Alle Anwendungen (oder so gut wie alle), die auf einem Klienten laufen, greifen auf dessen Systemfonts zu. Auch eine Webseite, die zwar auf einem Server liegt, wird bei Abruf erst im Browser des Klienten aufgebaut. Ich wollte aber ein Tutorial machen, wie man mit PHP Text in ein Image einfügt. Das geschieht auf dem Server, wird dort geparst und erst anschließen an den Klienten übertragen. PHP bringt aber von sich aus nur eine Konsolenschrift mit.


    Da hatte ich mich dann mit dem Thema auseinandergesetzt, mich für den Font von Adobe entschieden und diesen hochgeladen, damit PHP darauf zugreifen kann.

    Das kann ohne Absturzbericht an allem Möglichen liegen.

    Den habe ich, nur nicht von der eigentlichen Quelle.


    Also ich bereite ja nur vor, das eigentliche Rendern überlasse ich Lightworks. Ein fertiges Beispiel, in dem ich nur Intro, Infotext 1, Infotext 2 und Outro so gefertigt hatte. Da verlinke ich nur die Verzeichnisse mit den Bildfolgen. In der Timeline kommt dann ja noch der Rest hinzu, wie die gestückelte Aufnahme aus MuseScore, aufgenommen mit einem Screenrecorder, und die Tonspuren. Dann lasse ich Lightworks rendern.


        


    Das Python Script lässt sich auf langsamer arbeiten einstellen, die Zeit in Millisekunden erhöhen, damit nicht zu viel aufläuft. 40 ms ist etwas zu knapp bei dieser Bildgröße, 80 ms ist besser.



    An der Anzahl der Einzelbilder ändert sich nichts. Da lag aber auch mein Fehler.

    In einigen anderen Funktionen hatte ich Punkte, statt auf Aufrufe geschrieben, weil man auf eine Strecke von 300 Pixel halt auch nur 100 oder 200 Punkte zu setzen braucht. Hier hatte ich es abgeändert, von Punkte in Aufrufe, was in der Datei mit den Funktionen auch abgefragt wird. Dann hatte ich oben auf 600 erhöht und unten nicht mehr daran gedacht und es bei 400 belassen. Der Fehler wird aber nicht in der Funktion ausgelöst, denn die arbeitete ja bis 400 fehlerfrei und schaltet dann richtigerweise ab, sondern erst in der Klasse, die diese Funktionsaufrufe und Funktionen importiert. Und die Konsole meldete dann nur, NoneObjekt bei 401 innerhalb der Datei mit dieser Klasse. Dabei lag der Fehler im Ordner Szene in der Szene Datei halt, oben 600 und unten 400.



    Das war jetzt reichlich OT, ich werde im nächsten halben Jahr ein Erklärungsvideo zu machen, wenn nichts dazwischen kommt. Doch erst einmal das andere, das dürfte auch einige Tage dauern.

    So gut wie jeder Programmierkurs beginnt mit 'hello world'.

    In Blender gleich zweimal. "Hello world!", einmal unter Quickstart Example Panel und einmal unter Add-on Tutorial. Scheint gut dokumentiert zu sein. Damit fange ich aber nicht an, weil ich dafür erst einmal Blender sehr viel besser verstehen müsste. Anschließend vermutlich zualt und zu trödelig.


    Was ich mit dem Kanal jetzt beginne, weiß ich noch nicht so genau, jedenfalls einen Gemischtwarenladen. Gelöscht wird nur das Video, bei dem bin ich ja nur bis 400 Einzelbilder gekommen, weil ich das so notiert hatte, dann vergessen zu ändern und die Fehlermeldung nur darauf verweist, wo sich ein Fehler bemerkbar macht, aber oft nicht darauf, wo er entsteht. Richtig gelöscht wird das Video auch nicht, nur durch ein Fertiges ersetzt, welches dann länger ist, mit Kommentaren oder so, wodurch sich aber die Adresse ändert.


    Die Krähen hatte ich mit Brot in unseren Garten angefüttert, als dieser noch offen war, jetzt komme ich ohne Buschmesser nicht mehr durch.

    Ohne jetzt unhöflich oder so wirken zu wollen. :thumbup:

    Ich empfehle das Buch : Blender Handbuch Teil I.

    Ja, das habe ich nun in Griffweite zu liegen, noch über den Büchern über Harmonielehre.

    Anschließend ist nun wieder etwas OT gefolgt, aber wenigstens habe ich den Fehler gefunden, warum es bei 400 abbrach, eindeutig menschliches Versagen.


    Das will etwas heißen da ich aus der AMIGA Ecke stamme, mit Monzoom Pro gearbeitet habe

    Bei uns gab es so etwas nicht, denke ich. Da nannte sich nur ein Schallplattenlabel Amiga und für Unternehmen gab es wohl einen Robotron.

    nur weshalb willst das Fahrrad noch mal neu erfinden

    In meiner Schulzeit in den 1960er Jahren, sahen die Hobbys noch etwas anders aus. An Computern dachte noch niemand. Was es bereits gab, vom kleinen Taschenradio bis zum mit Röhren bestückten Stubenradio, so ziemlich alles an Radios, gleich welche Größe man sich wünschte.

    Hielt das von einem Hobby wie Radiobasteln ab?

    Nein tat es nicht, allein an meiner Schule waren es mindestens drei, in unterschiedlichen Altersstufen, die sich wie ich damit beschäftigten. In der Lehre lernte ich einen weiteren kennen.

    Da hat sich doch niemand hingestellt und gefragt, warum machst Du das, an ein industriel gefertigtes reicht es ja doch nicht heran, selbst wenn, so sieht das Gehäuse weniger toll aus, als bei einem Gerät aus dem Laden.


    Nun schaue einmal ins Python-Forum unter Showcase, womit einige sich heute beschäftigen. Picke nur einige Titel – "Rotierende Kreise", "Würfeln mit Armin“, "Uhr mit Pygame", "Password Generator", als ob es das nicht alles geben würde.

    Blackjack ist wieder da, sah ich gerade, das freut mich, der hatte mir bei meinen Einstieg geholfen, sich dann aber abgemeldet.

    Jedenfalls ist es heute noch nicht anders, als in meiner Jugend.

    Soll das ein Filter werden wenn es fertig ist?

    So ähnlich, nicht direkt, eigentlich nur ein Script zum Vorbereiten von Sequenzen. Also wie im Beispiel, das Bild ist 4096 x 2791 und wird zu Beginn mit 1280 x 720 eingeblendet, danach langsam reinzoomen, dabei das Objekt im Focus behalten oder in den Focus ziehen, auf welches man gern aufmerksam machen möchte.

    Von diesem dann weiter im Bild umherwandern, wieder aus dem Bild herauszoomen usw., was man sich gerade vorstellt. Also ein Ken Burns Effekt für alte Bilder oder Dokumente.

    Einige andere Funktionen hat es auch noch, wie einfache Überblendung, Ein- und Ausblendungen, doch die hat ja auch jedes Schnittprogramm. Kreise, Ellipsen, einfache Verschiebungen, Bézierkurven hatte ich schon 2019 oder 2017 fertig, dann wieder eine Pause bis Dezember 2020 gemacht. Letzten noch Rotationen hinzugefügt. Wenn man alle zwei Jahre mal drei Wochen daran arbeitet, wird es auch fertig und man verlernt es nicht so schnell.


    Hatte ähnliches einmal vor einigen Jahren bei einem Lehrer (oder was der war) gesehen, wie der seine trockenen Unterrichtsmaterialien mit kleinen 2D Animationen aufgepeppt hatte, hatte mir gefallen. Der hatte es in Python geschrieben und da dachte ich mir, das wäre doch ein schönes Projekt, um etwas tiefer einzusteigen.


    Ohne Korrektur würde sie weiter nach rechts abwandern, da der Mittelpunkt bei der grünen Linie auf der Baumgruppe beim Gebäude liegt, doch von Bild zu Bild halt weiter nach links verschoben wurde.


     

    was ist, denn da jetzt so besonders?

    Na das es selbst geschrieben ist, was sonst.

    Wenn es nicht so wäre, brauchte ja niemand mehr etwas selbst fertigen.

    DaVinci Resolve ist in der freien Version bereits der absolute Hammer.

    Ja, ich habe es mir angesehen, sieht gut aus.

    Doch wie das so ist, mir macht Programmieren halt auch spaß.


    Heute habe ich eigens einen neuen YT Kanal erstellt, nur um einmal ein kurzes Demo zu liefern.

    Erst drei Tage experimentiert, es wurde und wurde nichts besser, dann mich doch wieder entschlossen, mit der Funktion weiter zu arbeiten, die ich fürs Zoomen bereits fertig hatte. Das leichte Zittern liegt einfach daran, dass die eigentliche Berechnung mit Nachkommastellen erfolgt, vor der Übergabe aber auf volle Pixel aufgerundet wird, und zwei Berechnungen gleichzeitig erfolgen. Zwei Berechnungen, einmal die eigentliche Vergrößerung, dabei dann eine zweite Berechnung für die Verschiebung, damit das anvisierte Objekt mehr zur Mitte rückt.


    Hier kommt es verschwommen, bei YT nicht, weiß nicht warum: Rapsernte


    Gestern hat das Script immer seinen Dienst versagt, sowie ich nach den ersten 400 Bildern einen Wert verändern wollte. Bei den anderen Musterszenen war es bisher nicht der Fall, doch hier erhalte ich immer die Meldung, dass kein Objekt vorhanden wäre. Da muss ich noch suchen.

    Habe mal geschaut, zwei Fonts habe ich zu liegen, den einen hatte ich von fontsquirrel.com und der steht unter Apache Lizenz. Wenn ich mir diese übersetze, steht da, dass das Recht zum Verkauf anzubieten oder zu verkaufen, eingeräumt wird :


    Zitat

    3. Grant of Patent License. Subject to the terms and conditions of this License, each Contributor hereby grants to You a perpetual, worldwide, non-exclusive, no-charge, royalty-free, irrevocable (except as stated in this section) patent license to make, have made, use, offer to sell, sell, import, and otherwise transfer the Work, where such license applies only to those patent claims licensable by such Contributor that are necessarily infringed by their Contribution(s) alone or by combination of their Contribution(s) with the Work to which such Contribution(s) was submitted.


    3. Erteilung einer Patentlizenz. Vorbehaltlich der Bedingungen dieser Lizenz gewährt Ihnen jeder Mitwirkende hiermit eine unbefristete, weltweite, nicht exklusive, kostenlose, gebührenfreie, unwiderrufliche (außer wie in diesem Abschnitt angegeben) Patentlizenz, das Werk zu verwenden, zum Verkauf anzubieten, zu verkaufen, zu importieren und anderweitig zu übertragen, wobei eine solche Lizenz nur für diejenigen Patentansprüche gilt, die von einem solchen Mitwirkenden lizenzierbar sind und die notwendigerweise durch ihren/n Beitrag(en) allein oder durch eine Kombination ihrer/seiner Beiträge mit das Werk, zu dem ein solcher Beitrag eingereicht wurde.


    Nach dem zweiten Font musste ich erst suchen, wo ich den zu liegen habe, weil ewig nicht mehr verwendet. Den hatte ich von der Adobe Webseite, "Source Sans Pro" und dieser steht unter einer SIL Open Font License. Nach der darfst Du den Font nicht einzeln als Font verkaufen, aber das Produkt, in welchem Du diesen Font verwendest, darfst Du verkaufen.


    Jedenfalls verstehe ich diese Lizenzen so, kann mich aber auch irren.


    Oder Du nimmst Dir halt ein Tool, wie diesen Bird Font Editor, mit dem Du einfach Deine eigenen Fonts entwirfst.

    Suchst Du denn einfach nur Schriften oder besondere Schriften?

    Dass es schon einmal Ärger gab, weil jemand einfach nur Fonts vom PC in einer PDF mit einbettete und damit ja weitergab, habe ich noch nicht gehört. Fonts wie Sans Serif, die sind auf jedem Fall frei verwendbar.

    Zitat

    1803 zeigte Robert Thorne zum ersten Mal eine Sans Serif.

    Diese möglicherweise noch nicht:

    Zitat

    Times New Roman (oder Times) ist eine Barock-Antiqua-Schrift, die ursprünglich 1931 von Stanley Morison und Victor Lardent entworfen wurde.

    Wenn Du keine Fonts verkaufen möchtest, würde ich mir weniger Gedanken darüber machen.

    Die Lizenzen, keine Ahnung. Allgemein ist es aber so, was Google anbietet, ist auch für kommerzielle Webseiten nutzbar. Wenn Du aber eigene Apps verkaufen möchtest, solltest du dem Nutzer die Möglichkeit geben, auf seine bei ihm auf dem Rechner installierten Fonts zugreifen zu können, selbst gar keine einbinden und weitergeben.


    Es gab aber auch Anwendungen, womit man selbst Fonts gestalten konnte.

    Ich habe jetzt ein interessanten Artikel gefunden, von dem ich leider nur ganz wenig verstanden habe.

    Das kommt mir bekannt vor, aus eigener Erfahrung.

    Aber auch das mit der Anzahl der Kerne und den Programmen ist nicht so eindeutig.

    Die versuchen es hier einfach zu erklären, dass sich nichts mit nichts vergleichen lässt. Oder man ist wirklich Profi auf diesem Gebiet und liest ständig alle Testberichte.


    Was bringen mehr CPU-Kerne?


    Was ich aber vor Jahren einmal gelesen hatte, dass sich kein Rechner nur auf seinem Arbeitsspeicher verlässt, sondern bei größerer Datenlast, auch auf andere Bereiche der Festplatte auslagert, um die Daten dann von dort wieder abzurufen. Oder so ähnlich zumindest.


    Und was ich ebenfalls einmal vor Jahren gelesen hatte, dass die NASA auf Sicherheit geht, deshalb wegen der höheren Zuverlässigkeit keine Prozessoren mit mehr als 2.8 GHz abnimmt. Ob das noch aktuell ist, wusste ich nicht, deshalb gerade einmal danach gesucht, da sehe ich auch nur etwas von 2.x GHz und mehr nicht, doch insgesamt können diese dann Petaflops verarbeiten.


    NASA Advanced Supercomputing


    Musste erst einmal lesen, was Petaflop bedeutet.

    Petaflop: Einer Billiarde oder 1.000 Billionen Gleitkommaoperationen pro Sekunde.


    Ja, sicherlich haben die ein größeres Rechenzentrum oder mehrere davon.

    An meiner Stromleiste sind mehrere Geräte angehängt. Also versorgte ich meinen Computer über ein separates Stromkabel mit Power.

    Ist mir vor Jahren passiert, nicht wegen einer Stromleiste, sondern wegen des Stromkreises ab Zähler, an dem noch ein elektrischer Heizkörper hing. Nichts ging aus, außer mehrmals der PC. Eine weitere Möglichkeit sind zu hohe Übergangswiderstände an einzelnen Steckern, die zu einer Erwärmung des Steckers führen.

    hat die Interaktion mit Windows beendet und wurde geschlossen.

    Hat die Daz Studio beendet, oder hat die eine Security-Anwendung beendet, weil es mit der Überprüfung nicht mehr hinterherkam?

    friert mein Rechner samt Mauszeiger ein.

    Das ist ja nur vorübergehend, der taut ja anschließend wieder auf, zumindest bisher, längere Szenen habe ich noch nicht gerendert. Dass ich zwischendurch nichts machen kann, weil nichts mehr geht, ist wohl normal, wenn alles über CPU läuft.

    Eines der Gründe, die mich 2017 bewogen mit dem weiter oben erwähnten Script zu beginnen, war der Ken Burns Effekt, ohne dem keine Doku mehr auskommt.


    In einem Bild surfen, heraus und hinein zoomen, mal von diesem Ausschnitt in einem alten Foto oder Gemälde zu einem anderen zu wandern.


    Heute suchte ich einmal danach, was Blender zu bieten hat. Nach diesem Video konnte Blender in 2.82 noch keinen Ken Burns Effekt richtig, ab Version 2.92 soll es deutlich besser sein, doch was der hier im Video beschreibt, ist noch kein richtiger.


    Blender 2.92 – Ken Burns Effekt


    Die Wikipedia beschreibt es so und so kenne ich es ebenfalls:

    Zitat

    Die durch Ken Burns bekannt gewordene Technik, mittels langsamer Panning- und Zoom-Effekte (Schwenken und Vergrößern) sowie Überblendungen aus Standbildern ein Video bzw. eine Diashow zu machen, nennt man Ken-Burns-Effekt.


    Dieses Schwenken und Zoomen zugleich, davon sehe ich im Video noch nichts. Das ist aber Voraussetzung, wenn man von einem seitlichen Motiv herauszoomen möchte und beim Zoomen wieder das ganze Bild im Fokus zu haben und nicht nur die eine Hälfte.

    In etwas neueren Dokus lösen sich Personen oder andere Objekte vom Hintergrund, dabei frage ich mich, zeichnen die Macher die fehlenden, weil auf den Fotos verdeckten Hintergründe nach?

    Nun alte Bilder oder alte schwarz/weiß Filme kolorieren, nun habe ich es verstanden, zumindest eine Möglichkeit. Man legt ein Gitternetz darüber und kann an Hand der durchschnittlichen Grauwerte entscheiden, welche Maschen, welchen Farbton erhalten. Einiges an Korrekturen wird wohl bleiben. Habe ich gestern nur gelesen und gesehen, weil ein Entwickler dieses Verfahrens auch bei Gimp mit werkelt.


    Hatte so richtige Lust mal wieder weiter an dem Script zu arbeiten, noch um eine Funktion für Rotation ergänzt und vier Filter für Blur, Gaussian, Scharpness und Contrast hinzugefügt. Dann von der US National Gallery of Art einige über 4K große Gemälde heruntergeladen, danach erst einmal das Grübeln bekommen. Nun geht die Rechnerei noch einmal los, wenn es im nächsten halben Jahr etwas werden soll.


    Vor Jahren hatte ich Apophysis 7X.15D von einer Seite heruntergeladen, die später nicht mehr auffindbar war, brauchte nicht installiert zu werden. Nun sah ich, die Version wurde 2019 noch aktualisiert und liegt bei GitHub. Unter hundert Einblendungen sind meistens zwei bis drei, die mir irgendwie gefallen.

    Das Tool an sich ist schlank, hat nur ein paar MB und ist einfach bedienen, hat aber einen Nachteil, es sind keine Sequenzen vorgesehen. Andernfalls hätte man ein Fraktal als Intro oder so auswählen können, in dem mehr Bewegung ist. Ein zweiter Nachteil, was einen gefällt, muss man gleich mit der Endung *.flame speichern, oder es ist w wie weg und lässt sich nicht erneut aufrufen. Mehr habe ich heut Abend nicht gefunden, eigentlich waren es drei, doch von einem Fraktal habe ich mir die Flame nicht gespeichert und dann war es weg. Doch diese beiden sahen auch irgendwie interessant aus.


       

    Daz3D - Chapter 6: Import/Export

    Terragen Import-Export Reference


    Mit Nintendo kenne ich mich nicht aus, ist mir nur dem Namen nach bekannt. DS hielt ich bisher als ein hier geläufiges Kürzel für Daz Studio, jedenfalls habe ich es so aufgefasst.

    OBJ halte ich für ein Export/Import Format, welches am weitesten verbreitet zu sein scheint. Als einen alten Standard, vergleichbar in der Textverarbeitung nicht mit einem Standard wie Adobe, eher wie TXT im Zusammenspiel mit dem ASCII Zeichensatz, was heute noch der kleinste gemeinsame Nenner ist, wenn es um Text geht.


    Nach der Corona-Preisexplosion gerne, aber jetzt ist mir das noch zu teuer für ein Hobby. Also nicht geizig, sondern sparsam.

    Das geht mir nicht anders, könnte mir zwar einen schnelleren Rechner leisten, mir dreht es aber den Magen um, wenn ich die Preise sehe. Das ist aber in allen Bereichen so. Bei den virtuellen Instrumenten, der Arbeitsspeicher von meinem Rechner reicht gerade noch so.

    Das ist eine Einstellung, die verhindert, das zu helle Bereiche ausbrennen oder zu dunkle Bereiche in totalem Schwarz wegsuppen.

    Das hört sich nicht schlecht an, mit abgesoffenen Schatten und ausgefressenen Lichtern hatte ich schon genug zu tun. Da werde ich erst einmal nichts an den Einstellungen ändern. Mit den unterschiedlichen Maps werde ich mich noch beschäftigen müssen. Eingestellt auf Non color hatte ich die Bump schon, nur mich noch nicht mit den anderen Maps beschäftigt.

    Weil es mir gerade noch eingefallen ist, zum Thema "Ausgefressene Lichter und abgesoffene Schatten" (in der Fotografie) hatte ich einmal 8 Seiten geschrieben. Zumindest das kann ich gut nachvollziehen.


    Für den Export solcher Figuren eignet sich Programm-übergreifend das FBX-Format.

    Bei Terragen wird FBX bisher in der Import-Export Referenz nur bei "Cameras, Lights and Markers" erwähnt, nicht beim Import von Objekten, unter dem Punkt wird nur OBJ und TGO aufgeführt. Bei DS wird zwar FBX aufgeführt, doch mit einem Vermerk in Klammern, FBX (nur Pro-Version).

    Löst das Dein Problem der Texturerstellung für Blender?

    Der Pilz war doch nichts weiter als eine Übung, um vom Kreis und Formgebung bis zum Export/Import den Ablauf durchzuspielen und nicht weil ich für den, so wie er ist, Verwendung hätte. Möglichst wenig Schnitte wurde erwähnt, und möglichst an Stellen, wo diese nicht gleich ins Auge fallen. Wann Blender die Abwicklung und Ausrichtung als Vorlage speichert, verstand ich nicht gleich. Auch nicht, warum die Köpfe in DS und TG den unschönen Anblick einer verfaulenden, schwarzverfärbten Kartoffel hatten. Schnitte sollte man nicht entfernen, um später damit bei Korrekturen erneut arbeiten zu können, wurde erwähnt.

    Was die Schritte und Schnitte anbelangt, da unterscheidet diese Vorgehensweise sich nicht von meiner Arbeit bei Images. Speichere mir beinahe immer Bearbeitungsschritte, je komplizierter, je mehr, um zurückspringen zu können. Beinahe jedes Imageverzeichnis enthält noch einmal ein Unterverzeichnis, welches ich als "Reserven" benenne. Wichtige Entwürfe speicher ich dann noch einmal auf einer externen Festplatte. Nicht nur bei Images, auch bei Musik und anderen Arbeiten, keine Seltenheit, wenn im Verzeichnis Version 01 bis 15 liegt. Ab und an komme ich oder etwas, durcheinander, oder überschreib mal etwas versehentlich, doch im Allgemeinen. Einiges, was mir besonders wichtig erscheint, wird auch zweifach gespeichert, auf externer Festplatte und auf USB-Stick.

    Was den Import anbelangt, die Maps lassen sich einfach in der MTL eintragen, dafür brauche ich nicht in Blender von Bumps oder Displacement auf Normal Map zu wechseln.


    Base Color wird übernommen, zu farbintensiv zwar, das ließe sich nachregeln. Die Beschreibung habe ich aber bisher so verstanden, dass in der MTL als Angabe für Kd das R von RGB genügt, die Werte für GB würden dann einfach mit dem R Wert ergänzt, was ja dann eigentlich nur einen entsprechenden Grauwert ergeben sollte, um die Helligkeit zu übernehmen. Habe ich noch nicht ausprobiert, sollte aber den schwärzlichen Eindruck verhindern, wenn es denn genügen sollte.

    Bei Ke hat Blender den Wert für Emission notiert, dieser scheint nicht übernommen zu werden, somit könnte man sich diesen sparen. Alles habe ich noch nicht durchprobiert, letztendlich auch, weil ich gestern mit anderen Dingen beschäftigt war und heute vermutlich ebenfalls.


    Zusätzliche Maps zu Texturen, die nicht übernommen werden, braucht man nicht für andere Anwendungen anfertigen. Bisher wüsste ich noch nicht, welche noch unbedingt erforderlich sind, außer einer Bump, weil alles andere sich so wie so nachregeln ließe. Werde aber sicherlich noch etwas experimentieren.

    Falls Du jedoch vorhaben solltest, eine Doktorarbeit über die Anfänge des CGI zu schreiben, dann machst Du es richtig.

    Nein, das habe ich ganz gewiss nicht vor. Doch ein paar Texturen oder kleinere Objekte selbst zu entwerfen, ist für mich genau so gestalterisch, wie vielleicht ein Heightfield für TG den eigenen Vorstellungen anzupassen oder selbst zu zeichnen. Ich ziehe da keine Grenzen zwischen gestalterisch und gestalterisch, wo fängt es an, wo hört es auf.


    da die Lebenszeit vielleicht zu kurz ist

    Meine Lebenszeit kann morgen bereits vorüber sein, vielleicht verbleibt mir aber auch noch mehr als ein Jahrzehnt. Würde ich mir darüber ernsthafter Gedanken machen, würde ich vielleicht gar nichts mehr beginnen, was einfach nur einem innerlichen Interesse entspringt und letztendlich etwas Spaß macht.

    Aber hättest Du nicht gefragt, hätte ich nicht nach den verschollenen Dateien gesucht. Auf meiner externen Festplatte fand ich diese als Sicherung noch, nur nicht im vermuteten Verzeichnis.


    Habe so um 2008 mit PHP und Javascript begonnen, wurde etwas mehr, etwas C/C++, dort nur einfache Grundlagen, irgendwann wollte ich dann halt auch einfache Desktop Anwendungen umsetzen. Dafür bot sich Python an, hat aber einen Nachteil beim Weitergeben, man kann es anbieten, es wird aber nicht laufen, wenn zuvor nicht Python auf dem Rechner installiert wurde.

    Es ließe sich zwar als Exe kompilieren, die Dateien werden groß, weil Python und erforderlichen Bibliotheken mit einkompiliert werden müssen. Als ich es dann in einem Test auf einem anderen Rechner versuchte, fehlten Laufzeit-DLLs von Microsoft. Noch einmal habe ich es nicht versucht.

    Und wenn ich sehe, dass auch bei TG bereits seit Mai auf der Downloadseite darauf hingewiesen wird, dass TG nicht laufen wird, ohne diese zu installieren, der fühlt sich doch abgeschreckt. Hatte mit dem Download von TG selbst drei Tage gewartet, dachte mir, vielleicht könnten die mit "in Kürze aktualisieren" ja wirklich in Kürze meinen, aber der Spruch steht immer noch da.


    An Funktionen habe ich jetzt Kreise, Elippsen, Bezierkurven, Verschiebungen und Zoom. Ein- und Überblendungen sowie Kopierfunktionen habe ich noch nicht mit aufgenommen, weil es schneller ging, diese so zu benutzen.


    Jetzt mal ein einfaches Beispiel mit einer Kreisbahn und einer Ellipse, mehr als 2D ist es zwar nicht, doch auch damit lässt sich bereits etwas anfangen. Dass die Kanten von den Kugeln nich geglättet erscheinen, liegt wohl an meiner Vorbereitung.


    Bild 1, um eine Bahn festzulegen.

    Bild 2 mit geladenen Background ohne Spur, man würde nur die sich bewegenden Objekte sehen.

    Bild 3 mit Spur, könnte auch noch interessant werden bei einigen wenigen Gelegenheiten.


       


    24 Sekunden für eine Spielzeit von 10 Sekunden, bestehend aus 250 Einzelbildern, auf Echtzeit kommt das Script nicht, man sieht den Ablauf etwas langsamer, als im späteren Video, doch so schlecht ist es von der Zeit nun wieder auch nicht.

    Also warum kompliziert, wenn es auch einfach geht(?)

    Da gibt es eine ganz einfache Antwort drauf. Warum etwas Fertiges verwenden, wenn man es auch selbst lernen kann?

    Jedenfalls bei einfachen Dingen, nicht bei komplexen Anwendungen.


    Beispiel, mit einem kleinen, ganz einfach gestrickten 2D Script hatte ich 2017 begonnen, das konnte noch nicht viel. 2019 dann erweitert und Ende 2020 noch einmal um Verschiebungen bereichert. Wollte eigentlich nur Notenblätter aus der Mitte zur Seite verschieben, um in der Mitte neue Hinweise einzublenden. Stellte dabei fest, bei langsamen Verschiebungen plus Verkleinerung begannen die Notenlinien an zu flimmern. War nur ein kurzes Video, doch das machte ich darin komplett fertig, mit allen Ein- und Überblendungen usw., ehe ich es in Lightworks importierte.


    Und heute stelle ich fest, beim Aufräumen muss ich meine Musterszene gelöscht haben. So habe ich leider kein Beispiel zum Einblenden.



    Mein allererstes, noch völlig unausgegorenes Script in dieser Richtung, ließ aber einfach nur zwei Kugeln in der Luft zusammenstoßen, dann zu Boden fallen. Das hatte ich hier mit Screenshot und Code abgebildet.


    In der letzten Zeit haben sich aber erneut zusätzliche kleine Helferscripts angesammelt, bisher genügt es mir, diese direkt aufzurufen, also ohne Fenster. Eventuell werde ich diese aber noch mit in diesem Script unterbringen, oder, was einfacher wäre, eine neue Fensteranwendung als kleines Grafikprogramm.