Was die Posen anbelangt, die Missbildungen kommen nicht, wenn ich auf einer Simulation auf der Timeline wieder etwa auf die Hälfte zurückgehe. Also das war jetzt bei 15 von 30 im Test. Mit dForce Modifier legt es sich besser an.
So, nun habe ich den Cape erst einmal so weit, dass der nicht erst einmal als runde Scheibenplane ladet. Also Blender hin und zurück als Objekt, dann war da Cape nach Transfer Utiliy wieder zu tief. Jedenfalls braucht nun nicht gleich eine Simulation gestartet werden, weil er auch in Posen nicht gleich zerreißt. Bin aber noch nicht ganz fertig mit dem Ding, weil das Ding tatsächlich dreiteilig ist, will ich die Einstellungen noch einmal mit den ursprünglichen Optionen vergleichen.
Aus Post # 3, das zweite Bild mit dem dunkelbläulichen Farbverlauf unter dem Auge hat mich auf eine Idee gebracht. Falls ich einmal an meinem Engel weiterarbeiten sollte, könnte ich so einen Verlauf auch einmal probieren. Beide Bilder aus # 3 finde ich ohnehin am besten.
Solche Figuren stehen irgendwann bei DSDS auf einer virtuellen Bühne und werden von einem KI-Dieter beurteilt ...
DSDS ist doch in diesem Jahr ausgefallen, erst im nächsten Jahr soll es eine weitere Folge geben.
Casting gab es schon immer, nur vor DSDS nahmen die Menschen weniger Notiz davon. Ohne Casting keine Auswahl, gleich ob für Film, Theater oder Girl- oder Boygroups. Ohne beim Casting gut abzuschneiden, bekommt man wohl nicht einmal einen Studienplatz an einer Musikhochschule. Beim Theater oder Film keine Nebenrollen für den Anfang ohne vorausgehendes Casting. Nur DSDS machte daraus eine größere Show, das war das eigentlich Neue. Meine Figur nimmt nicht daran teil, wie tausende andere ebenfalls, die nur in ihrer Freizeit am Lagerfeuer Gitarre spielen.
Was mir gerade noch einfiel, im Video oben handelt es sich um den Titel, zu dem ich etwas vor zwei Jahren schrieb. Eben wegen dieses Titels wollte ich eine Auskunft von Universal Music Group (UMG). Da kam erst so eine übliche Bestätigungsmail, dann nichts mehr. Da kommt auch nichts mehr, ein Urheberrecht war nie darauf, da ein alter Folksong, höchstens war das Arrangement geschützt, falls überhaupt, und das Leistungsschutzrecht ist ebenfalls abgelaufen, weil es schon eine ältere Pressung gab, deren Frist um war, bevor das Leistungsschutzrecht von 50 Jahren auf 70 Jahre erweitert wurde. Das war mit ziemlicher Sicherheit eine Nachpressung, und eine Nachpressung führt zu keiner Verlängerung des Leistungsschutzrechtes.
Bei YouTube spielt es ohnehin keine große Rolle, selbst wenn, so würde nur zu einer Sperrung dieses einen Videos führen. Aber da kommt nichts mehr, sonst hätten die geantwortet und keine Antwort ist auch eine Antwort.
Soweit ich mich informierte, wurde Barclay 1978 an Polygram verkauft und Polygram ging 1998 in der Universal Music Group (UMG) auf.
Beitrag
RE: Simple 2D und 3D Animationen
Musik in Videos
Hatte nun in den von mir gewünschten Aufnahme eines Titels die Knackgeräusche auf ein erträgliches Maß reduziert, bereits angefangen ein Video zu machen, dann kalte Füße bekommen. Die Wahrscheinlichkeit ist zwar gering, doch nach der dritten Verwarnung wegen einer Urheberrechtsverletzung kündigt YouTube alle Kanäle eines Betreibers plus den dazugehörigen Google Account. Dass dies ausgesprochen selten passiert, ist nicht der Fall. Ein Beispiel von mir, in einem Faden…
Bei einem anderen Titel (It's A Long Way To Tipperary), da war ich etwas stinkig, weil YT mir einen falschen Namen als Komponisten eingefügt hatte. Wusste erst gar nicht, an wem wenden, dann habe ich die Adresse von YouTube Irland gefunden, weil die da aus steuerrechtlichen Gründen wohl eine Zentrale für Europa haben. Von da kam eine Antwort, ich sollte mich direkt an Google wenden. Da verlor ich dann die Lust. Doch vor einigen Tagen schaute ich einmal nach, es wurde tatsächlich in den letzten zwei Jahren korrigiert.
Titel: It's A Long Way To Tipperary
Komponist: Jack Judge
Interpret: Albert Farrington
Nun ist es richtig, Jack Judge ist 1938 verstorben und laut Wikipedia ist der Song gemeinfrei, selbst nach US Recht.
Zitat
This work is in the public domain in its country of origin and other countries and areas where the copyright term is the author's life plus 80 years or fewer.
This work is in the public domain in the United States because it was published (or registered with the U.S. Copyright Office) before January 1, 1930.
Nur nicht immer findet man zuverlässigen Angaben. Doch in diesem Fall hatte sich YT geirrt, und ich war einige Tage richtig stinkig gewesen, wenn man keine Adresse findet, an die man sich wenden könnte.
Praktisches Beispiel von Nano Banana vom Google AI Studio.
Das war mein Ausgangsbild, einst vor langer Zeit von Leonardo. Bei jedem Upscaling hat Leo aber den Gesichtsausdruck verändert und mir gefiel gerade dieser, so wie er war.
Nano Banana darauf hingewiesen, dass die junge Frau sich an einer Böschung lehnt und gebeten sie richtig aufstehen zu lassen. Das war der erste Schritt, ein wenig ging verloren, wie der Wind, der durch ihre Haare bläst, das Gesicht blieb erhalten, mit Abstrichen. Danach blieb sie konsistent. Noch ohne Gitarre, mir zwei Versionen fertigen lassen. Danach hatte Nano Banana bei der ersten Bitte, sie möge doch eine Gitarre spielbereit in den Händen halten, den Tragegurt vergessen.
Füge einmal einen Teil des Dialoges ein. Also in ganz einfachen Sätzen, und das möchte so, keine technischen Prompts.
Also das war vom ersten Entwurf.
Heute darum gebeten, dass sie auch dem anderen Entwurf (dieser hatte gleich einen Hut und Stiefel) eine Gitarre in die Hände legt. Nur diesmal gleich auf den Tragegurt mit hingewiesen.
Bei beiden Bildern habe ich einen Like vergeben, dabei wird eine Response an Google gesendet. Ob es daran liegt, bin ich mir nicht sicher, doch meine Tokens haben zugenommen und nicht abgenommen, wie ich es eigentlich erwartet hätte.
Jetzt ist mir gerade eingefallen, warum die gewohnten Einstellungen für Simulation nicht mehr angezeigt werden. Ich hatte dieses Einstellfenster so verschoben, dass es von allein andockte. Da es mir gar nicht so schlecht gefiel, beließ ich es dabei. Aber ich hatte nicht daran gedacht, dass ich dann nicht auf Presets, sondern auf Editor klicken sollte, damit das gewohnte wieder erscheint, denn wofür die Presets-Files gut sind, das weiß ich nicht einmal, weil ich diese bis heute noch nicht sah.
Und das mit der Plane als Latz, wenn ich die für keine andere Figur nehme, so könnte ich diese als OBJ exportieren und erneut importieren. Sollte eigentlich gehen, denke ich mir.
Und die Deformation der Hände in Posen, wenn ich eine Pose für eine graue G9 anwende, so ist noch nichts zu sehen. Benutze ich aber anschließen auf diese graue die Morphs, dann passiert es. Somit sind die fertigen Posen nicht für Neandertaler geeignet. Aber eigenartigerweise sind nur die Hände betroffen. Ja ich weiß, dass ich viel geändert hatte, weiß auch, dass ich viele Screenshots von geänderten Positionen gemacht und nach Region geordnet abgespeichert habe. Die Hände sind nicht dabei, verstecken sich vielleicht unter Body.
Ja, gefunden unter Body Längen. Arme -12% und Finger - 10%, da könnte man testen, was eventuell zu viel war.
Als Wearables gespeichert, einmal mit und einmal ohne Daten der Timeline, macht beim Laden keinen Unterschied, wird immer als platte Scheibe geladen. Einzig die Schulterhöhe wird mitgeladen, doch ohne eine Simulation wird es nichts.
Und hier öffnet sich anstatt der normalen und gewohnten Semulation-Settings auf einmal so etwas zur Auswahl nur noch. Bis vor einigen Stunden war es noch das normale Menü mit Einstellungen.
Die Finger an den Händen werden entstellt, auch wenn ich den Charakter neu lade. Ist mir vielleicht nur im letzten Jahr noch nicht aufgefallen. Könnte an den veränderten Proportionen liegen, doch manuell sollte es gehen, denke ich mir. Also das ist die Frau, beim Mann könnte es dann noch schlimmer kommen. Doch der braucht keinen Latz.
So, habe noch mehr Farben von 4.24 nachgebessert, die Kontraste waren mir noch zu groß, gegenüber dem alten Layout. Bei Links weiß ich nicht mehr, wie die vorher aussahen. Aber allgemein, bei Bildbearbeitung möchte ich zwar eine eher mittel- bis dunkelgraue Umgebung, aber keine, die einen zusätzlich auf die Augen schlagen, wenn zu hoch oder zu hässlich, wie mit diesem knalligen Grün.
Mit ihrem Latz (um den Busen zu verdecken) ging es beim nächsten Versuch erst einmal so, dass dieses mit Transfer Utility und Zuweisung eines Add dForce Modifiers zwar sich nun mit anlegte, aber nur von der Nase bis zu den Schultern. Als Objekt exportieren, die Höhe in Blender oder Hexagon ausrichten, dann erneut importieren, eine andere Möglichkeit sehe ich da nicht. Warum der Clothing Converter das nicht schaffte, keine Ahnung.
Habe lange Zeit zu rein gar nichts Lust gehabt, da ich nicht mehr richtig mobil bin, und sehr viel Arbeit auf mir warten würde, die eigentlich keinen weiteren Aufschub mehr duldet. Zweimal zum Müllkübel hin und zurück, und meine Beine beginnen zu schmerzen. Noch einmal hin und zurück, und meine Waden werden zu Pudding und meine Beine wollen mich nicht mehr tragen.
War dabei in Trübsal zu verfallen, doch dann lief mir bei YouTube ein Song über den Weg, mit viel Potenzial zum Mitsingen. Da musste ich an den einen Faden bei Clavio denken, in dem es um Songs zum Mitsingen ging, dachte ich, der passt doch wie die Faust aufs Auge. Mein letzter Post in diesem Faden war am 11.09.2019, sehe ich gerade, fortgesetzt habe ich ihn dann ab dem 25.07.2025, also eine lange Pause zwischendurch.
Ist nur 15 Sekunden lang, in den Shorts läuft der aber als Schleife. Der originale Titel geht aus ihrem Gesang hervor und ist länger, am Text ändert sich aber nichts mehr. Aber andere haben den Song aufgegriffen und abwechslungsreicher gestaltet. Das Original wurde in den letzten Monaten aber auch bereits in 9628 anderen Short-Videos bei TikTok übernommen. Werde es hier nur verlinken.
Wollte hier nicht zu viel mit KI/AI in den Faden bringen, doch wo sich 3D und AI meiner Meinung nach vereinen ließen, ist Images für Start- und Endframe in 3D erstellen, und dann die AI einen fließenden Übergang von 5 bis 10 Sekunden für den ersten und jeden weiteren Clip rendern lassen, wäre nicht so sehr viel anders, als Zeit bei einer Renderfarm zu buchen. Die Kling AI bringt es auf jeden Fall, habe es nur noch nicht probiert, weil meine Kredits in der Free-Version für diesen Monat erschöpft sind. Wobei ich mir nicht vorstellen kann, dass andere da hinterherhinken. Werde es eines Tages vielleicht mit meiner G8 Fuchsfee testen, die wollte ich ja um ein Lagerfeuer tanzen lassen.
Habe zu einem Audio eine passende Tänzerin gesucht, die langsam Hula tanzen sollte. Gute Clips von zwei KIs erhalten, doch alle erschienen mir für den Song zu schnell zu tanzen. Wo das Tempo mir annehmbar erschien, war ausgerechnet der Bing Video Creator, nur 5 Sekunden und nur 480p in der Breite beim Hochformat. Doch letztendlich habe ich dieses verwendet, 12 Clips von 5 Sekunden in einer Spur, dann jeden zweiten Clip mit Geschwindigkeit von -100. Da ich wusste, dass Lightworks das bringt, habe ich mir nun endlich eine mittlere Version zu Einmalpreis geholt. Vor dem Noch einen Test mit dem Nero Video-Upscaler gemacht, dann einen Vergleich gemacht. Da mein Screen nur 1080 hoch ist, sehe ich nur die Hälfte von 1920, und da sehe ich kaum einen Unterschied, ob einfach nur hochskalliert und nachgeschärft, oder wirklich mit AI verbessert.
Bei Nero sind an den oberen Kanten die Ränder etwas weniger flauschig, doch das würde Gimp nicht anders, wenn man ein Einzelbild nur vergrößert und nachschärft, denke ich mir. Nur Gimp geht wohl nicht für Videos.
Jedenfalls habe ich Nero wieder von der Platte gelöscht, was soll ich mit so einem riesigen Wasserzeichen, dann nur von Lightworks mit 1080 x 1920 exportieren lassen.
Also daran denken, es ist nur ein Clip von 5 Sekunden
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Und jetzt sehe ich gerade, am 12.09.2025 veröffentlicht und immerhin bereits 8 Likes und 665 Aufrufe, mehr als meine anderen Shorts in diesem Kanal. Entweder liegt es daran, das es in den Shorts gut ankommt, oder daran, das ich vor Jahren am 06.06.2021 in der Plauderecke von Clavio.de den Faden Musik- und andere Videos animieren gestartet hatte, und ich diesen ab dem 31.08.2025 wieder aufnahm, und es auch dort vor zwei Tagen gepostet habe.
Und man kann nun von Google halten, was man will, aber die neue Nano Banana vom Google AI Studio, die versteht einen komplett auf Deutsch und man braucht gar keine großartigen Beschreibungen liefern. Im Test ein Bild von einer jungen Frau hochgeladen, und dann kann man mit diesem nunmehr konsistenten Modell weitere Schritte gehen. Für eine kostenlos AI beachtlich und Images in ausreichender Größe. Wenn es ein Abo Modell wäre, würde es nicht an Midjourney oder Leonardo heranreichen.
Nach langer Zeit habe ich einmal wieder das Daz Studio geöffnet und aktualisiert auf 4.24. Dabei ging mir dieses beinahe schon giftige, kalte Hellgrün auf die Nerven. Das war ja in der neuen Version nicht so ein angenehmes Grün wie hier im Forum, das war für mich einfach nur ein schreckliches Grün. Nun ja, wenigstens lässt es sich ändern, und dass ich es bis zum nächsten Update nicht vergesse, oder falls es auch andere Nutzer ändern möchten, alles, was Grün ist von 1. bis 5. wieder mit diesen Farbwerten befüllen.
Falls dabei auch der Arbeitsbereich in Grau umschlagen sollte, was zumindest bei mir passierte, so treffen diese Werte zu. Dieser Farbwert trifft aber nur fürs "Hollywood Bvld" Layout zu, mit einem anderen habe ich noch nicht gearbeitet.
Gestern suchte ich im Daz Shop nach "Prehistoric clothing" für meine Neandertaler, fand auch tatsächlich etwas, aber nur für G8, dafür aber nur noch ein Drittel des ursprünglichen Preises (falls man diesen alten Preisangaben trauen kann). Und der den RSSY Clothing Converter für G8 to G9 war ebenfalls auf Eindrittel des Preises gesunken, also nahm ich diesen gleich mit.
The Cave Clothes 01 is the perfect inauthentic outfit for prehistoric pulp adventuring, whether it be Hunting Cave Bears, wrestling dinosaurs or going to a…
www.daz3d.com
Leider konvertierte dieser RSSY aus mir unbekannten Gründen nicht das
Oberteil, speicherte es auch nicht im zugewiesenen Ordner unter G9 mit
ab. Um es dennoch zu verwenden, wies ich dieses Teil von der G8 der G9
zu und dachte, irgendwie mit Fit for oder Auto Fit müsste es doch gehen.
Aber nein, es blieb als flache Scheibe in Nasenhöhe stehen, reagierte auf keine Simulation. Auch mit Transfer Utility war nichts zu machen, die Scheibe folgte zwar, doch behielt bei allen Versuchen die Höhe von G8 bei. Vielleicht war es nicht einmal ein Fehler des Konverters. Nun gut, so teuer war es ja nicht, und den Konverter kann man vielleicht anderweitig noch gebrauchen.
Vor wenigen Jahren, da fragte ich mich noch, ob die Chinesen gar keine 3D-Anwendungen entwickeln, also sowas wie Maya, ZBrush oder Houdini. Nun ist gefühlt jedes zweite Tool von denen marktführend. Wan 2.1 ist von Alibaba (China), wie ich gerade las, CapCut ist von ByteDance (China), Kling AI ist Kuaishou (China) und mein Eindruck ist, dass es eine ganze Liste in unterschiedlichen Bereichen ergeben würde. Gut, Runway und Sora (Open AI) kommen aus den USA, viele kenne ich sicherlich nicht, nur häufiger erwähnte Tools, die ich getestet habe.
Was nun Alibaba mit Wan vorhat, kostenlos ist gut, Ergebnis ist gut, die Details von den Figuren sind für diese Größe gut, da gab es bisher andere Probleme. Doch 5 Sekunden sind zu wenig, Größe und Wasserzeichen ist weniger akzeptabel. Doch bisher ist nichts mit einem Plan für eine höhere Version zu finden. Oder doch?
Gerade lese ich, je nach Rechner können wohl alle Größen gerendert werden:
Zitat
Das für GPUs der Verbraucherklasse optimierte Modell kann mit einer Nvidia RTX 480 GPU in weniger als vier Minuten ein fünf Sekunden langes 4090p-Video erstellen, was die Einstiegshürde für die Erstellung von Videos in professioneller Qualität erheblich senkt.
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Ja, gibt es, einmal ein Bild von einem kostenlosen online-Tool upscalen lassen, war bedient. Dann doch lieber mit Tools, die das können und nur bei Einzelbildern. Erweitern klappt schon mit Leonardo in der kostenlosen Version, nur Upscaling scheint nun endgültig gestrichen zu sein, für Bilder, die nicht mit Leo erstellt wurden.
"Runway Gen-3" soll als Videogenerator ebenfalls gut sein. Nur da interpretiere ich den Basic Plan für kostenlos so, dass es nur einmalig zu Anfang einige Credits gibt. Ein Standardplan beginnt dann etwas höher als bei Kling AI. Bei beiden würde ich noch eine Mehrwertsteuer einplanen, diese wurde bisher nirgends (außer in DE oder EU) mit angegeben.
Kostenlos als Videogenerator bleibt vielleicht "Wan".
Den gibt es wohl zum Herunterladen und als online Tool. Die Nodes erinnerten mich an Blender, sieht aber einfacher aus.
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Das waren meine Einstellungen mit Prompt vom letzten Video.
Da hatte ich von 5 auf 10 Sekunden und die Relevance vom Prompt von 0.5 auf 0.7.
Was sich noch machen ließe, von Standard auf Premium wechseln, womit es detailreicher werden sollte.
Und unter C die Anzahl der Outputs erhöhen, um dann wohl eine Auswahl zu haben, wie es bei einzelnen Images eigentlich überall möglich ist, bei Clips aber noch nicht. Wie sich die Credits dadurch erhöhen würden, lässt sich für mich schwer abschätzen, weil ja auch abhängig von den Test- und Fehlversuchen. Meine Tests waren mit 720p, ob Premium 1080p liefert, weiß ich nicht so genau, denke aber schon.
Aber eigentlich war es noch nie anders, eine Super 8 Kamera war erschwinglich, die Akkus nach zwei Kassetten von wenigen Minuten leer. Wer aber wenigstens als Amateur Kurzfilme oder Tierfilme drehen wollte, brauchte unter 16 Millimeter gar nicht anfangen, die Ausrüstung war entsprechend teurer, und 24 Millimeter gab es für Laien im Osten wohl gar nicht.
Hatte gestern noch gelesen oder gehört, die Wartezeiten beim Rendern sind bei Free-Accounts höher, bis hin zu Abbrüchen, zu denen es noch im letzten Jahr gekommen sein soll. Somit sollte es ebenfalls in diesem Bereich eine spürbare Verbesserung geben.
Gut, das Motiv mit einem Elfenreigen war nicht einfach. Besser könnte es werden, jeweilige Images für Start- und Endframes selbst z.B. mit Daz 3D zu rendern, diese zumindest als Vorlagen für Midjourney oder Leonardo zu verwenden, um daraus dann bewegte Szenen zu gestalten.
Obwohl die Clips nur mit 720p gerendert wurden, habe ich aber beide mit Clipchamp zusammengesetzt, und mit 1080p exportiert. Davon werden diese nicht besser, doch von YT zumindest mit 1080p ausgeliefert.
Um von den Unkosten und Preisen in einem akzeptablen Rahmen zu bleiben, könnte nun weitere Überlegungen folgen, z.B. wie man 720p Clips als Bild in Bild in 1080p Videos verwendet. Das ist sicherlich nicht immer ein angestrebtes Ziel, denoch eine Überlegung wert.
Zum Einstieg würde ja bei der Kling AI die preiswerteste Variante genügen. Die lag im letzten Jahr oder bis Anfang dieses Jahres noch bei jedem Logging oder täglich noch bei 66 Credits, wie ich las. Nun scheint es nur noch bei 166 Credits für einmal im Monat beim Free-Account zu geben, wobei ich nichts Genaueres weiß. Die nächste Stufe sah erschwinglich aus, woraus sich 660 Credits ergeben würden, die nach meiner jetzigen Einschätzung bei etwas höherer Qualität noch nicht für 3 Minuten reichen würden. Dafür könnte man aber zusätzliche Credits erwerben, wie es ausschaut. Für ein Video von etwa 3 Minuten könnten insgesamt 20 bis 30 Dollar genügen. Käme halt darauf an, wie viel Lehrgeld man noch verpulvern würde, vielleicht auch das Doppelte oder mehr. Unter 20 bis 30 Dollar würde es zumindest eher nichts werden, denke ich mir, lieber etwas höher ansetzen und etwas mehr einplanen.
Doch im Vergleich zu Sora von Open AI wäre es eigentlich noch preiswert.
So wie ich das bisher verstehe, gibt es bei Sora einen einfachen Plus Plan für 20 $ im Monat (mit Wasserzeichen und begrenzt auf 720p). Für 200 $ im Monat aber einen Pro Plan mit 1080p.
Von dieser Warte aus betrachtet, kommt mir CapCut doch noch irgendwie preiswert vor, wobei man den Funktionsumfang noch einmal mit Kling AI vergleichen müsste. Kling AI sah erst günstiger aus, könnte aber ein Trugschluss gewesen sein, so richtig sicher bin ich mir nicht. Gut, es gibt noch weitere, die ich nur vom Namen kenne, nur keine preiswerteren, mit einem ähnlichen Funktionsumfang. Was da als kostenlos bejubelt wird, bringt oft einfach nichts oder viel zu kleine Auflösungen, die in den Video-Tuts verschwiegen werden und andere Schwächen.
Im Endergebnis muss somit zuerst jeder für sich einschätzen, was will er machen, welche Tools benötigt er dazu, was ist er bereit dafür auszugeben, was ist ihm möglich dafür auszugeben.
Nun ja, ich weiß es für mich, zumindest was ich machen will. Anderes muss ich mir dreimal überlegen.
Nachdem die ersten Tests mit Kling AI und mit "Image to Video" und "Text to Speech" eigentlich überzeugen konnten, wollte ich heute noch "Text to Video" testen. Dieser Test konnte weniger überzeugen, da vom Prompt das Moonlight nicht berücksichtigt wurde. Positiv, die Frauen haben zwar wenig mit im Mondschein tanzenden Elfen gemein, tanzen dafür aber ziemlich echt. Bessere Resultate sind zu erwarten, wenn vorher brauchbare Images von einem Elfenreigen gefertigt werden. Gefertigt wurde ein Clip von 5 Sekunden und einer von 10 Sekunden, beide mehrmals im Video eingefügt.
Die Musik wurde erst später aus der YouTube Mediathek hinzugefügt, und passt ebenfalls nicht wirklich. Habe zwar die Noten von "Largo's Fairy Dance" von Nathaniel Gow (1763-1831), nur noch nicht mit beschäftigt. Diese Melodie dürfte dann etwas besser passen. Nun sind aber erst einmal meine Credits verbraucht, und es gibt wohl nur monatlich welche für kostenlose Accounts. Beim nächsthöheren Plan reichen die Credits aber vermutlich auch nur für ein Video von wenigen Minuten. Mal schauen, wie alles wird. Nur etwas besser sollte schon alles zusammen passen, so kann es noch nicht befriedigen:
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Bevor ich es vergesse, nach der Beschreibung können auch zwei Images für Start- und Endframe benutzt werden. So sollte sich eine Brücke zu 3D schlagen lassen, in dem z.B. nur noch das erste und letzte Bild für einen Kameraschwenk mit Terragen gerendert wird, die Übergänge aber mit so einem Tool. Der Schwenk dürfte vermutlich nicht allzu groß sein, doch dann käme vielleicht "Extend" ins Spiel, um möglicherweise das Image für den Endframe als Image für den Startframe für den nächsten Clip zu verwenden. Ob die Qualität dann für Movieszenen stimmt, müsste getestet werden. Sind nur erste Gedanken, wie man eventuell was umsetzen könnte.
Letzte Nacht habe ich mir eine Anleitung im Browser übersetz, die eigentlich sehr ausführlich ist. Diese enthält so viele Beispielvideos mit Prompts, scheinbar in klein, es lassen sich aber alle in Vollbildmodus öffnen. Bei mir lief kein Video nur mit einmal klicken, denn im Gegensatz zu YT wurden diese scheinbar nicht für die Auslieferung optimiert. Ein weiterer Grund für langweilige Ladezeiten könnte sein, dass die Seiten einfach im Rest der Welt noch nicht in genügend Datencenter zwischengespeichert sind. Doch die Inhalte waren sehr interessant. Zum Beispiel wie ein Prompt sich mit "Extend" mehrfach verlängern lässt, wenn diese aufeinander aufbauen.
Hier z.B. ein Mädchen im Schnee, bei der die ersten 5 Sekunden auf 9 und auf 14 Sekunden durch zwei anschließende Prompts verlängert wurde, was dann mehr als ausreichend für eine Kameraeinstellung ist. Wenn man dann noch daran denkt, dass eine Filmszene in der Regel aus mehr als eine Kameraeinstellung zusammengeschnitten wird, ist das wirklich gut.
Meine anfänglichen Credits wurden nicht aktualisiert, viele zum Testen verbleiben mir nicht mehr. Weiß aber rückblickend, welche Fehler ich machte. War zu ungeduldig, wenn sich nichts rührte, klickte dann hier und da. Eine Synchronisation selbst von kurzen Sätzen dauert aber Minuten, die voraussichtliche Zeit wird ablaufend eingeblendet, was ich anfänglich nicht für voll nahm.
Wollte das erste Video gerade wieder löschen, weil ich jetzt vorläufig mit den Tests fertig bin und es dann doch noch mit der Synchronisation klappte. Irgendwie kam es mir so vor, als müsste sich die App erst warmlaufen, oder ich damit erst warm werden.
Hatte nun das erste ohne Ton, das zweite mit einer (versehentlich) männlichen Stimme, und das dritte mit einer weiblichen Stimme zusammengeschnitten, damit es nicht ganz so kurz wird. Das erste hat aber in den wenigen Stunden 4 Likes erhalten, damit hatte ich nicht gerechnet und lösche es nun nicht mehr, um es auszutauschen. Hier ist jedenfalls das um Sprache erweiterte.
Der Text von den beiden:
Kinder haben Träume, doch wovon träumen Erwachsene, wenn sie ziehende Wolken betrachten?
Weiß Du es?
Children have dreams, but what do adults dream about when they watch clouds drifting?
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Lippensynchronisation bei diesem Tool nur auf Chinesisch oder Englisch, so viel zu den Unterschieden, die sich letztendlich auf den Preis auswirken. Im Vergleich, CapCut enthielt zumindest zwei deutsche Frauenstimmen.
Es geht weiter, ausgewähltes Video, dazu einen kurzen Satz: "I'm sitting here waiting for you."
Und einige Einstellungen, ohne zu wissen, was ich eigentlich bei der Stimme auswähle.
Ergebnis, nicht mein Video wurde wie erwartet mit einer Stimme synchronisiert, sondern ein mir unbekanntes, mit einer männlichen Stimme. Hätte Female auswählen sollen, mein Fehler, der Rest ist wohl selbsterklärend bei der Auswahl.
Tja, irgendetwas lief da wohl schief.
Nun wollte ich einen von der Zeit und Stimme angepassten Text unterlegen, doch am vorhandenen Video scheint sich nichts mehr zu ändern. Es wird nichts Neues generiert, möglicherweise durch meine Unkenntnis, ich weiß es nicht.
Nun ja, das ist ein online-Tool für Desktop-Browser oder alternativ für Handys. Das andere war eine Desktop-App zum Herunterladen. Der Funktionsumfang bei beiden ist vorgegeben. Bei dem zuerst getesteten CapCut war der Umfang erweitert, die Nutzungsbedingungen waren auf Deutsch einsehbar und länger als in Kürze lesbar. Musik mit beiden zu generieren, könnte bei beiden problematisch sein, weil TikTok laschere Urheberrechte wie YT haben soll.
Für die kostenlose Version erhielt ich anfänglich 166 Credits, von denen 20 für das Beispiel verbraucht wurden. Andere Beispiele, wie bei dem weißen Drachen, da wurde etwas von 35 Credits angezeigt.
Ob die täglich in der kostenlosen Version aktualisiert werden, weiß ich noch nicht. Jedenfalls die Beispiel-Motive werde ich nicht einfach bei YT veröffentlichen können. Dieses Hallo von der Spielerin im ersten Beispiel rotierte reichlich schnell, sah gut aus, aber ob zu schnell für Musik, müsste man später sehen. "Lip Sync" steht als Option an der linken Seite und unterm Video, sollte also möglich sein. Gegenüber CapCut würde mir die Bild in Bild Funktion und andere Optionen fehlen.
Gut, für meine Ansprüche sollte es erst einmal genügen.
Ein erster Test, bei dem ich zu viel Credits verschenkt habe. Weil sich anfänglich nichts rührte, habe ich das Bild dreimal geladen. Wusste halt nicht, wie langweilig die Übertragung und Animierung eines einzelnen Bilde noch läuft.
Jedenfalls ein Bild von meinen vorhandenen geladen, dazu diesen Prompt auf Englisch:
Zitat
Eine junge Frau sitzt auf einer Wiese, der Hintergrund bewegt sich. Der Wind weht durch die Haare. Die Kamera zoomt heraus.
Ist jetzt ohne Ton, weil ich damit noch nicht klar kam, oder meine Geduld noch ausgebaut werden müsste. Macht ansonsten, was ich schrieb. Das Gras bewegt sich, Augenbwegungungen sind zusätzlich mit bei. Nur so ein ganzes Video fertigen?
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.