Beiträge von Melegrian

    Vor wenigen Jahren, da fragte ich mich noch, ob die Chinesen gar keine 3D-Anwendungen entwickeln, also sowas wie Maya, ZBrush oder Houdini. Nun ist gefühlt jedes zweite Tool von denen marktführend. Wan 2.1 ist von Alibaba (China), wie ich gerade las, CapCut ist von ByteDance (China), Kling AI ist Kuaishou (China) und mein Eindruck ist, dass es eine ganze Liste in unterschiedlichen Bereichen ergeben würde. Gut, Runway und Sora (Open AI) kommen aus den USA, viele kenne ich sicherlich nicht, nur häufiger erwähnte Tools, die ich getestet habe.

    Was nun Alibaba mit Wan vorhat, kostenlos ist gut, Ergebnis ist gut, die Details von den Figuren sind für diese Größe gut, da gab es bisher andere Probleme. Doch 5 Sekunden sind zu wenig, Größe und Wasserzeichen ist weniger akzeptabel. Doch bisher ist nichts mit einem Plan für eine höhere Version zu finden. Oder doch?


    Gerade lese ich, je nach Rechner können wohl alle Größen gerendert werden:

    Zitat

    Das für GPUs der Verbraucherklasse optimierte Modell kann mit einer Nvidia RTX 480 GPU in weniger als vier Minuten ein fünf Sekunden langes 4090p-Video erstellen, was die Einstiegshürde für die Erstellung von Videos in professioneller Qualität erheblich senkt.

    Quelle

    Online Tool, Prompt von gestern eingegeben, mit "Enhance" erweitern, auf "Generate Video" geklickt, und nichts rührt sich?



    Nein, es rührte sich nichts.

    Nase gestrichen voll von lahmenden Tools?


    Nur kurz die Nase voll, dann Images mit dem Prompt ausprobiert.

    Unten rechts gefallen mir zumindest die Posen.



    Nun, angeklickt, dadurch wurde es als Vorlage für ein Video genommen, dieses sollte in 24 Minuten gerendert werden.



    Bin beeindruckt, zwar nur 720p, doch alle Beteiligten ziemlich gut dargestellt und tanzen wie Elfen.

    Leider nur 5 Sekunden.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Ja, gibt es, einmal ein Bild von einem kostenlosen online-Tool upscalen lassen, war bedient. Dann doch lieber mit Tools, die das können und nur bei Einzelbildern. Erweitern klappt schon mit Leonardo in der kostenlosen Version, nur Upscaling scheint nun endgültig gestrichen zu sein, für Bilder, die nicht mit Leo erstellt wurden.


    "Runway Gen-3" soll als Videogenerator ebenfalls gut sein. Nur da interpretiere ich den Basic Plan für kostenlos so, dass es nur einmalig zu Anfang einige Credits gibt. Ein Standardplan beginnt dann etwas höher als bei Kling AI. Bei beiden würde ich noch eine Mehrwertsteuer einplanen, diese wurde bisher nirgends (außer in DE oder EU) mit angegeben.


    Kostenlos als Videogenerator bleibt vielleicht "Wan".

    Den gibt es wohl zum Herunterladen und als online Tool.
    Die Nodes erinnerten mich an Blender, sieht aber einfacher aus.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Installationsanleitung:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Und nun als online Tool:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Das waren meine Einstellungen mit Prompt vom letzten Video.

    Da hatte ich von 5 auf 10 Sekunden und die Relevance vom Prompt von 0.5 auf 0.7.



    Was sich noch machen ließe, von Standard auf Premium wechseln, womit es detailreicher werden sollte.



    Und unter C die Anzahl der Outputs erhöhen, um dann wohl eine Auswahl zu haben, wie es bei einzelnen Images eigentlich überall möglich ist, bei Clips aber noch nicht. Wie sich die Credits dadurch erhöhen würden, lässt sich für mich schwer abschätzen, weil ja auch abhängig von den Test- und Fehlversuchen. Meine Tests waren mit 720p, ob Premium 1080p liefert, weiß ich nicht so genau, denke aber schon.



    Aber eigentlich war es noch nie anders, eine Super 8 Kamera war erschwinglich, die Akkus nach zwei Kassetten von wenigen Minuten leer. Wer aber wenigstens als Amateur Kurzfilme oder Tierfilme drehen wollte, brauchte unter 16 Millimeter gar nicht anfangen, die Ausrüstung war entsprechend teurer, und 24 Millimeter gab es für Laien im Osten wohl gar nicht.


    Hatte gestern noch gelesen oder gehört, die Wartezeiten beim Rendern sind bei Free-Accounts höher, bis hin zu Abbrüchen, zu denen es noch im letzten Jahr gekommen sein soll. Somit sollte es ebenfalls in diesem Bereich eine spürbare Verbesserung geben.


    Gut, das Motiv mit einem Elfenreigen war nicht einfach. Besser könnte es werden, jeweilige Images für Start- und Endframes selbst z.B. mit Daz 3D zu rendern, diese zumindest als Vorlagen für Midjourney oder Leonardo zu verwenden, um daraus dann bewegte Szenen zu gestalten.


    Obwohl die Clips nur mit 720p gerendert wurden, habe ich aber beide mit Clipchamp zusammengesetzt, und mit 1080p exportiert. Davon werden diese nicht besser, doch von YT zumindest mit 1080p ausgeliefert.



    Um von den Unkosten und Preisen in einem akzeptablen Rahmen zu bleiben, könnte nun weitere Überlegungen folgen, z.B. wie man 720p Clips als Bild in Bild in 1080p Videos verwendet. Das ist sicherlich nicht immer ein angestrebtes Ziel, denoch eine Überlegung wert.

    Die nehmen sich alle nicht besonders viel.


    Zum Einstieg würde ja bei der Kling AI die preiswerteste Variante genügen. Die lag im letzten Jahr oder bis Anfang dieses Jahres noch bei jedem Logging oder täglich noch bei 66 Credits, wie ich las. Nun scheint es nur noch bei 166 Credits für einmal im Monat beim Free-Account zu geben, wobei ich nichts Genaueres weiß. Die nächste Stufe sah erschwinglich aus, woraus sich 660 Credits ergeben würden, die nach meiner jetzigen Einschätzung bei etwas höherer Qualität noch nicht für 3 Minuten reichen würden. Dafür könnte man aber zusätzliche Credits erwerben, wie es ausschaut. Für ein Video von etwa 3 Minuten könnten insgesamt 20 bis 30 Dollar genügen. Käme halt darauf an, wie viel Lehrgeld man noch verpulvern würde, vielleicht auch das Doppelte oder mehr. Unter 20 bis 30 Dollar würde es zumindest eher nichts werden, denke ich mir, lieber etwas höher ansetzen und etwas mehr einplanen.



    Doch im Vergleich zu Sora von Open AI wäre es eigentlich noch preiswert.

    So wie ich das bisher verstehe, gibt es bei Sora einen einfachen Plus Plan für 20 $ im Monat (mit Wasserzeichen und begrenzt auf 720p). Für 200 $ im Monat aber einen Pro Plan mit 1080p.


    Quelle


    Von dieser Warte aus betrachtet, kommt mir CapCut doch noch irgendwie preiswert vor, wobei man den Funktionsumfang noch einmal mit Kling AI vergleichen müsste. Kling AI sah erst günstiger aus, könnte aber ein Trugschluss gewesen sein, so richtig sicher bin ich mir nicht. Gut, es gibt noch weitere, die ich nur vom Namen kenne, nur keine preiswerteren, mit einem ähnlichen Funktionsumfang. Was da als kostenlos bejubelt wird, bringt oft einfach nichts oder viel zu kleine Auflösungen, die in den Video-Tuts verschwiegen werden und andere Schwächen.


    Im Endergebnis muss somit zuerst jeder für sich einschätzen, was will er machen, welche Tools benötigt er dazu, was ist er bereit dafür auszugeben, was ist ihm möglich dafür auszugeben.


    Nun ja, ich weiß es für mich, zumindest was ich machen will. Anderes muss ich mir dreimal überlegen.

    Noch ein kleiner Test mit Kling IA.


    Nachdem die ersten Tests mit Kling AI und mit "Image to Video" und "Text to Speech" eigentlich überzeugen konnten, wollte ich heute noch "Text to Video" testen. Dieser Test konnte weniger überzeugen, da vom Prompt das Moonlight nicht berücksichtigt wurde. Positiv, die Frauen haben zwar wenig mit im Mondschein tanzenden Elfen gemein, tanzen dafür aber ziemlich echt. Bessere Resultate sind zu erwarten, wenn vorher brauchbare Images von einem Elfenreigen gefertigt werden.
    Gefertigt wurde ein Clip von 5 Sekunden und einer von 10 Sekunden, beide mehrmals im Video eingefügt.


    Die Musik wurde erst später aus der YouTube Mediathek hinzugefügt, und passt ebenfalls nicht wirklich. Habe zwar die Noten von "Largo's Fairy Dance" von Nathaniel Gow (1763-1831), nur noch nicht mit beschäftigt. Diese Melodie dürfte dann etwas besser passen. Nun sind aber erst einmal meine Credits verbraucht, und es gibt wohl nur monatlich welche für kostenlose Accounts. Beim nächsthöheren Plan reichen die Credits aber vermutlich auch nur für ein Video von wenigen Minuten. Mal schauen, wie alles wird. Nur etwas besser sollte schon alles zusammen passen, so kann es noch nicht befriedigen:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Bevor ich es vergesse, nach der Beschreibung können auch zwei Images für Start- und Endframe benutzt werden. So sollte sich eine Brücke zu 3D schlagen lassen, in dem z.B. nur noch das erste und letzte Bild für einen Kameraschwenk mit Terragen gerendert wird, die Übergänge aber mit so einem Tool. Der Schwenk dürfte vermutlich nicht allzu groß sein, doch dann käme vielleicht "Extend" ins Spiel, um möglicherweise das Image für den Endframe als Image für den Startframe für den nächsten Clip zu verwenden. Ob die Qualität dann für Movieszenen stimmt, müsste getestet werden. Sind nur erste Gedanken, wie man eventuell was umsetzen könnte.

    Letzte Nacht habe ich mir eine Anleitung im Browser übersetz, die eigentlich sehr ausführlich ist. Diese enthält so viele Beispielvideos mit Prompts, scheinbar in klein, es lassen sich aber alle in Vollbildmodus öffnen. Bei mir lief kein Video nur mit einmal klicken, denn im Gegensatz zu YT wurden diese scheinbar nicht für die Auslieferung optimiert. Ein weiterer Grund für langweilige Ladezeiten könnte sein, dass die Seiten einfach im Rest der Welt noch nicht in genügend Datencenter zwischengespeichert sind.
    Doch die Inhalte waren sehr interessant. Zum Beispiel wie ein Prompt sich mit "Extend" mehrfach verlängern lässt, wenn diese aufeinander aufbauen.


    轻雀文档
    docs.qingque.cn


    Hier z.B. ein Mädchen im Schnee, bei der die ersten 5 Sekunden auf 9 und auf 14 Sekunden durch zwei anschließende Prompts verlängert wurde, was dann mehr als ausreichend für eine Kameraeinstellung ist. Wenn man dann noch daran denkt, dass eine Filmszene in der Regel aus mehr als eine Kameraeinstellung zusammengeschnitten wird, ist das wirklich gut.



    Meine anfänglichen Credits wurden nicht aktualisiert, viele zum Testen verbleiben mir nicht mehr. Weiß aber rückblickend, welche Fehler ich machte. War zu ungeduldig, wenn sich nichts rührte, klickte dann hier und da. Eine Synchronisation selbst von kurzen Sätzen dauert aber Minuten, die voraussichtliche Zeit wird ablaufend eingeblendet, was ich anfänglich nicht für voll nahm.

    Wollte das erste Video gerade wieder löschen, weil ich jetzt vorläufig mit den Tests fertig bin und es dann doch noch mit der Synchronisation klappte. Irgendwie kam es mir so vor, als müsste sich die App erst warmlaufen, oder ich damit erst warm werden.


    Hatte nun das erste ohne Ton, das zweite mit einer (versehentlich) männlichen Stimme, und das dritte mit einer weiblichen Stimme zusammengeschnitten, damit es nicht ganz so kurz wird. Das erste hat aber in den wenigen Stunden 4 Likes erhalten, damit hatte ich nicht gerechnet und lösche es nun nicht mehr, um es auszutauschen. Hier ist jedenfalls das um Sprache erweiterte.


    Der Text von den beiden:


    Kinder haben Träume, doch wovon träumen Erwachsene, wenn sie ziehende Wolken betrachten?

    Weiß Du es?


    Children have dreams, but what do adults dream about when they watch clouds drifting?

    Do you know?


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Test 02 - Text to Speech.


    Lippensynchronisation bei diesem Tool nur auf Chinesisch oder Englisch, so viel zu den Unterschieden, die sich letztendlich auf den Preis auswirken. Im Vergleich, CapCut enthielt zumindest zwei deutsche Frauenstimmen.


    Es geht weiter, ausgewähltes Video, dazu einen kurzen Satz: "I'm sitting here waiting for you."

    Und einige Einstellungen, ohne zu wissen, was ich eigentlich bei der Stimme auswähle.



    Ergebnis, nicht mein Video wurde wie erwartet mit einer Stimme synchronisiert, sondern ein mir unbekanntes, mit einer männlichen Stimme. Hätte Female auswählen sollen, mein Fehler, der Rest ist wohl selbsterklärend bei der Auswahl.

    Tja, irgendetwas lief da wohl schief.



    Nun wollte ich einen von der Zeit und Stimme angepassten Text unterlegen, doch am vorhandenen Video scheint sich nichts mehr zu ändern. Es wird nichts Neues generiert, möglicherweise durch meine Unkenntnis, ich weiß es nicht.


    Geänderte Einstellungen:


    Nun ja, das ist ein online-Tool für Desktop-Browser oder alternativ für Handys. Das andere war eine Desktop-App zum Herunterladen. Der Funktionsumfang bei beiden ist vorgegeben. Bei dem zuerst getesteten CapCut war der Umfang erweitert, die Nutzungsbedingungen waren auf Deutsch einsehbar und länger als in Kürze lesbar. Musik mit beiden zu generieren, könnte bei beiden problematisch sein, weil TikTok laschere Urheberrechte wie YT haben soll.

    Für die kostenlose Version erhielt ich anfänglich 166 Credits, von denen 20 für das Beispiel verbraucht wurden. Andere Beispiele, wie bei dem weißen Drachen, da wurde etwas von 35 Credits angezeigt.



    Ob die täglich in der kostenlosen Version aktualisiert werden, weiß ich noch nicht. Jedenfalls die Beispiel-Motive werde ich nicht einfach bei YT veröffentlichen können. Dieses Hallo von der Spielerin im ersten Beispiel rotierte reichlich schnell, sah gut aus, aber ob zu schnell für Musik, müsste man später sehen. "Lip Sync" steht als Option an der linken Seite und unterm Video, sollte also möglich sein. Gegenüber CapCut würde mir die Bild in Bild Funktion und andere Optionen fehlen.


    Kling AI


    Gut, für meine Ansprüche sollte es erst einmal genügen.


    Ein erster Test, bei dem ich zu viel Credits verschenkt habe. Weil sich anfänglich nichts rührte, habe ich das Bild dreimal geladen. Wusste halt nicht, wie langweilig die Übertragung und Animierung eines einzelnen Bilde noch läuft.


    Jedenfalls ein Bild von meinen vorhandenen geladen, dazu diesen Prompt auf Englisch:

    Zitat

    Eine junge Frau sitzt auf einer Wiese, der Hintergrund bewegt sich. Der Wind weht durch die Haare. Die Kamera zoomt heraus.

    Ist jetzt ohne Ton, weil ich damit noch nicht klar kam, oder meine Geduld noch ausgebaut werden müsste. Macht ansonsten, was ich schrieb. Das Gras bewegt sich, Augenbwegungungen sind zusätzlich mit bei. Nur so ein ganzes Video fertigen?


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Bekam es nicht mit meinen DAWs synchronisiert, hab es aber nur selten probiert.


    Nun ein erster Test mit Kling IA, blickte dabei noch nicht durch, nur dass die Preislage für "Standard" eher meinen Vorstellungen entspricht.



    Wie gesagt, war nur ein schneller Test. Dachte nur daran, im Menü Video auswählen und einen Prompt eingeben. Ging nicht, zuerst muss ein Bild ausgewählt, generiert oder hochgeladen werden. Der Prompt enthält dann die Beschreibung, was im Bild passieren soll. Beispiel zu einem Bild:

    Zitat

    Ein Halo dreht sich und Lichtpartikel zerstreuen sich, während der Wind Sand, Haare und Kleidung verweht. Eine Frau spielt ein Saiteninstrument. Die Kamera zoomt heraus

    Nun habe ich zwar ein 5 Sekunden Video von 960 px im Quadrat, doch die Größen lassen sich bei Standard anpassen und die Zeit auf 10 Sekunden erweitern, denke ich. Genügt mir. Damit wäre der Preis für mich akzeptabel.



    Ob ich da jetzt an diesem Video bereits irgendwelche Rechte zum Veröffentlichen habe, keine Ahnung, sonst hätte ich es als Beispiel nach YT hochgeladen.

    Sehe ich anders. Heute steht nur überall AI bei, doch die Entwicklung geht bereits reichlich lange.


    Habe z.B. noch Ludwig 3.0 auf dem Desktop, entwickelt von ChessBase, das untere Video ist vom 13.05.2011.
    Ohne Gesang konnte Ludwig mehr als die im Januar getesteten Online-Tools. Also nicht nur eine Audio-Datei ausspucken, sondern Audio, plus MIDI, plus Notenblätter ausgeben. Heute hört es sich etwas altbacken an, hätte ich das Tool 2011 bereits gekannt, hätte ich es ohne viel zu überlegen erworben. Doch mir lief es erst Jahre später über den Weg. Und hätte ChessBase dieses Tool weiterentwickelt, die hätten da heute ebenfalls AI ranschreiben können und das Tool wäre sein Geld wert gewesen. Doch der Schwerpunkt von ChessBase lag und liegt bei Schachcomputern, Ludwig war wohl nur ein Abstecher.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Kostenloser Download


    Es ist auf vielen AI-Gebieten nicht die Entwicklung, die zu galoppieren scheint, es ist eine auf sich aufbauende Entwicklung, welche von höheren Datenraten, Rechenleistungen und Speichervolumen profitiert. Bis sich irgendwas bezahlt macht, darauf warten wollen, könnte zu spät sein. Zu spät, weil Neues und Gutes immer seinen Preis haben wird. So ist nun einmal Photoshop besser als GIMP 3.0 (nach 7 Jahren Entwicklung sah ich nicht viel in einem Tut, was wirklich besser als 2.1 wäre). Bei meiner Rente werde ich aber bei GIMP bleiben. Würde ich aber auf alles warten wollen, würde ich wohl auf allen Gebieten noch mehr hinterherhinken, als ich es ohnehin bereits tue. Wofür sollte das gut sein?

    Bei einer Anmeldung über die App stehen nur diese Möglichkeiten zur Auswahl.


    Bei TikTok bin ich nicht, sehe darin auch keinen Vorteil, jedenfalls habe ich dort bei meinen bisher seltenen Besuchen noch nichts gesehen, wozu TikTok gut sein sollte. Verstehe nicht einmal, warum die Plattform so beliebt ist. Ist halt eine andere Generation.

    Mit Google anmelden kann schnell zu viel werden, wenn die E-Mails das Handy vollmüllen und bei Facebook bin ich froh, dass selten E-Mails eingehen. QR-Code funktioniert nur über Handy, doch dafür brauche ich keine App, jedenfalls nicht diese.



    Nicht über die App, doch über die Webseite war noch eine normale Anmeldung über eine E-Mail-Adresse und Passwort möglich. Wollte nur erst einmal etwas über die Preise erfahren. Mit meinem dortigen Konto komme ich aber nicht in die Desktop App, oder verstehe es nicht, wie das gehen sollte. Doch die Preise, diese sehen erst einmal so aus, als ob ich ich mir keine weiteren Gedanken zu machen brauchte.



    Werde ich mir noch dreimal überlegen.


    Eine andere Video AI aus China macht ebenfalls von sich reden. Die Ergebnisse von Tuts sahen mir bisher zu einfach aus, könnten aber dafür preiswerter sein.


    KLING AI

    Kann die TTS auch Lippensynchrone Voices in anderen Sprachen außer Englisch erzeugen?

    Ob diese TTS weiß ich zwar nicht genau, doch vom "Synthesizer V Studio Pro" hörte ich z.B., dass IPA Zeichen benutzt werden können. Damit liegt es dann zumindest bei diesem nur noch an der richtigen Schreibweise. Ob sich das allgemein durchsetzt, keine Ahnung, doch die bieten die Oberfläche ebenfalls in 40 Sprachen oder mehr an.


    Liste der IPA Zeichen


    Vor einem Jahr hatten sie zwei deutsche Frauenstimmen bei, sah ich gerade. Weniger Stimmen werden es nicht geworden sein.

    Einige Stunden später noch einen Test gemacht.

    Das mit dem Einbinden wurde dabei schon besser, würde wohl etwas werden.


    Was aber zu Pro Version gehört, entzieht sich meinem Verständnis. In einem Tut hörte ich, nur was mit einem kleinen blauen Diamanten gekennzeichnet, würde eine Pro-Version erfordern, wovon ich aber nichts auswählte. Somit, nach meinem Verständnis, nur zwei der Masken, nicht aber die von mir ausgewählte.



    Ansonsten finde ich die Zusammenstellung aber gut, weil typische AI-Funktionen auswählbar sind, wie Text-to-Speech und anderes. Für letzteres gibt es zwar Free-Tools, doch diese können nicht mithalten. Etwas besser und angepasster würde man es sicherlich noch hinbekommen:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Wobei das Beispiel mit dem Lagerfeuer, eigentlich ist es kein Beispiel für AI, sondern mehr ein 3D Layer, womit viele Bereiche abgedeckt werden.

    Somit bliebe eigentlich mehr die Frage, wie viel kostet der Spaß und welche Möglichkeiten stehen insgesamt zur Verfügung. Lohnt es sich?

    In einem anderen Video hörte ich etwas von um die 10 EUR pro Monat, was bei vielen Tools die untere Grenze wäre.

    Zitat

    Das Monatsabo für CapCut Pro kostet 23,99 €. Es gibt auch ein Jahresabo für 67,99 €.

    Es sieht danach aus, doch ob es stimmt, das werde ich mir erst später einmal ansehen. Der Unterschied zwischen monatlich und jährlich erscheint mir mehr als fraglich.

    Dadurch wird die kostenlose CapCut-Ausgabe praktisch nutzlos.

    Kleiner Test, bis zum Export, mit oder ohne Wasserzeichen, soweit bin ich erst gar nicht gekommen.


    Installiert, Einstellungen wie empfohlen mit Proxy, damit die Vorschau mit weniger Auflösung läuft, als der spätere Export.



    Untere Spur ein Testbild, obere Spur ein Mitschnitt von MuseScore von einem Screen-Recorder.

    Ein Versuch den Rand vom Notenblatt und dessen Ecken eine Teiltransparenz zu verleihen wurden in der Vorschau nicht angezeigt.



    Dafür aber beim versuchten Export, dass ich eine Maske von der Pro-Version benutze, somit kein Export möglich.



    Mit dem Einfügen sah ich bisher noch kein besseres Schnittprogramm als Lightworks, welches noch immer Pay Once, also zum Einmalpreis erhältlich ist.

    Die Verbindung mit AI Effekten in den Tutorials von CapCut hätten mich aber gereizt. Alles, was ich davor an Tuts sah, war irgendwie noch mehr Kinderkram.

    In den letzten Tagen ist mir zur Erstellung von Videos CapCut aufgefallen. Erste CapCut-Apps wurden ab 2019 in China veröffentlicht, zuerst nur für iPhone und Android, ab Ende 2023 aber auch Desktop-Versionen für Mac und Windows. Weitere Einzelheiten in der Wikipedia (auch wie das Verbot der App in den USA von Trump ausgehebelt wurde). Letzteres soll mir eigentlich ziemlich gleich sein, wer hier welche Daten weitergibt, irgendwie machen es ohnehin alle Browser und Apps.

    Zitat

    Am 13. Februar haben Google und Apple CapCut im App Store und im Google Play Store restauriert.

    Was mir wichtiger ist, eine App für Videos, die den Bogen zwischen Videoschnitt und AI schlägt, wonach es aussieht. Start- und Endframe scheinen sich für animierte Hintergründe vorgeben zu lassen, zu sprechenden Avataren sah ich mehr als ein Tutorial, besonders gefiel mir aber ein Tut mit einem Lagerfeuer:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Was mir noch etwas fehlt, ein Überblick, was mit der Free-Version möglich ist und wie teuer eine Pro-Version werden würde. Nicht auf dieser zitierten Seite, doch irgendwo las ich etwas von 20 Euro oder Dollar pro Monat. Die Frage bliebe, ob man es braucht:

    Zitat

    Es gibt jedoch eine "Pro"-Version dieses Video-Editors, aber um seine Fähigkeiten zu erkunden, müssen Sie sich registrieren. Pro bietet Ihnen 100 GB Online-Speicher und gewährt Ihnen Zugang zu einer Vielzahl fortschrittlicher Funktionen, wie die Verbesserung der Qualität alter Fotos, Upscaling-Videos, Entfernen von Flimmern, Bildgeräuschen und einer Reihe von Übergängen.

    Ob ich in den nächsten Tagen noch zu einem Test kommen werden, weiß ich noch nicht. War in der letzten Woche durchgehend von Müdigkeit geplagt, und wie ich auf einem Beipackzettel las, könnte es sich um Nebenwirkungen von Medikamenten handeln.

    Habe in den letzten Tagen viele Tutorials gesehen, was so alles neu in der KI-Welt sein soll, doch irgendwie ist das sehr viel Gerede, ohne viel dahinter. Einiges kann ich nicht mehr sehen. Eigentlich ging es mir weniger um Images, dafür mehr um animierte Videos. Videos nach Storyboard erstellen, hört sich erst einmal gut an, nur wenn dann die Beispiele folgten, konnte man bisher jedes Tut wegklicken.


    Die anderen Bilder im Faden waren vom Bing Creator, heute ein Test mit ChatGPT.

    Dynamik von den Tanzenden könnte so bleiben, die Gesichter hingegen nicht, und der Mond müsste ausgetauscht werden.



    Wie gesagt, nur ein Test, bei dem von ChatGPT zuerst eine Weiterleitung nach pyxl.pro erfolgte, doch von da wieder zurück nach ChatGPT.

    Ohne Upgrade anscheinend nicht mehr als einen Test pro Tag.



    Bei Videos habe ich bisher nur ein Tool gesehen, bei dem es scheinbar möglich war, jeweils ein Image als Startframe und ein Image als Endframe vorzugeben, wobei es aber nur erwähnt wurde. Da wird dann von AI gesprochen, obwohl das bei Animationen schon immer der Fall war, dass fließende Bewegungsabläufe und Übergänge gerendert wurden, nur früher mit genügend Zeichnern halt.

    Scheint noch nicht alt zu sein, ein beschreibendes Video war zumindest erst 5 Tage alt.

    Jedenfalls auf der rechten Seite von Fenster unter Model "Gemini 2.0 Flash Experimental" auswählen, unten in der Mitte einen Prompt eingeben.


    Google AI Studio


    Ergebnis ist ähnlich dem Bing Creator, reicht aber noch nicht an diesem heran. Nun ja, scheint erst ein Anfang zu sein. Aber nach dem Video zu urteilen, waren mit einem anderen Model andere Dinge möglich, wie der Austausch von Kleidung in einem hochgeladenen Image.


    Ein anderer ging dann in seinem Video gar nicht auch die Generation von Images ein, sondern stellte alle anderen Funktion vor, wovon mir von der Vielseitigkeit eher schwindlig wurde.


    Für einen kleinen Test habe ich das obige Bild von den Walküren hochgeladen. "Zoom out" wurde verstanden, der um einen Satz "The horses' harnesses shine golden." ergänzte Prompt wurde hingegen danach bei mir nicht mehr berücksichtigt, in den Videos Tutorials hingegen schon.


    Was Schneewittchen und die sieben Zwerge anbelangt.

    es blieb bei Cartoon à la Disney.

    Da sieht man, welchen Einfluss Disney in der Medienwelt hat, aus der sich die KI bedient

    Hatte keine Ahnung, dass der Bing Creator scheinbar bereits Zugriff auf die neue Disney-Verfilmung hatte, und was diese nun bereits vor dem Kinostart an Kritiken und Kontroversen auslöste. Heute und gestern fand ich aktuelle Beiträge, wobei es nicht der einzige bemängelte Punkt ist.

    Zitat

    Schon 2022 kritisierte Peter Dinklage, seit seiner Rolle in "Game of Thrones" der gefragteste kleinwüchsige Schauspieler Hollywoods, die Neuverfilmung.
    [...]
    Statt die Zwerge mit kleinwüchsigen Schauspielern zu besetzen, sind die Figuren am Computer animiert. Nun lautet der Vorwurf, Disney habe einer marginalisierten Gruppe von Schauspielern die Chance auf sieben prominente Rollen in einem internationalen Blockbuster verwehrt.

    tagesschau.de

    Wenn ich mir heute die Ergebnisse vom Bing Creator betrachte und dazu die Trailer von der Neuverfilmung, werden Parallelen deutlicher, würde ich meinen.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Schönes Gemälde! . .

    Insgesamt, was die Bildersuche zu bieten hatte. Habe gestern noch einmal durchgeschaut, Foto, Zeichnungen, Illustrationen aus unterschiedlichen Jahrhunderten, Gemälde. Mir kam es sehr viel mehr als bei meiner ersten Suche vor. Erfreulicherweise, darunter ist mir nicht ein einziges AI generiertes Bild aufgefallen, nicht einmal meins.

    Nur eine kleine Zusammenfassung, wofür die im Faden "Probleme ... im Alter" erwähnten Apps eigentlich gut sind.


    Normalerweise wird an einem Rechner mit einem Screen von entsprechender Größe gearbeitet. Das betrifft eigentlich alles, gleich ob 3D, Bilder, Texte, Gestaltung von eigenen Webprojekten und Webseiten, Videos usw. Doch was, wenn kein größerer Rechner zur Verfügung steht, und viele Projekte auf einen weiteren Ausbau warten?


    Ein Smartphone ist zwar dann nur ein kümmerlicher Ersatz, doch völlig unmöglich ist es nicht.

    Um es zu testen, hatte ich mir einen Editor und einen FTP Client als App installiert, beide werden in diesem Fall benötigt.



    Als Erstes wird ein Profil angelegt, um auf dem eigenen Webspace bei einem Hoster zugreifen zu können. Bei den ersten drei Apps kam ich damit nicht klar, bei der vierten App klappte es dann, nachdem ich mir die Anleitung vom Hoster noch einmal durchlas und daraufhin den Modus wechselte. Unterschiede zwischen den Anbietern gibt, lesen muss man die Anleitungen immer, doch sind diese meistens auf bekannte Desktop-Anwendungen zugeschnitten, nicht auf Puppenstuben-Apps. Gut, es hat geklappt, etwas habe ich noch zusätzlich geschwärzt/ausgegraut, fehlendes geht aus den eigenen Daten beim Hoster hervor, das Prinzip bleibt ersichtlich.


    Dem Profil einen Namen geben.

    Nach dem Speichern des Profils wird es einfach, denn bei jedem erneuten Aufruf braucht man nur noch auf Verbinden klicken.



    Nachdem die Verbindung steht, landet man im obersten Verzeichnis vom Webspace, falls im Profil kein zusätzlicher Pfad angelegt wird. Habe auf einen zusätzlichen Pfad verzichtet, weil ich es gewohnt bin, mich durch die Ebenen und Verzeichnisse zu klicken. Jedenfalls, so sieht es auf dem entfernten Server aus, von dem man zu bearbeitende Datei herunterladen oder bearbeitete Dateien hochladen kann. Auf einem größeren Screen einfacher, weil man dort das lokale und entfernte Fenster nebeneinander sieht, und per Drag and Drop arbeiten kann. Doch es geht halt ebenfalls mit dem Handy.



    Ein weiteres Problem tat sich auf. Au einem auf der SD-Karte angelegten Arbeitsverzeichnis konnte zwar der Editor zugreifen, ich schaffte es aber nicht, den FTP Client ebenfalls auf dieses Verzeichnis zugreifen zu lassen. Also lud ich erst einmal vorhandene Dateien herunter, da stand zwar etwas von "Verzeichnis anlegen", es wurde nur keine Tastatur eingeblendet, um dem neuen Verzeichnis einen Namen zu geben.
    Also habe ich dieses über USB angelegt, danach am Desktop-Rechner alle heruntergeladenen Dateien in dieses Verzeichnis verschoben. Nun können beide Apps darauf zugreifen.



    Im Editor kann man nun zwar kein neues Design entwickeln, dazu ist alles zu klein und man sieht in der Vorschau nicht viel, scheinbar werden nicht einmal Bilder geladen, doch man kann im Quelltext z.B. noch nicht vorhandene Beschreibungen für Rubriken einfügen, oder anderes, und in der Vorschau betrachten, danach hochladen. Und im Quelltext zu arbeiten, das kann wohl ohnehin jeder, der am Desktop mit dem Notepad++ arbeitet, jeder ernsthafte Webdesigner dürfte wohl ebenfalls dazu in der Lage sein.


    Doch heute werden in der Vorschau auch Bilder geladen (gestern noch nicht), nur der Screenshot von der Quelltext-Seite stimmt nicht mit der Seite von der Vorschau überein, weil der linke Screenshot von gestern ist und der rechte von heute, dabei zwei unterschiedliche Seiten geladen hatte.



    Gut, das sollte als kleine Anleitung genügen.


    Mit den anderen Projekten hänge ich nicht weniger hinterher, dafür waren ja z.B. Szenen mit Neandertaler gedacht, ebenso was den Transport von Megalithen anbelangt. Und ob ich das alles noch in einem akzeptablen Zeitraum schaffe, richtig sicher bin ich mir nicht. Nun eins nach dem anderen.

    Habe es noch einmal ausprobiert, die Videos werden etwas kleiner als bei YT im normalen Modus angezeigt, aber halt größer als bei einer Einbettung mit iFrame, wie beim Teilen üblich. Dürfte abhängig von der Screengröße und dem Browser sein? Könnte auch schon länger sein, ist mir nur bisher nicht aufgefallen, weil ich den Vollbildmodus nur selten nutzte, und diesen halb-großen Modus nicht kannte.