Beiträge von Melegrian

    Bekam es nicht mit meinen DAWs synchronisiert, hab es aber nur selten probiert.


    Nun ein erster Test mit Kling IA, blickte dabei noch nicht durch, nur dass die Preislage für "Standard" eher meinen Vorstellungen entspricht.



    Wie gesagt, war nur ein schneller Test. Dachte nur daran, im Menü Video auswählen und einen Prompt eingeben. Ging nicht, zuerst muss ein Bild ausgewählt, generiert oder hochgeladen werden. Der Prompt enthält dann die Beschreibung, was im Bild passieren soll. Beispiel zu einem Bild:

    Zitat

    Ein Halo dreht sich und Lichtpartikel zerstreuen sich, während der Wind Sand, Haare und Kleidung verweht. Eine Frau spielt ein Saiteninstrument. Die Kamera zoomt heraus

    Nun habe ich zwar ein 5 Sekunden Video von 960 px im Quadrat, doch die Größen lassen sich bei Standard anpassen und die Zeit auf 10 Sekunden erweitern, denke ich. Genügt mir. Damit wäre der Preis für mich akzeptabel.



    Ob ich da jetzt an diesem Video bereits irgendwelche Rechte zum Veröffentlichen habe, keine Ahnung, sonst hätte ich es als Beispiel nach YT hochgeladen.

    Sehe ich anders. Heute steht nur überall AI bei, doch die Entwicklung geht bereits reichlich lange.


    Habe z.B. noch Ludwig 3.0 auf dem Desktop, entwickelt von ChessBase, das untere Video ist vom 13.05.2011.
    Ohne Gesang konnte Ludwig mehr als die im Januar getesteten Online-Tools. Also nicht nur eine Audio-Datei ausspucken, sondern Audio, plus MIDI, plus Notenblätter ausgeben. Heute hört es sich etwas altbacken an, hätte ich das Tool 2011 bereits gekannt, hätte ich es ohne viel zu überlegen erworben. Doch mir lief es erst Jahre später über den Weg. Und hätte ChessBase dieses Tool weiterentwickelt, die hätten da heute ebenfalls AI ranschreiben können und das Tool wäre sein Geld wert gewesen. Doch der Schwerpunkt von ChessBase lag und liegt bei Schachcomputern, Ludwig war wohl nur ein Abstecher.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Kostenloser Download


    Es ist auf vielen AI-Gebieten nicht die Entwicklung, die zu galoppieren scheint, es ist eine auf sich aufbauende Entwicklung, welche von höheren Datenraten, Rechenleistungen und Speichervolumen profitiert. Bis sich irgendwas bezahlt macht, darauf warten wollen, könnte zu spät sein. Zu spät, weil Neues und Gutes immer seinen Preis haben wird. So ist nun einmal Photoshop besser als GIMP 3.0 (nach 7 Jahren Entwicklung sah ich nicht viel in einem Tut, was wirklich besser als 2.1 wäre). Bei meiner Rente werde ich aber bei GIMP bleiben. Würde ich aber auf alles warten wollen, würde ich wohl auf allen Gebieten noch mehr hinterherhinken, als ich es ohnehin bereits tue. Wofür sollte das gut sein?

    Bei einer Anmeldung über die App stehen nur diese Möglichkeiten zur Auswahl.


    Bei TikTok bin ich nicht, sehe darin auch keinen Vorteil, jedenfalls habe ich dort bei meinen bisher seltenen Besuchen noch nichts gesehen, wozu TikTok gut sein sollte. Verstehe nicht einmal, warum die Plattform so beliebt ist. Ist halt eine andere Generation.

    Mit Google anmelden kann schnell zu viel werden, wenn die E-Mails das Handy vollmüllen und bei Facebook bin ich froh, dass selten E-Mails eingehen. QR-Code funktioniert nur über Handy, doch dafür brauche ich keine App, jedenfalls nicht diese.



    Nicht über die App, doch über die Webseite war noch eine normale Anmeldung über eine E-Mail-Adresse und Passwort möglich. Wollte nur erst einmal etwas über die Preise erfahren. Mit meinem dortigen Konto komme ich aber nicht in die Desktop App, oder verstehe es nicht, wie das gehen sollte. Doch die Preise, diese sehen erst einmal so aus, als ob ich ich mir keine weiteren Gedanken zu machen brauchte.



    Werde ich mir noch dreimal überlegen.


    Eine andere Video AI aus China macht ebenfalls von sich reden. Die Ergebnisse von Tuts sahen mir bisher zu einfach aus, könnten aber dafür preiswerter sein.


    KLING AI

    Kann die TTS auch Lippensynchrone Voices in anderen Sprachen außer Englisch erzeugen?

    Ob diese TTS weiß ich zwar nicht genau, doch vom "Synthesizer V Studio Pro" hörte ich z.B., dass IPA Zeichen benutzt werden können. Damit liegt es dann zumindest bei diesem nur noch an der richtigen Schreibweise. Ob sich das allgemein durchsetzt, keine Ahnung, doch die bieten die Oberfläche ebenfalls in 40 Sprachen oder mehr an.


    Liste der IPA Zeichen


    Vor einem Jahr hatten sie zwei deutsche Frauenstimmen bei, sah ich gerade. Weniger Stimmen werden es nicht geworden sein.

    Einige Stunden später noch einen Test gemacht.

    Das mit dem Einbinden wurde dabei schon besser, würde wohl etwas werden.


    Was aber zu Pro Version gehört, entzieht sich meinem Verständnis. In einem Tut hörte ich, nur was mit einem kleinen blauen Diamanten gekennzeichnet, würde eine Pro-Version erfordern, wovon ich aber nichts auswählte. Somit, nach meinem Verständnis, nur zwei der Masken, nicht aber die von mir ausgewählte.



    Ansonsten finde ich die Zusammenstellung aber gut, weil typische AI-Funktionen auswählbar sind, wie Text-to-Speech und anderes. Für letzteres gibt es zwar Free-Tools, doch diese können nicht mithalten. Etwas besser und angepasster würde man es sicherlich noch hinbekommen:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Wobei das Beispiel mit dem Lagerfeuer, eigentlich ist es kein Beispiel für AI, sondern mehr ein 3D Layer, womit viele Bereiche abgedeckt werden.

    Somit bliebe eigentlich mehr die Frage, wie viel kostet der Spaß und welche Möglichkeiten stehen insgesamt zur Verfügung. Lohnt es sich?

    In einem anderen Video hörte ich etwas von um die 10 EUR pro Monat, was bei vielen Tools die untere Grenze wäre.

    Zitat

    Das Monatsabo für CapCut Pro kostet 23,99 €. Es gibt auch ein Jahresabo für 67,99 €.

    Es sieht danach aus, doch ob es stimmt, das werde ich mir erst später einmal ansehen. Der Unterschied zwischen monatlich und jährlich erscheint mir mehr als fraglich.

    Dadurch wird die kostenlose CapCut-Ausgabe praktisch nutzlos.

    Kleiner Test, bis zum Export, mit oder ohne Wasserzeichen, soweit bin ich erst gar nicht gekommen.


    Installiert, Einstellungen wie empfohlen mit Proxy, damit die Vorschau mit weniger Auflösung läuft, als der spätere Export.



    Untere Spur ein Testbild, obere Spur ein Mitschnitt von MuseScore von einem Screen-Recorder.

    Ein Versuch den Rand vom Notenblatt und dessen Ecken eine Teiltransparenz zu verleihen wurden in der Vorschau nicht angezeigt.



    Dafür aber beim versuchten Export, dass ich eine Maske von der Pro-Version benutze, somit kein Export möglich.



    Mit dem Einfügen sah ich bisher noch kein besseres Schnittprogramm als Lightworks, welches noch immer Pay Once, also zum Einmalpreis erhältlich ist.

    Die Verbindung mit AI Effekten in den Tutorials von CapCut hätten mich aber gereizt. Alles, was ich davor an Tuts sah, war irgendwie noch mehr Kinderkram.

    In den letzten Tagen ist mir zur Erstellung von Videos CapCut aufgefallen. Erste CapCut-Apps wurden ab 2019 in China veröffentlicht, zuerst nur für iPhone und Android, ab Ende 2023 aber auch Desktop-Versionen für Mac und Windows. Weitere Einzelheiten in der Wikipedia (auch wie das Verbot der App in den USA von Trump ausgehebelt wurde). Letzteres soll mir eigentlich ziemlich gleich sein, wer hier welche Daten weitergibt, irgendwie machen es ohnehin alle Browser und Apps.

    Zitat

    Am 13. Februar haben Google und Apple CapCut im App Store und im Google Play Store restauriert.

    Was mir wichtiger ist, eine App für Videos, die den Bogen zwischen Videoschnitt und AI schlägt, wonach es aussieht. Start- und Endframe scheinen sich für animierte Hintergründe vorgeben zu lassen, zu sprechenden Avataren sah ich mehr als ein Tutorial, besonders gefiel mir aber ein Tut mit einem Lagerfeuer:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Was mir noch etwas fehlt, ein Überblick, was mit der Free-Version möglich ist und wie teuer eine Pro-Version werden würde. Nicht auf dieser zitierten Seite, doch irgendwo las ich etwas von 20 Euro oder Dollar pro Monat. Die Frage bliebe, ob man es braucht:

    Zitat

    Es gibt jedoch eine "Pro"-Version dieses Video-Editors, aber um seine Fähigkeiten zu erkunden, müssen Sie sich registrieren. Pro bietet Ihnen 100 GB Online-Speicher und gewährt Ihnen Zugang zu einer Vielzahl fortschrittlicher Funktionen, wie die Verbesserung der Qualität alter Fotos, Upscaling-Videos, Entfernen von Flimmern, Bildgeräuschen und einer Reihe von Übergängen.

    Ob ich in den nächsten Tagen noch zu einem Test kommen werden, weiß ich noch nicht. War in der letzten Woche durchgehend von Müdigkeit geplagt, und wie ich auf einem Beipackzettel las, könnte es sich um Nebenwirkungen von Medikamenten handeln.

    Habe in den letzten Tagen viele Tutorials gesehen, was so alles neu in der KI-Welt sein soll, doch irgendwie ist das sehr viel Gerede, ohne viel dahinter. Einiges kann ich nicht mehr sehen. Eigentlich ging es mir weniger um Images, dafür mehr um animierte Videos. Videos nach Storyboard erstellen, hört sich erst einmal gut an, nur wenn dann die Beispiele folgten, konnte man bisher jedes Tut wegklicken.


    Die anderen Bilder im Faden waren vom Bing Creator, heute ein Test mit ChatGPT.

    Dynamik von den Tanzenden könnte so bleiben, die Gesichter hingegen nicht, und der Mond müsste ausgetauscht werden.



    Wie gesagt, nur ein Test, bei dem von ChatGPT zuerst eine Weiterleitung nach pyxl.pro erfolgte, doch von da wieder zurück nach ChatGPT.

    Ohne Upgrade anscheinend nicht mehr als einen Test pro Tag.



    Bei Videos habe ich bisher nur ein Tool gesehen, bei dem es scheinbar möglich war, jeweils ein Image als Startframe und ein Image als Endframe vorzugeben, wobei es aber nur erwähnt wurde. Da wird dann von AI gesprochen, obwohl das bei Animationen schon immer der Fall war, dass fließende Bewegungsabläufe und Übergänge gerendert wurden, nur früher mit genügend Zeichnern halt.

    Scheint noch nicht alt zu sein, ein beschreibendes Video war zumindest erst 5 Tage alt.

    Jedenfalls auf der rechten Seite von Fenster unter Model "Gemini 2.0 Flash Experimental" auswählen, unten in der Mitte einen Prompt eingeben.


    Google AI Studio


    Ergebnis ist ähnlich dem Bing Creator, reicht aber noch nicht an diesem heran. Nun ja, scheint erst ein Anfang zu sein. Aber nach dem Video zu urteilen, waren mit einem anderen Model andere Dinge möglich, wie der Austausch von Kleidung in einem hochgeladenen Image.


    Ein anderer ging dann in seinem Video gar nicht auch die Generation von Images ein, sondern stellte alle anderen Funktion vor, wovon mir von der Vielseitigkeit eher schwindlig wurde.


    Für einen kleinen Test habe ich das obige Bild von den Walküren hochgeladen. "Zoom out" wurde verstanden, der um einen Satz "The horses' harnesses shine golden." ergänzte Prompt wurde hingegen danach bei mir nicht mehr berücksichtigt, in den Videos Tutorials hingegen schon.


    Was Schneewittchen und die sieben Zwerge anbelangt.

    es blieb bei Cartoon à la Disney.

    Da sieht man, welchen Einfluss Disney in der Medienwelt hat, aus der sich die KI bedient

    Hatte keine Ahnung, dass der Bing Creator scheinbar bereits Zugriff auf die neue Disney-Verfilmung hatte, und was diese nun bereits vor dem Kinostart an Kritiken und Kontroversen auslöste. Heute und gestern fand ich aktuelle Beiträge, wobei es nicht der einzige bemängelte Punkt ist.

    Zitat

    Schon 2022 kritisierte Peter Dinklage, seit seiner Rolle in "Game of Thrones" der gefragteste kleinwüchsige Schauspieler Hollywoods, die Neuverfilmung.
    [...]
    Statt die Zwerge mit kleinwüchsigen Schauspielern zu besetzen, sind die Figuren am Computer animiert. Nun lautet der Vorwurf, Disney habe einer marginalisierten Gruppe von Schauspielern die Chance auf sieben prominente Rollen in einem internationalen Blockbuster verwehrt.

    tagesschau.de

    Wenn ich mir heute die Ergebnisse vom Bing Creator betrachte und dazu die Trailer von der Neuverfilmung, werden Parallelen deutlicher, würde ich meinen.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Schönes Gemälde! . .

    Insgesamt, was die Bildersuche zu bieten hatte. Habe gestern noch einmal durchgeschaut, Foto, Zeichnungen, Illustrationen aus unterschiedlichen Jahrhunderten, Gemälde. Mir kam es sehr viel mehr als bei meiner ersten Suche vor. Erfreulicherweise, darunter ist mir nicht ein einziges AI generiertes Bild aufgefallen, nicht einmal meins.

    Nur eine kleine Zusammenfassung, wofür die im Faden "Probleme ... im Alter" erwähnten Apps eigentlich gut sind.


    Normalerweise wird an einem Rechner mit einem Screen von entsprechender Größe gearbeitet. Das betrifft eigentlich alles, gleich ob 3D, Bilder, Texte, Gestaltung von eigenen Webprojekten und Webseiten, Videos usw. Doch was, wenn kein größerer Rechner zur Verfügung steht, und viele Projekte auf einen weiteren Ausbau warten?


    Ein Smartphone ist zwar dann nur ein kümmerlicher Ersatz, doch völlig unmöglich ist es nicht.

    Um es zu testen, hatte ich mir einen Editor und einen FTP Client als App installiert, beide werden in diesem Fall benötigt.



    Als Erstes wird ein Profil angelegt, um auf dem eigenen Webspace bei einem Hoster zugreifen zu können. Bei den ersten drei Apps kam ich damit nicht klar, bei der vierten App klappte es dann, nachdem ich mir die Anleitung vom Hoster noch einmal durchlas und daraufhin den Modus wechselte. Unterschiede zwischen den Anbietern gibt, lesen muss man die Anleitungen immer, doch sind diese meistens auf bekannte Desktop-Anwendungen zugeschnitten, nicht auf Puppenstuben-Apps. Gut, es hat geklappt, etwas habe ich noch zusätzlich geschwärzt/ausgegraut, fehlendes geht aus den eigenen Daten beim Hoster hervor, das Prinzip bleibt ersichtlich.


    Dem Profil einen Namen geben.

    Nach dem Speichern des Profils wird es einfach, denn bei jedem erneuten Aufruf braucht man nur noch auf Verbinden klicken.



    Nachdem die Verbindung steht, landet man im obersten Verzeichnis vom Webspace, falls im Profil kein zusätzlicher Pfad angelegt wird. Habe auf einen zusätzlichen Pfad verzichtet, weil ich es gewohnt bin, mich durch die Ebenen und Verzeichnisse zu klicken. Jedenfalls, so sieht es auf dem entfernten Server aus, von dem man zu bearbeitende Datei herunterladen oder bearbeitete Dateien hochladen kann. Auf einem größeren Screen einfacher, weil man dort das lokale und entfernte Fenster nebeneinander sieht, und per Drag and Drop arbeiten kann. Doch es geht halt ebenfalls mit dem Handy.



    Ein weiteres Problem tat sich auf. Au einem auf der SD-Karte angelegten Arbeitsverzeichnis konnte zwar der Editor zugreifen, ich schaffte es aber nicht, den FTP Client ebenfalls auf dieses Verzeichnis zugreifen zu lassen. Also lud ich erst einmal vorhandene Dateien herunter, da stand zwar etwas von "Verzeichnis anlegen", es wurde nur keine Tastatur eingeblendet, um dem neuen Verzeichnis einen Namen zu geben.
    Also habe ich dieses über USB angelegt, danach am Desktop-Rechner alle heruntergeladenen Dateien in dieses Verzeichnis verschoben. Nun können beide Apps darauf zugreifen.



    Im Editor kann man nun zwar kein neues Design entwickeln, dazu ist alles zu klein und man sieht in der Vorschau nicht viel, scheinbar werden nicht einmal Bilder geladen, doch man kann im Quelltext z.B. noch nicht vorhandene Beschreibungen für Rubriken einfügen, oder anderes, und in der Vorschau betrachten, danach hochladen. Und im Quelltext zu arbeiten, das kann wohl ohnehin jeder, der am Desktop mit dem Notepad++ arbeitet, jeder ernsthafte Webdesigner dürfte wohl ebenfalls dazu in der Lage sein.


    Doch heute werden in der Vorschau auch Bilder geladen (gestern noch nicht), nur der Screenshot von der Quelltext-Seite stimmt nicht mit der Seite von der Vorschau überein, weil der linke Screenshot von gestern ist und der rechte von heute, dabei zwei unterschiedliche Seiten geladen hatte.



    Gut, das sollte als kleine Anleitung genügen.


    Mit den anderen Projekten hänge ich nicht weniger hinterher, dafür waren ja z.B. Szenen mit Neandertaler gedacht, ebenso was den Transport von Megalithen anbelangt. Und ob ich das alles noch in einem akzeptablen Zeitraum schaffe, richtig sicher bin ich mir nicht. Nun eins nach dem anderen.

    Habe es noch einmal ausprobiert, die Videos werden etwas kleiner als bei YT im normalen Modus angezeigt, aber halt größer als bei einer Einbettung mit iFrame, wie beim Teilen üblich. Dürfte abhängig von der Screengröße und dem Browser sein? Könnte auch schon länger sein, ist mir nur bisher nicht aufgefallen, weil ich den Vollbildmodus nur selten nutzte, und diesen halb-großen Modus nicht kannte.

    ob Du die eingebetteten Clips auf der WEBsite sehen möchtest oder in neuem Reiter auf YT wechselst.

    Eben das meinte ich genau nicht!

    Das wäre für mich nichts Neues.


    Beispiel von einem eingebetteten Video von der letzten Seite in diesem Faden.


    Normale Ansicht:



    Nun ein Klick auf eines der beiden Symbole, und das Video öffnet freischwebend, ähnlich einem Bild im Vollbildmodus, nur nicht ganz so groß:



    Dass es sich um einen Modus ähnlich wie der Vollbildmodus handelt, nur weniger groß, wird ersichtlich, wenn der Browser minimiert wird:



    Dieses Verhalten kannte ich bisher nur durch spezielle JavaScript-Lösungen bei der Einbettung von Videos, und nicht, dass Browser unabhängig von den Einbettungen in Webseiten, und unabhängig von YouTube diesen Modus anbieten.


    Vielleicht habe ich da nur noch nie darauf geachtet, doch es war mir vollkommen neu, dass man einfach hier im Faden oder in einer beliebigen sonstigen Webseite, freischwebend ohne neuen Tab oder Wechsel zu YT öffnen kann.


    Also kein neuer Tab, kein Wechsel zu YT, dennoch dieser Modus bei Klick auf eines der beiden Symbole.

    Bisher wechselte ich oft von einem in einer Webseite eingebundenen Videos nach YouTube, wenn ich es in größer sehen wollte.

    Erst gestern bekam ich mit, dass sich eingebundene Videos auch über eines der beiden Symbole in größer anzeigen lässt. Die Symbole erscheinen aber erst nach dem Start eines Videos und bei mir nur im Firefox, nicht im Edge. Da diese im Firefox angezeigt werden, gehe ich davon aus, dass diese Symbole auch im Chrome angezeigt werden, ohne es genau zu wissen, da ich diesen nicht installiert habe.


    Wie lange gibt es diese Symbole bereits zur Vergrößerung von eingebetteten Videos?
    Habe ich da nur etwas verschlafen?



    MovieSzenen und Tutorials


    Jedenfalls ist es mir erst gestern aufgefallen, vielleicht lebe ich auch ab und an hinter dem Mond.

    Scheint ebenfalls bei allen älteren auf den vorausgehenden Seiten des Fadens eingebundenen Videos zu funktionieren, nur bisher wusste ich nichts davon. Bei mir aber nur im FF und nicht im Edge.

    Als ich nach Vorlagen suchte, waren nicht viele geeignete Images zu finden.


    Nun ist die Google-Bilderseite voll damit.

    Beispiel:


    Bänkelsänger auf der Piazetta in Venedig - Johann Heinrich Ramberg als Kunstdruck oder Gemälde.


    Sogar mit Fotos, wie diese:
    Bänkelsänger Ernst Becker 1959 auf dem Freimarkt in Bremen.


    www.alltagskultur.lwl.org/de/blog/baenkelgesang-und-moritaten/


    Da hat wohl Google erst einen Anstoß gebraucht?

    Ist mir bei YT auch schon aufgefallen, dass die Suche am ersten Tag weniger liefert, als nach drei bis vier Tagen, wo dann Vorschläge und Empfehlungen von allein geliefert werden.

    Im quadratischen Ausgangsbild vom Bing Creator ist dafür ein Harfenpiano zu bewundern. Ja, diese gab es einmal.



    Die Bilderweiterung erfolgte dann mit Leonardo, die Leinwand wurde, wie bereits erwähnt, mit DS eingefügt. Dann viele weitere Bilder mit dem Bing Creator und Leonardo gefertigt, um möglichst noch ergänzende Charaktere einfügen zu können. Also ausschneiden, skalieren, freistellen, über Farbtemperatur angleichen. Zum Schluss den Charakteren noch etwas Schatten spendieren, weil diese nach dem Freistellen verschwunden waren.


    Verwendete(s) Programm(e): Bing Creator, Leonardo AI, GIMP, DAZ 3D


    Bänkelsänger, eigentlich waren diese mehr Balladensänger, wurden volkstümlich so bezeichnet, weil sie sich oft auf eine kleine Bank stellten, um von ihrem Publikum besser gesehen zu werden. Wenn keine Bank oder sonstige Gelegenheit vorhanden war, tat es auch eine Holzkiste.

    Die von Bänkelsängern vorgetragenen Balladen wurden ebenfalls als Bänkellieder bezeichnet oder, falls die Liedtexte dramatische Inhalte besaßen, als Moritaten.

    Um das Publikum noch mehr zu beeindrucken, führten sie Bildwände mit sich, auf denen das Geschehen versinnbildlicht war. In Überstimmung mit den Strophen verwiesen sie dabei mit einem Stock auf die jeweilige illustrierte Szene.


    Nur war leider keine AI dazu bereit, dies in einem Bilde wiederzugeben, und so musste gestückelt werden. Licke hat es ebenfalls probiert, ein richtiger Erfolg wollte sich nicht einstellen. Dafür hat er verschiedene Vorschläge für die Leinwand geliefert, wofür ich dann nur noch meine vorhandene Wandrolle anpassen braucht.

    Schade, ich hoffte du wirst ein richtiger Musikproduzent....



    Liedtexte, weißt Du, warum The Star of the County Down noch immer gesungen und gespielt wird?

    Das liegt nicht nur an der Melodie, auch an dem Reimschema.

    Zitat

    Das Reimschema des Liedes ist bemerkenswert, da sich nicht nur die Zeilen paarweise reimen (halber Kreuzreim), sondern jeweils in den Zeilen 1, 3, 5 und 7 noch Inreime liegen.

    Quelle

    Zitat

    Innenreim oder Inreim: Reimwörter am Versende und im Versinneren desselben Verses:

    Quelle

    Die 1, 3, 5 und 7:


    Near Banbridge town in the County Down

    From a boreen green came a sweet Colleen

    She looked so sweet from her two bare feet

    Such a coaxing elf, sure I shook myself


    Und nicht vergessen, betonte Silben gehören traditionell auf betonte Noten. Beim 4/4 Takt wären das die erste und dritte Note im Takt. In der erstenZeile habe ich zusätzlich alle betonten Noten und Silben im Takt farblich abgesetzt, in den weiteren Zeilen nur die oben markierten. Dabei gleich festegestellt, dass ich in meiner ersten an einer Stelle noch einen kleinen Fehler gemacht hatte. Nun ja, die wollte ich ohnehin noch einmal neu vertonen.



    Und was hat ChatGPT gemacht?

    Sehr viel weniger, weil ja eine Ballade, außer im Chorus:


    Altmark, du bist uns vertraut,

    Wo der Wind durch die Felder blaut,


    Wind blaut, den Ausdruck kannte ich nicht, Google fand aber zwei Ergebnisse unter poeten.de

    Zitat

    "blaut Wind durchs offene Fenster"

    Quelle

    Da meinte wohl Chat, wenn das unter Poeten so erwähnt wird, könnte man es verwenden.

    Schreibe doch erst einmal einen schönen Liedtext, der Rest geht so einfach wie beschrieben.


    Bei ChatGPT wird es enormer Rechenpower sein, vielleicht den Duden, und diesen dann noch einmal als Umkehrung, um alle Wortendungen zu finden. Dabei dann noch festzustellen, welchen Zusammenhang es mit anderen Wort geben könnte.

    Dann den kompletten Liedtext in Sekunden auszuspucken.

    also das ist schon richtig gut geworden....

    Na gut, den verlinke ich jetzt aber nicht mehr einzeln, ist der mit einem grünlichen Vorschaubild in meiner Playlist.

    Soll erst einmal gut sein mit Musik AI's in diesem Faden, es sollten ja nur kleine Tests sein, wie weit diese bereits sind. Das ist bei Suno die AI Version 3.5, die 4.0 soll aber schon im Pro Plan zur Verfügung stehen, und mit jeder Version werden die etwas besser. Beim Verlinken sehe ich auch keine rechtlichen Probleme. ChatGPT hat mir mit ziemlicher Sicherheit keinen Liedtext generiert, den es so bereits gibt. Wenn, dann hätte ich schon einmal etwas davon gehört. Und die Musik ist ja ohnehin von Udio und Suno, also auf deren Plattformen liegt das Zeug gut. Dann kann sich höchsten darüber beschweren, was die generieren.


    Wer Suno selbst testen möchte, Custom wählen, Liedtext hochladen, [Strophe 1] [Chorus 1] usw. in eckige Klammern jeweils über die Strophen einfügen. Unter Style nicht die vorhanden Style anklicken, sondern eigene, wenn man eigene möchte. Also wie beim zuletzt benutzten von mir, Ballad, Piano, female, dann fing zumindest bisher eine Frau an mit dem Singen. Und mehr ist das erst einmal nicht, was man noch wissen müsste, um täglich Songs zu produzieren. Bei mir stehen bisher immer 50 Kredits, nur heute war ich auf 40 oder 30 runter, nun steht aber schon wieder 50 da. Herunterladen werde ich nur noch bei eigenem Bedarf. Doch zum Teilen bei Facebook, einfach von Suno oder Udio einfach über Share, das werde ich mir noch überlegen, bevor ich erneut sieben Jahre da nichts poste, weil es ich es für aufwendig hielt. Lickes Katze sehe ich jetzt auch gerade unter den Freunden.

    Bin gespannt, ob du noch etwas in der Richtung unternimmst....

    Nun ja, erst einmal habe ich heute beim Text am Ende die Bridge und Chorus weggelassen, damit es nicht wieder zu lang wird, um noch eine Piano-Version zu erstellen. Von vier Vorschlägen gefiel mir nur einer. Hört sich ebenfalls nicht schlecht an, nur nach der letzten Strophe, noch vor dem Chorus wollte wohl die AI noch so etwas Ähnliches wie Meeresrauschen hinzufügen, oder so ähnlich. Jedenfalls ein wenig störend, würde ich meinen. Habe es dennoch mit Facebook geteilt, nur ladet es diesmal richtig, mit Bildchen und vollen Titel, also wie die anderen verlinkten. Denke, es lag bei Udio einfach daran, dass ich es schon als Video gespeichert hatte.


    Also, die ersten 20 Sekunden sind als Demo bei Klang.io frei. Danach kann man sich dann aussuchen, wie es weitergeht. Da es sich bei mir mehr um Tests handelt, wähle Einmalzahlung in Höhe 3,99 Euro. Gefunden wurden Voice und 5 Instrumente, die man sich als Partitur ausgeben lassen kann. Oder man wählt vor, dass man z.B. nur Voice, also nur den Gesang haben möchte, entsprechend kürzer wird es, so wurden es 37 Seiten als PDF und ob daran etwas stimmt, ist eine andere Frage.



    Also PDF und MIDI heruntergeladen, Piano scheint zu stimmen, ob passend, keine Ahnung, wird man später sehen. Die MIDI klingt in MuseScore zumindest schon einmal nicht ganz so verstörend, wie der erste Song den ich probierte, aber das war A La Mancha Manchega, wobei der Gesang durch Kastagnetten gestört wird.

    Und jetzt sehe ich gerade, von Udio kann ich diese direkt nach Facebook teilen. Die sind zwar kurz, doch das zweite hört sich ja auch nicht so schlecht an. So werde ich es machen, zum Anhören müssen die ja dann auch den Link zu Udio aufrufen.


    Das hat gut geklappt, nur da fügt Udio entweder kein Bild hinzu, oder Facebook kappt den Rest.



    Vor den letzten beiden Posts hatte ich 2017 letztmalig etwas bei Facebook gepostet, weil ich wenig Sinn darin sah. Doch teilen geht ja schnell.

    So, nun habe ich die beiden Videos von Udio und das eine von Suno zuerst gegen Links von Udio und Suno ausgetauscht, dann alle drei Videos auf YT gelöscht. Das von Suno bleibt damit unvollendet, zum reinhören genügt es aber.


    Da hatte selbst Helene Fischer einmal einen Rechtsstreit, weil die ersten beiden Takte sich anhörten, wie aus einem anderen Song. Die einigten sich dann zwar einvernehmlich, doch sowas braucht ja nicht zu sein.

    Als El Condor Pasa von Simon & Garfunkel veröffentlicht wurde, hielten die beiden es für einen gemeinfreien Folksong hielten, weil alle meinten, dass es so wäre. Bis sich der Sohn des Komponisten Daniel Aloma Robles meldete, der es 1913 geschrieben hatte.

    Zitat

    Es war ein fast freundliches Gerichtsverfahren, weil Paul Simon anderen Kulturen sehr respektvoll gegenüber war.


    Quelle

    Vorkommen kann zwar alles, doch ich weiß schon, warum ich bisher bei alten Folksongs blieb, dann nach möglichst alten Notenbüchern bei archive.org suche, die entweder so alt sind, dass die Urheber vor mehr als 70 Jahren verstorben sind, oder wo sich die Musikwissenschaftler streiten, wann und wie die entstanden sein könnten. Zum Beispiel wie bei The House of the Rising Sun, bei dem die Herkunft völlig unbekannt ist, nur halt älter als 100 Jahre. Man darf nur nicht den Text und das Arrangement von den Animals verwenden, da halten die Rechte drauf. Mit älteren Texten und Noten hingegen gibt es keine Probleme.