Beiträge von Melegrian

    Aber, meine erwähnten Bedenken sind wohl nicht so ganz aus der Luft gegriffen. Heute habe ich etwas mehr gesucht, werde noch etwas mehr suchen. Aber eigentlich reicht mir das bereits.

    Zitat

    Ich habe gerade eine Rechtsverletzung für einen Song festgestellt, den ich auf suno erstellt habe (dieser Song) und ihn über tunecore vertrieben habe.

    [...]

    Wir bedauern, Ihnen mitteilen zu müssen, dass Spotify uns mitgeteilt hat, dass sie eine Mitteilung von einem Dritten – Kamila Bawol – (der „Anspruchstellerin“) erhalten haben

    Quelle

    Die wollen zwar nur 300 Dollar, aber das sind ja nur die Betreiber einer Plattform, über die es hochgeladen wurde. Zusätzlich könnte noch direkt gegen den Uploader eine zivilrechtliche Klage folgen.


    Mehr habe ich bisher nicht gefunden, doch nicht alle werden damit an die Öffentlichkeit gehen, stattdessen stillschweigend zahlen. Auch könnten es mit den Jahren mehr werden, ewig lange gibt es ja Suno wohl noch nicht.


    Umgekehrt gibt es mehr zu lesen, wie bei Heise.de, weil sich beide zum Training ohne Nachfrage und Einverständnis an Aufnahmen bedient haben.

    Zitat

    Eine Gruppe Plattenlabel bringt Suno und Udio, zwei Anbieter von KI-Musikgeneratoren, vor US-Gerichte. Der Vorwurf lautet jeweils auf massenhafte Copyright-Verletzung.

    Heise.de

    Werde die Videos bis heute Abend wieder löschen, nur noch direkt verlinken, denn auf solche unsicheren Spielchen habe ich nicht mehr vor mich einzulassen. Sollten ja auch nur Tests sein, wie gut diese AI's bereits sind. Wenn, so könnte ich höchstens früher oder später Tutorials über die Bedienung machen, dabei dann die Aufnahmen anspielen.


    Das Video von der Altmark wäre dennoch nicht weggeworfen, es brauchte ja nur die Audiospur ausgetauscht werden.
    Wenn ich mir dann noch so einen Bundle Synthesizer V plus Vokoflex holen sollte, bisher spiele ich noch mit diesem Gedanken, könnte ich wohl selbst ähnlich gute Stimmen erzeugen. Könnte dann noch einige Monate dauern, doch dann wäre ich auf der sicheren Seite. Probiere einmal die Noten nur für die Melodie zu erhalten.

    Das Video hat mehr Arbeit gemacht, als ich dachte. Erst die verwendeten Fotos suchen, von einem alten Rechner mit USB-Sticks laden und auf meinen zurzeit benutzten speichern. Noch ältere Bilder von DVDs zuerst auf dem alten Rechner laden, weil dessen DVD-Laufwerk diese problemlos lud, dabei dann gleich gewünschte ebenfalls auf USB-Stück laden.
    Danach dann skalieren und zuschneiden. Erstes Video anfertigen, Ausschuss, weil ich ein Bild vergessen zu skalieren. Dann das Video ohne Ton exportieren und im FL Studio importieren. Wie ging das nun wieder, ein Video ins FL Studio zu importieren und mit der Spur zu synchronisieren, beides hatte ich vergessen, und fand nicht so einfach auf Anhieb eine Antwort. Heute habe ich mir Screenshots als zukünftige Gedankenstütze erstellt. Dann der Export vom FL Studio, das war nichts, allein der große Titel hatte bereits keine klaren Konturen mehr. Auch da gibt es eine Einstellung, die etwas Verbesserung bringt, wenn man es weiß oder schnell darauf eine Antwort findet.

    Dann dachte ich erneut, endlich ist es geschafft, nur der Peak Effect vom FL Studio lief mir die ganze Zeit reichlich schnell, nicht zum Tempo passend. Langsamer musste es, der Peak Effekt richtet sich aber nicht nach der Audio-Aufnahme, sondern nach dem eingestellten Tempo. Das die unter 100 hat, war mir klar, so viel höre ich noch, aber ich wollte es nun genauer wissen. Also die Audio-Datei bei Klang io hochgeladen, das Tool kam auf ein Tempo von 67. Diesmal ging es kostenlos ab, weil ich nicht mehr brauchte, als das geschätzte Tempo.

    Na jedenfalls so viel hin und her gespeichert, importiert und exportiert wie letzte Nacht und heute, habe ich auch schon lange nicht mehr. Der Umweg übers FL Studio wäre ja nicht erforderlich gewesen, doch so ist wenigstens etwas animiert, auch wenn es nur die Peak Effekts sind.


    Die Altmark ruft - Version 03 by @rareinstrumentals7305 | Suno
    Ballad, Country, female song. Listen and make your own with Suno.
    suno.com


    Nebenher habe ich Bedenken, die kommen und gehen. Zum einen, weil ich nur den kostenlosen Basis-Plan genutzt habe. Nach diesem bietet zwar Suno Links zum Teilen an, bei einzelnen Titeln ebenso wie zu der eigenen Playlist, doch damit müssten Besucher zu Suno auf der Plattform kommen. Zum anderen, bei Bildern sieht man, dass diese nie die gleichen sind. Bei Musik gibt es aber nur eine überschaubare Menge an Tönen, Intervallen und Noten. Dass es dabei nie zu einer Überschneidung mit bestehenden Werken kommt, daran aber ich bisher noch gewisse Zweifel.

    Denke, dass ich es annehmbar hinbekommen habe. Heute habe ich noch einen anderen Test gemacht und mir mit Lalal AI die Gesangsstimme und den Instrumentalen Part teilen lassen, was ich mir bei MP3 schwer vorstellen kann. Es ging eigentlich, nur wo sie ruhig singt, klang es nicht mehr melodisch und beim letztem Chorus flaute es einer Stelle ziemlich ab.


    Viele Fots hatte ich noch auf meinen alten Windows 7 Rechner und die DVDs las der auch flüssig, sodass ich mir sehr viele zu meinem noch benutzten Rechner rüberholen konnte. Nun sollte es für ein Video zum Song genügen.

    Wenn die Aufnahme aber nicht Abspielzeit in der Free-Version beschränkt ist, könntest Du einen Windows-Recorder (WIN-Boardmittel) nutzen, der jenes aufnimmt, was die Lautsprecher wiedergeben.

    Warum so umständlich, wenn ich alle Audio Files in meiner Account Library zu liegen habe und herunterladen kann.

    Meine Library hatte ich nicht verlinkt, nur meine Playlist, weil ich dachte, die genügt zum Hineinhören, um die Qualität festzustellen.

    In der kostenlosen Version Basis Version aber nur als MP3, und eine MP3 bleibt nun einmal ein Endformat, in dem sich die Spuren nicht mehr trennen lassen.


    Wenn das Programm was taugt, dann kaufe es Dir gebraucht auf E-Bay oder eine Kaufversion mit ALLEN Rechten.

    Wie willst Du Dir bei eBay eine online Plattform mit AI wie Suno kaufen?


    Zu kaufen gibt es den Syntesizer V, und da möchte auch keiner ein Modell von vorgestern.


    Finger weg von ABO-Knebelverträgen.

    Licke und tausende andere scheinen ganz zu Frieden mit ihren MJ Verträgen zu sein. Selbst hätte ich da auch kein Problem mit, wenn ich regelmäßig mit Leonardo Bilder gestalten würde, hätte ich schon längst ein ABO, nur ich mache oft über Monate keine AI Bilder, so lohnt es sich für mich nicht. Und mit Suno hätte ich ebenfalls kein Problem, wenn ich wüsste, was mit 500 Songs für 10 Euro pro Monat anfangen. Noten erhält man keine und Transkribieren kann ich nicht, um das zu lernen, hätte ich früher anfangen müssen. Klang io kann das zwar, aber die ersten beiden Test waren unsauber.



    Noch einen anderen Titel entdeckt, bei dem für Style ballad, piano, emotional angegeben wurde. Selbt hatte ich erst nur Ballad County angegeben, beim nächsten Render noch female dahinter. Musste ich mir anhören, ist mir zwar zu schnullzig, hört sich aber brauchbar an, und die entwickeln sich halt auch weiter.



    Ein Traurigen Lied by @psychodad | Suno
    ballad, piano, emotional song. Listen and make your own with Suno.
    suno.com

    Mit Extend habe ich es zwar nach der Help Seite geschafft vier neue Endungen passend zu Version 03 zu rendern, aber die Auswahl zu Zusammenfassung (Get Whole Song) fehlte im Menü bei mir. Liegt vielleicht an der kostenlosen Version.


    50 credits renew daily (10 songs) - Gut für kostenlos, mehr schafft man am Tag ohnehin nicht.

    Non-commercial terms - Damit hätte ich später vielleicht einmal ein Problem, falls mein Kanal eines Tages richtig brummen sollte.


    Ist verlockend, doch ich kann mir nicht vorstellen, dass da viele sind, die damit einen geschäftlichen Erfolg erzielen. Eher zu einer einer Schwämme beitragen. Bedenken hatte ich nur, dass die Bots haben, wenn nicht jetzt schon, so später vielleicht, die nichts weiter zu tun haben, als danach zu suchen, wer eine nicht kommerzielle Version auf YT hochgeladen hat, in einem monetarisierten Kanal. Und eine Erkennung werden die in der Audios sicherlich verwenden.


    Aber erst einmal werde probieren, ob die Endungen sich fließen anfügen lassen. Könnte sein, dass sich keine der vier Endungen wirklich so einfach anfügen lassen, weil es an der Schnittstelle einen Patzer mit den Instrumenten geben könnte.


    So, zusammengefügt habe ich nun 03 mit einer passenden Endung im FL Studio. Wusste nicht mehr, wie man eine Spur ausfädelt, einfach vergessen, weil es schon eine Zeit her war, dass ich es mit dieser DAW machte und musste etwas länger suchen. Beim Fade out sollte keine Pause entstehen, dadurch hört man den Absatz etwas, der Rest geht eigentlich für Soziale Medien. Nach Facebook könnte man teilen, aber nur über einen Link von Suno, doch da liegt ja nichts Fertiges. Somit müsste ich extra für Facebook ein Video erstellen. Kenne aber nicht die Formate, die Facebook bevorzugt. Also erneut suchen, viele Bilder von der Altmark hatte ich einmal, doch wo sind diese und wie groß waren diese?

    Gesucht und gefunden, 16 DVDs von 2010 und davor, alles auf DVDs gebrannt, doch mein DVD Laufwerk erkennt diese nicht mehr?
    Ärgerlicht, alle in Schutzhüllen, ich dachte, die würden länger halten. Könnte an meinem Laufwerk liegen, ewig nicht benutzt.


    Weiter steht geschrieben, Empfohlene Videogröße: 1.280 x 720, und weiter unten, Seitenverhältnis: max. 4.000 Pixel breit und durch 16 Pixel teilbar. Also brauchte man nur eins für YT und Facebook mit 1920 x 1080 zu machen. Dazu sollte ich echte Bilder benutzen.

    Habe nach Udio AI noch Suno AI online getest.

    Bei Version 02, 03 und 04 wurde das Ende abgeschnitten, vielleicht weil in der kostenlosen Version zu lang, oder ich weiß es nicht.


    Version 02 finde ich für male am besten und 03 für female. Wobei in Version 03 von female in der Mitte es irgendwie auf male wechselte und dann wieder zurück, oder ich habe etwas an den Ohren, oder komme mit den Nummer etwas durcheinander, weil ich die Nachträglich erst so nummerierte, wie angelegt.


    Meine Playlist müsste offen aufrufbar sein, habe es in einem anderen Browser getestet. Zum Abspielen aufs Bildchen klicken, nicht auf dem Titel.


    Playlist Melegrian


    Als Video mit Bildchen und Fließtext 412 x 738 Pixel, könnten gut sein für Short Videos, dürften aber später nicht in einem monetarisierten Kanal benutzt werden.

    Noch einmal mit dem Text verglichen, 03 wird bereits am Anfang der Bridge abgeschnitten. Also 02 für male und 03 für female gehen eigentlich vom Gesang, würde ich meinen. Nur so abgeschnitten lassen diese halt nicht verwenden.


    Ob sich das erweitern ließe, habe noch keine richtige Beschreibung gefunden.


    Ein Video Tutorial, ist nicht ganz vollständig, doch erst 2 Monate alt und sollte für den Anfang genügen.


    Die Help Seite verrät mehr. Verlängerung scheinbar erst bei ABO möglich.

    Beim Synthesizer V Studio Pro gibt es bisher ein Problem. Voices Datenbanken sind bisher nur in Englisch, Japanisch und Chinesisch erhältlich. Damit eine Stimme bei Eingabe von deutschen Liedtexten oder in anderen Sprachen nicht gebrochen klingt, soll man aber das phonetische Alphabet (kurz IPA) benutzen können. Ob eine gemischte Eingabe damit möglich ist, also nur da wo es nicht richtig klingt, ein IPA Zeichen verwenden, oder den ganzen Text mit IPA Zeichen schreiben muss, weiß ich nicht. Das wäre die eine Möglichkeit.


    Die andere Möglichkeit wäre, vom selben Anbieter noch Vocoflex im Bundle erwerben. Dazu müsste aber die Melodie in Landessprache eingesungen werden, so wie ich das bisher verstehe. Dann selbstverständlich ohne Begleitung, also a cappella.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Das mittlere obere Video, welchen den ganzen Text von Chat mit allen Strophen enthält, geht dafür nicht, weil in der kostenlosen Version nur als MP4 und MP3 herunterladbar. Eine WAV sollte sich irgendwie trennen lassen, da die Spuren erhalten bleiben.

    Hatte die zweite Version mit dem vollständigen Text gestern noch einmal oben eingebunden, weil ich beim ersten Test übersehen hatte, dass es bei Udio eine Auswahl gibt, ob eine Aufnahme 32 Sekunden lang sein soll oder 2:10. Beide können dann noch um ein Intro oder Outro ergänzt werden, besser wird es aber nicht davon. Die Beta-Phase soll schon ganz schön lange dauern. Bei Suno soll eine Trennung möglich und herunterladbar sein, ob es aber besser klingen würde, keine Ahnung.


    Von Klang io habe ich mir die Melodie in Noten umwandeln lassen. Wer kein ABO haben möchte, kann 4 Euro pro Umwandlung per PayPal begleichen. Braucht man nicht blind zu machen, sondern erst, nachdem einzige Zeilen von einer Melodie oder einer Partitur in Notenschrift angezeigt werden, entscheiden. Weil ich nur die Melodie haben wollte, wurde der Liedtext mit übernommen. Herunterladbar als PDF und MIDI. Richtig gepasst hat nichts, auch hier sollte sich eine WAV wesentlich besser machen, denke ich mir zumindest.

    Bei Bonedo habe ich nun etwas mehr dazu gefunden. Also es dürfte so sein, dass die Frequenzen von echten Aufnahmen von echten Menschen in allen Stimmlagen synthetisiert werden. Ist ja bei meinem Piano ebenfalls der Fall, enthält ebenfalls alle Obertöne usw., wodurch es dann noch variabler wird, als wenn nur Samples von einem einzigen Piano verwertet werden.


    Bei einer Stimme steht es auch mit bei, von wem die Stimme mit eingesungen wurde.


    Zitat

    Synthesizer V AI ASTERIAN ist eine maskuline englische KI-Sprachdatenbank, die von Eclipsed Sounds erstellt wurde, mit dem Gesang des professionellen Synchronsprechers und oktavist-Sängers Eric Hollaway.


    ASTERIAN

    lässt sich dieses ganze computergenerierte Zeug recht schnell als solches identifizieren.


    Bei meiner Aufnahme ist es sehr deutlich zu hören, dass es an einigen Stellen verzerrt klingt. So eine Aufnahme würde ich auch nicht in meinem YT Musikkanal verwenden. Es war halt ein Test in einer Free Version, doch nicht nur deshalb. Alle drei online Tools haben ihre Grenzen, weil eine genaue Vorgabe, wie etwas zu singen ist, nicht oder noch nicht möglich ist.

    Aber hier einmal ein Vergleich mit einer Demo Stimmen von "Synthesizer V Studio Pro". Das ist zwar ein Synthesizer und keine Ai, doch bei den zusätzlich zu erwerbenden Stimmen handelt es sich ja um echte Menschen, deren Singstimmen in einem Studio aufgenommen und gesampelt wurden, und um keine synthetisch erzeugten. Dadurch wird der Abstand zu echten Gesang verkürzt. Also da ist nichts AI, bis auf die Zuordnung zu den Silben, das dürfte AI sein, doch der Rest seit Jahrzehnten bekannte Verfahren, die aber ebenfalls ständig verbessert wurden. Wie das nun genau gemacht wird, weiß ich nur von Instrumenten, denn alle möglichen Buchstabenkombinationen kennt ja auch kein Mensch, dafür käme auch nur eine AI in Frage. Wichitg ist aber, dass die Grundlage von einem echten Menschen eingesungen wird.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Die meisten virtuellen Instrumente beruhen ebenfalls darauf, dass an echten Instrumenten von echten Spielern Mikrofone geklemmt werden, um diese Aufnahmen später zu sampeln. Zusätzlich zu den Mikrofonen am Instrument wird dabei im Studio wohl immer noch ein Mikrofon für den Raumklang aufgestellt. Dadurch hat man von jeder einzelnen Tonhöhe mindestens vier gespielte Tonlängen als Samples in einer Datenbank. Bei einem Piano mit 88 Tasten wären das 352 einzelne Samples, die sich in der Pianoroll wieder zu einer neuen Aufnahme verbinden lassen. Las aber auch schon etwas von 8 Samples pro Ton, dann wären es 704 Samples. Was dabei innerhalb einer DAW abläuft, ist etwa zu berechnen, wie lang ist die Note in der Pianoroll und in welcher Tonhöhe, welchen Ton muss ich dafür aus der Datenbank abrufen. Es ist der Mensch vor dem PC, auf dem es dann dabei mehr ankommt. Doch ich denke, es ging klar aus dem Video Tut hervor.

    Aber, es hängt auch von der Qualität der Aufnahmen und der Samples ab. Yamaha schnitt zum Beispiel bei den Violinen die Anschläge ab, sodass diese bei meinem Gerät alle zu weich klangen. Bei einem virtuellen Piano war hingegen nur auf einer Taste ein hölzerner Anschlag hörbar, der sich zwar wegfiltern lies, aber an der Aufnahme lag, weil sich vielleicht gerade dort das Mikro bei der Aufnahme befand. Und bei einem virtuellen Akkordeon waren alle Anschläge vom Gehäuse zu hören, die man aber in einer Rundfunk- oder Fernsehaufnahme gar nicht mehr wahrnehmen würde. Lag vermutlich daran, dass das Mikro so ans Instrument geklemmt wurde, dass dessen Körperschall mit aufgezeichnet wurde, statt aus einer Entfernung von einem Meter.

    Mir geht es um guten Gesang, weil dieser viele Aufnahmen aufwerten oder abrunden würde, und das ist ein echter Fortschritt gegenüber diesen virtuellen Chören, die es schon seit vielen Jahren gibt, die aber bisher nur einige Silben summen konnten.


    Noch ein ganz kurzes Beispiel, aber gut gemacht.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Wollte heute einmal eine testen, nicht zur Erstellung von Bildern, sondern um Musik zu generieren. Online gibt es einige, für erwähnenswert halte Mureka (nur ein Versuch, danach wird Abo fällig), Suno (noch nicht getestet, aber auch nur wenige Versuche frei), und Udio (bisher noch frei nutzbar in begrenzten Umfang).
    Also heute Udio getestet und mir dafür einen schönen Liedtext über die Altmark von ChatGPT entwerfen lassen, mit Strophen und Chorus etwa 200 Zeichen. Klappte überhaupt nicht, Udio möchte, zumindest in der Free-Version, nicht mehr als 65 Zeichen für 30 Sekunden. Blieb mir nichts weiter übrig, als den Liedtext zu zerstückeln. Wenn dann die 30 Sekunden fertig gerendert sind, kann man das Ergebnis aber um Intro und Outro erweitern. Nicht in einem Durchlauf, sondern zuerst z.B. ein Outro anhängen. Die neue Version dann noch einmal um ein Intro oder eine Bridge erweitern. Mit Outro war es dann so lang wie jetzt, den Text dafür dichtete Udio hinzu. Die nächste Version mit Intro hörte sich schrecklich an.

    Das mittelste Bild ist ein von Udio erstelltes und exportiertes Video, nur leider nur 768 Pixel im Quadrat und die Tonspur hat keine Sekunde Vorlauf.


    GentleBagpipes1228 - Echoes of the Past ext v2 | Udio
    Listen to Echoes of the Past ext v2 by GentleBagpipes1228 on Udio. Discover, create, and share music with the world. Use the latest technology to create AI…
    www.udio.com


    Edit: Wie ich heute sehe, es geht auch in der Free Version problemlos, längere Titel zu erstellen, wenn man im Manuellen Mudus weitere Einstellungen vornimmt. Voreinstellung sind 32 Sekunden, diese lassen sich auf 2:10 erweitern. Ein Outro habe ich jetzt nicht mehr benutzt, ist als Demo ja lang genug.



    Die Stimme hat etwa in der Mitte völlig gepatzt, was sich in der Free-Version nicht editieren lässt.

    Und man sollte vermutlich mit jeder DAW, guten VST Instrumenten und genügend Übung mit der Zeit eine bessere Begleitung fertig bekommen.

    Nun singt sie den von ChatGPT erstellten Liedtext komplett.


    GentleBagpipes1228 - Whispers of Altmark | Udio
    Listen to Whispers of Altmark by GentleBagpipes1228 on Udio. Discover, create, and share music with the world. Use the latest technology to create AI music in…
    www.udio.com


    Was wirklich gut sein dürfte, sind hingegen "ACE Studio" und "Synthesizer V Studio Pro". Beide laufen nicht online, sondern auf dem Desktop, letzterer lässt sich in eine DAW ähnlich einem VST-Instrument laden. Beide werden ähnlich wie in einer Piano Roll bedient, lassen sich also voll auf eigene vorhandene Melodien abstimmen. Somit nicht durch einen Zufallsgenerator, sondern man erhält genau den Gesang für eine Melodie, den man erhalten möchte.


    Ein kleines Tutorial von einem Musikproduzenten, der laut Wikipedia für viele Sender bisher arbeitete. Fürs ACE Studio (nur mit Abo) hat er ebenfalls ein Tut, das nimmt sich nicht viel. Außerdem Tuts für die online Tools Suno, Mureka und Udio. Nur da kann man halt sehr viel weniger steuern. Synthesizer V Studio Pro ist hingegen Kauf auf Einmalzahlung. Da man aber mehr als eine Stimme benötigt, die man zukaufen muss, wird es im ersten Jahr etwas teurer.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Bei beiliegendem Screenshot ist das noch ziemlich human. Aber teilweise,

    Wie sieht das Sketchfab Modell von oben im original aus?

    Hatte vor Jahren einmal gelesen, dass von Sketchfab ein Verfahren benutzt wird, um normale Ansichten in drehbare Ansichten zu verwandeln. Könnte zumindest sein, dass Modelle dort anders aussehen, als bei Blender, oder könnte es mir zumindest vorstellen.


    Das Hauptprodukt von Sketchfab ist ein 3D, Virtual Reality (VR) und Augmented Reality (AR) Modell Viewer.


    Sketchfab - Wikipedia
    en.wikipedia.org


    Ein paar Objekte hatte ich sicherlich auch von dort, dann aber nur als OBJ.

    Nichts Besonderes, nur ein Short-Video der letzten Tage. Einzig der Notencursor ist animiert, was MuseScore übernimmt. Da der Bereich des Notenblattes auf meinem Screen nur 760 x 860 Pixel einnimmt, da vor allem oben Menüleisten die Höhe begrenzen. Der Hintergrund ist noch etwas schlicht gewählt, könnte besser gestaltet sein. Doch nur für Shorts würde es dann bald genügen.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Bei clavio.de hatte ich es ebenfalls gepostet, war seit nach 2 Jahren mein erster Post dort, von einem Klavierlehrer ein Like erhalten. Ganz so schlecht wie anfänglich, können meine Vertonungen wohl nicht mehr sein. Oder es war wegen meines Textes vom Post. Jedenfalls vor Jahren wurden da vor allem die Violinen in einem anderen Video von mir bemängelt. Diesmal nicht, obwohl so richtig gut ist es auch noch nicht um diese bestellt.

    So, das Problem mit der Abtreppung der Farbverläufe hat sich erledigt. Eine neue Version vom nächtlichen Himmel hinzugefügt, aber gleich zu Anfang als kleine Simulation (oder Vorstufe für eine simple Animation) für einen Tag-Nacht-Tag Übergang, mit einem anderen Motiv hinzugefügt. Dann beide Tuts unter den Videos gegenseitig verlinkt, damit ersichtlich wird, dass beide zusammen gehören. Im zweiten Video als nur der bessere Nachthimmel, gefolgt für eine Beschreibung für einen besseren Sternenhimmel. Das erste Bild hatte bereits bei Tageslicht reichlich wenig Farben für ein JPEG, bei Nacht dann noch weniger und bei der Komprimierung als MP4 reichte es dann nicht mehr.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    wird mir während des Ladens angezeigt dass Duplicate gefunden worden sind.

    Damit habe ich keine Erfahrung, außer, ich hatte einmal in einem Morph oben die gleiche ID benutzt wie unten. Da wurde ebenfalls beim Laden angezeigt, dass eine Duplicate ID gefunden wurde. Geladen wurde es zwar normal, doch ich habe es halt geändert.


    Mehr kann dazu nicht schreiben, weil mir die Erfahrung fehlt, was noch dazu führen könnte.

    Noch etwas weiter auf der Angebotsseite.


    Note

    Alle Details zu den enthaltenen Produkten finden Sie auf den jeweiligen Produktspeicherseiten.


    Da finden sich dann unter Strumpfhosen auch diese Hinweise:


    60 Second Skin Pantyhose für die Genesis 9 Geometry Shell

    1 Apply Geoshell Utility für Genesis 9

    1 Apply/Remove Hip Smoother Utility File for Genesis 9

    1 On/Off Navel Utility File for Genesis 9


    Sicherlich, damit könnte man Testreihen durchführen, so z.B. ob Hip Smoother Utility für Abhilfe sorgt. Dazu musst Du aber erst einmal wissen, was überhaupt vor sich geht. Nur blindlings etwas verändern wollen, ohne zu wissen, was Du tust, wird nicht viel bringen.


    Der Unterschied Geometrie-Shell zu "normalen" Kleidung:

    - Kommt es bei normaler Kleidung zu Hautkontakt, entstehen nur Löcher in der Kleidung.

    - Kommt es bei einer Geometrie-Shell zu Hautkontakt, wird die Haut nicht mehr geladen.


    Viel mehr weiß ich aber auch noch nicht.

    Ja, ich habe es nur vermutet, dass es möglicherweise damit zusammenhängen könnte.


    Details

    [...]

    Bitte beachten Sie, dass dieses Sexy Skinz-Set die DAZ-Geometrie-Shell-Funktion nutzt. Die Geometriehülle ermöglicht eine größere Produktflexibilität, da sie dem Benutzer eine größere Kontrolle bei der Anpassung an die Anpassung an über- oder unter der Kleidung gibt, und Schatten produziert, was zu mehr Realismus in den Renderings führt. Achten Sie darauf, den Abschnitt "Notizen" auf dieser Seite zu lesen, um Anweisungen zur Verwendung einer Geometriehülle zu erhalten.


    Und dass die Geometrie-Shell sehr empfindlich auf kleinste Fehlanpassungen reagiert, stellte ich auch erst in den letzten Tagen fest, hätte es vorher auch nicht gewusst.



    Also, die Strumpfhose in der Szene markieren, und unter Material nach den Zugehörigen suchen, da sollte es eigentlich keine Fehler geben. Selbst aber etwas einstellen wollen, wenn Du nicht weiß wo und wie, ist etwas ganz anderes.

    Ich finde das nicht schlecht... ! :thumbup:

    War ja nur ein Test. Jedenfalls kann man einiges damit machen, mehrfarbig richtig abgestimmt sollte bessere Ergebnisse bringen.

    Was hatte ich noch vergessen zu erwähnen, dass die für Shell deaktivierten Bereiche wieder zu aktivieren sind, in diesem Fall für die Arme, sonst ist nicht zu sehen.

    Danach Make-up wieder deaktiviert und die Maske mit der Shell getestet.

    Hier fehlt jetzt eine Textur für Color Base und Color Emission.



    Also das weiße in der Maske nach dem Alpha Kanal geschickt, damit es transparent wird.
    Dann eine rote Ebene dahinter gelegt.



    Dann Schwarz nach Alpha und eine sehr einfache Color Map für Color Base und Color Emission war fertig.



    Kamera ohne Kopflampe verwendet und Umgebungslicht reduziert. Emission Temperatur in den roten Bereich verschoben und Luminance etwas aufgedreht. Eine feinere und besser angepasste Textur würde hier sehr viel besser abschneiden.



    Einzig die Dicke lässt sich korrigieren, in dem z.B. Cutout Opacity reduziert wird.



    Test beendet.

    Noch ein paar kleine Tests zur Vertiefung.

    Mir war eingefallen, dass ich noch ein ganz einfaches Tool für Kaustik zu liegen habe, welches es noch immer kostenlos gibt und nicht installiert werden brauchte. Normalerweise dafür gedacht, um Lichtreflexe am Boden von flachen Gewässern zu erzeugen, bzw. die Texturen dafür. Heute einmal völlig zweckentfremdet verwendet und eine Grafik wie im Screenshot die nebenstehende erzeugt, nur mit doppelter Größe.



    Dann in Gimp eine Maske daraus gemacht, also Farbe entsättigt, Helligkeit und Kontrast entsprechend geregelt.



    Schwarz nach Alpha, die nunmehr transparente Vorlage an eine Textur für Arme angepasst, ganz sicher nicht angepasst, ohne vorher eine Ebene in voller Größe als Zwischenebene zu benutzen. Heute habe ich einmal darauf verzichtet, von der Originaltextur eine Kopie zu verwenden, und das Original gleich danach zu schließen, weil ich mir ziemlich sicher war, die Maske nicht unter diesem Namen zu speichern. Grundsätzlich würde ich aber dennoch vorsichtshalber immer mit einer Kopie arbeiten, und dazu raten.


    Erst ausgerichtet und skaliert, dann mit einem Pinsel schwarz umrandet, abschließend noch Vignette benutzt.


    Danach die Ebene mit Armtextur gelöscht, und bei der Zwischenebene Alpha entfernt, fertig war die Maske.



    Zuerst mit Make-up ausprobiert, weil hier für einfarbig nicht mehr erforderlich ist.



    Gut, umwerfend berauschend sieht es nicht aus, für einen Test aber gerade noch ausreichend.

    Gestern wollte ich lediglich ausprobieren, ob das GeoShell-Preset für beliebige Charaktere ladet.


    Ja, tat es, was die Vorschau anbelangte.



    Aber dann, oh großer Schreck, wie sah es mit der NVIDIA Iray Vorschau oder im Testrender aus.



    Noch einmal "GeoShell save" gesucht, doch die speichern alle Wearable(s) Preset.

    Woran könnte es noch legen?

    Keinen Hinweis gefunden. Also alle Optionen mit Visibility kontrolliert, nichts gefunden, was auf eine fehlerhafte Einstellung hinweisen könnte.

    Und was nun?

    Dann schwante mir etwas. Hatte mich nach dem Video von der letzten Seite gerichtet, dabei aber nur beachtet, dass er die Offset Voreinstellung der Shell von 0.10 zurücksetzte. Und ich hatte meine ebenfalls zurückgesetzt, dabei aber genullt. Eben das war der Fehler, denn bei 0.010, also einem Zehntelmillimeter als Offset werden die Texturen normal geladen.



    Wie viel Offset nun in welchen Anwendungsfällen und auf welchen Materialien benötigt wird, kann ich nicht sagen, weil mir die Erfahrungswerte fehlen. Jetzt lasse ich es erst einmal bei 0.01, weil es auf dieser Fläche zu genügen scheint und ein Schichtenabstand bei seitlicher Betrachtung nicht sichtbar wird, bei 0.10 hingegen schon. Deshalb erschienen mir einige Angebote wohl auch wie aufgesetzt.


    Was vielleicht nicht unbedingt nötig gewesen wäre, ich hatte alle Positionen deaktiviert, was eine lange Liste war. Es scheint etwas einfacher und schneller zu gehen, wenn nur die Surfaces ausgewählt werden, und braucht dann nichts mehr einzeln unter Face Groups deaktivieren.



    Gehe davon aus, dass z.B. Licke oder ein anderer mehr als ein Surfaces aktivieren und mit Tattoos, mit leuchtenden Äderchen oder anderen Elementen oder womit auch immer verzieren könnte, wenn er denn wollte. Eine weitere GeoShell braucht dafür nicht angelegt zu werden. Ornamente zum Testen hatte er ja genügend bereitgestellt. Meinen Drachen werde ich hingegen nicht weitergeben, da ich diese SVG Kollektion selbst nur bei Etsy erworben hatte. Zu mehr werde ich voraussichtlich vorläufig auch nicht kommen.

    Der Grund für Fehler, der Uber Shader ladet ab und an schnell, doch ab und an auch widerwillig und ab und scheint der auch zu streiken. Letzteres besonders dann, wenn man mehrmals die Figur oder die Shell löscht, um noch einmal anzufangen. Jedenfalls meine ich das als einen Hauptgrund für Fehler ausgemacht zu haben.


    Also, so lange wie die Figur noch grau aussieht, ist der Uber Shader noch nicht geladen.



    Wenn es schneeweiß wird, dann ist es richtig.



    Und das Schneeweiße verschwindet ja mit der Maske.



    Dann am besten erst einmal als Preset speichern, die Color Maps und Masken lassen sich ja immer noch beliebig austauschen.



    So, das waren nun 3 Varianten, wie man ein Tattoo, sicherlich auch Motive wie etwas Schmutz oder Sommersprossen einfügen. Wenn Luminance nicht benötigt wird, sollten der LIE oder die Make-up Optionen völlig genügen. Falls doch, braucht man dennoch nicht gleich einen zusätzlichen Shader kaufen, es geht halt auch mit einer GeoShell.


    Der Rest mit der Abstimmung könnte nun etwas länger dauern, bis das Mal meinen Vorstellungen nahekommt.

    Also, es geht gut mit einer GeoShell, besser als ich vor Stunden noch dachte. Habe mich zwischendurch erst einmal entspannt, und nach dieser kleinen Erholungsphase ging es auf einmal völlig reibungslos.


    Also, G9 markieren, dann Create Tab -> New Geometry Chell, dann der GeoShell einen Iray Uber Shader zuweisen. Siehe ersten Screenshot.



    Danach unter Parameter Shell alles auf Off setzen, was nicht zum Head gehört (oder der Textur, auf der ein Motiv platziert werden soll).

    Und danach Color Map für Base Color und Emmision Color laden sowie die Maske für Cutout Opacity.

    Siehe zweiten Screenshot, es leuchtet.



    Aber was für Fehler hatte ich bei den ersten Tests gemacht?

    Beim ersten Test hatte ich den Uber Shader noch nicht verwendet, beim zweiten und dritten hingegen schon.
    Bei allen Test aber Name und Label verändert, diesmal nicht, könnte das bereits mit Fehler verursacht haben? Kann ich mir kaum vorstellen, werde es aber testen.


    Gut, so soll es noch nicht bleiben, das Mal unter "ND Lava Details for Genesis 9" (siehe weiter oben) gefällt mir gut, wo es nur stellenweise etwas glimmt. Dafür werde ich wohl zwei Color Maps benötigen oder so, halt ausprobieren wie es am besten gehen könnte.

    Mit Variante 3 bin ich hängen geblieben, weil da minimal die Cutout Opasity Option bei G9 fehlt, um die Maske zu laden. So richtig stimmt das ohnehin nicht mit den Texturen überein. Mit meiner Suche nach "DAZ 3D GeoShell Genesis 9" kam ich ebenfalls bisher nicht weiter. Bis G8 sollte es reibungslos laufen, denke ich mir.



    Wenn das so weiter geht, ziehe ich ihr einfach eine kleine Plane über die Stirn, weil selbst so eine Primitive mehr Optionen hat. Einige Angebote mit GeoShells sehen auch nur wie übergezogen aus.