Zu Inhalt springen

Wyndor

Mitglieder
  • Beigetreten

  • Letzter Besuch

Alle Inhalte erstellt von Wyndor

  1. Und wie mich das erst geärgert hat 😀. Komischerweise hat er das Schwert erst richtig nach Vorlage kaputt dargestellt, als er weggeht, dabei musste die KI hier den Charakter auch noch drehen. Ist halt manchmal der Wurm drin.
  2. Danke für dein Feedback 🙂. Da ich mir gerade noch viele Skills neu aneigne, mache ich bei jedem Projekt gewisse Abstriche, wenn etwas nicht so funktioniert, wie ich das mir wünsche. Das war gerade beim Lindwurm und bei der Stelle mit dem gebrochenen Schwert so. Die KI hat noch große Probleme mit Physik. D.h. eine Szene, in der ein Pferd von einem dreiköpfigen Lindwurm geschnappt wird, ist schon ziemlich extrem. Ich war sehr froh, dass die drei Köpfe des Lindwurms überhaupt vernünftig platziert waren (ist zur Zeit noch nicht selbstverständlich). Zusätzlich die Bewegung einer ganzen Pferdeherde hat die KI nicht hinbekommen (zumindest nicht in meinen unzähligen Anläufen, die auch budgetär beschränkt sind). Für die aktuellen Einschränkungen, die bei solchen Szenen die KI noch hat, bin ich immer noch super happy mit der Szene. Das gebrochene Schwert hat mich mehr gefoppt. Hier kommen zwei Dinge zusammen: Ich gebe den Charakter als Input, um Charakterkonsistenz zu bekommen. Das ist in diesem Fall auch erfolgt, auch mit gebrochenem Schwert. Jede Video KI hat das Schwert in der Animation dann repariert. Bei sowas gebe ich dann nach einer gewissen Anzahl an Versuchen auf und lebe mit dem Mangel der KI. Hier müsste ich jetzt ein echter Video-Designer sein, der in Bewegtbild eingreifen kann, bin ich aber nicht 😄. Das Einhorn hat mich nie gestört. Da gibt es noch mehr andere Stellen, mit denen ich nicht optimal zufrieden bin. Hauptfokus in diesem Clip waren: Musikkomposition, konsistente Charaktere und gute Erzählerstimme. Alles andere versuche ich dann im nächsten Clip besser zu machen, sofern die KI dann darin keine Schwächen mehr hat.
  3. So, ich bin fertig geworden. Das erste komplette Video zum DSA Abenteuer "Im Spinnenwald" aus der Trilogie "Expedition ins Orkland" ist fertig. Ihr könnt es euch jetzt gerne auf YouTube ansehen. Ich habe vor allem Versucht den Erzähler sowie die Konsistenz der Charaktere zu optimieren, damit nicht jede einzelne Sequenz für sich steht. Ich bin auf euer Feedback gespannt und nehme weitere Anregungen sehr gerne entgegen.
  4. Ich stecke noch mitten in der Arbeit für das erste Video zu der Abenteuer Trilogie "Expedition ins Orkland" (DSA1). Und da ich gefühlt noch ein paar Tausend Bilder und Sequenzen erstellen muss, habe ich heute morgen mal wieder die Erstellung meines KI Avatars Wyndor auf Veo3 getestet. Das hatte ich zuletzt ziemlich frustriert aufgegeben, weil er sich vor zwei Wochen entweder geweigert hat, seinen Text aufzusagen oder aber ihm immer wieder eine komplett neue Stimme gegeben wurde. Und heute morgen: Flutschten die Clips einfach nur durch. Er hat brav seinen Text aufgesagt und auch relativ konsistent die Stimmfarbe behalten. Nett ist auch, dass es ziemlich problemlos mit Gemini funktioniert hat, ihm das Buch "Expedition ins Orkland" in die Hand zu drücken. Und damit das Video auch einen inhaltlichen Sinn hat, habe ich eine Preview auf das Orkland Video reingeschnitten. Hier habe ich besonders viel Wert auf eine bessere Erzählerstimme gelegt und dafür eine neue Funktion von Elevenlabs verwendet, die sich gerade in der Alpha Phase befindet. Mit dieser spricht er Erzähler nochmal natürlicher und schöner betont, als in der Standard-Einstellung. Auch nimmt er jetzt brav Prompt-Befehle für Seufzer oder andere Ausdrucksformen entgegen. Hört und schaut aber gerne einfach selber rein. Und gebt mir gerne Feedback, das sauge ich auf und versuche es im nächsten Clip direkt zu berücksichtigen:
  5. Eine Übersicht zu allen Bildern, auf denen ich die Videos aufgebaut habe, findet ihr übrigens in dieser Bildergalerie: Album — Postimages
  6. Ich bin ja schon um jeden froh, der nicht im Lager der KI Hasser ist, und die sind im Bereich Metal und Fantasy ja nicht unbedingt klein 😄. Darum vielen Dank, dass du dir die Zeit nimmst, den Krempel anzusehen und hier Feedback zu geben. Merci 🙂 Bei der Musik kommen wir wohl gar nicht zusammen. Für mich ist Fantasy mit Laute, Harfe etc. zu sehr Pseudomittelalter. Das mag ich schon auf Mittelaltermärkten nicht und nehme die Beine in die Hand, wenn die ortsansässige Dudelsack-Trommel-Kombo gefühlt das weltweit identische Tanzlied dudelt. Mir geht es bei der Musik immer um Atmosphäre und Stimmung und dass sie mich emotional anspricht und vom ästhetischen Prinzip zum angestrebten Setting passt. Du könntest mal auf dem YouTube Kanal dir die Wiedergabeliste zum "Wald ohne Wiederkehr" ansehen. Dort sind viele der Monster abgebildet, die ich dann auch in dem Puppen/Stop-Motion Stil umgesetzt habe. Alternativ schau mal in das DSA oder Tanelorn-Forum (z.B. hier: https://dsaforum.de/viewtopic.php?p=2196820#p2196820). Dort sind auch die Monster des Abenteuers komplett drin, nur in einem anderen Stil umgesetzt. Wenn dann im Puppen-Film noch andere Kreaturen drin sind, sind die während der Arbeit entstanden und nicht zwingend im Abenteuer. Aber sowohl beim Musikvideo als auch dem letzten Erzählervideo habe ich das Abenteuer eher weit ausgelegt. Ja, das mit den Pausen muss ich beim nächsten mal besser planen. Aber ich war so aufgeregt, weil das so cool rausgekommen ist und war auf eure Meinung gespannt 😄
  7. Danke für dein ausführliches Feedback. Das war jetzt mal ein erster schneller Versuch. Beim nächste Projekt stecke ich gezielt etwas mehr Arbeit rein. Ihr bringt mich da mit euren Kommentaren immer auf eine ziemlich gute Spur, darum verbeiße ich mich nicht so sehr in die Projekte. 1.) Für die gewisse Monotonie hatte ich zwei Gründe: a) Die Stimme soll die des Eremiten sein. Die wollte ich gerne etwas monotoner haben. b) Bei meinen wenigen Versuchen, die ich unternommen habe, hat die KI bei einer stärker eingestellten Dynamik der Betonung für meine Ohren doof betont. Ich habe aber noch nicht versucht, ob sich das über Prompten beeinflussen lässt. Da muss ich mir die Doku des Tools ansehen. Jetzt kommt die Betonung 1:1 aus dem Rohtext der Geschichte und ich habe die Dynamik stark reduziert, damit ich ein Ergebnis habe, bei dem ich kein Störgefühl hatte. Ich werde auch mal versuchen, Sprechpausen einzuprompten. Wenn das nicht geht, stecke ich mehr Arbeit in die Schnitte. Mir war das Tempo auch etwas zu hoch, auch wenn die Geschwindigkeit schon maximal gedrosselt war. 2.) Siehe 1 3.) Ich habe für diesen ersten Versuch noch relativ wenig Arbeit reingesteckt und erstmal zwei Tracks kombiniert, um zu schauen, wie die Wirkung ist. Ich arbeite ja nicht mit einem Storyboard, sondern entwickle die Ideen direkt während der Arbeit mit einer groben Vision im Kopf. Dann liegt aber der Sprechertext, die Videofiles, die Musik etc. schon vor. Es ist ja nicht so, dass ich ein Storyboard habe, in der jede Sekunde geplant ist und ich dann einen Komponisten habe, der exakt darauf getimt arbeitet. Ich baue Bits&Pieces im Prozess zusammen und schiebe so, dass es erstmal passt. Vielleicht muss ich das aber mal mit einem Storyboard angehen. 4.) Hmmm - da hab ich jetzt bei dem Video gar kein Störfaktor, sondern finde es ganz gut, dass es nach vorne treibt. Aber ich behalte es beim nächsten Projekt im Hinterkopf. Danke nochmal für eure Anregungen!
  8. So - fertig. Hör gerne mal rein. Vielleicht findest du diese Form ja passender, statt Heavy Metal 😄 Auf Wunsch erzähle ich gerne auch was zu den eingesetzten Tools.
  9. Hihi, so sieht man sich wieder. Ich habe heute mal erste Tests mit der Lesung gemacht und dafür auch noch stimmungsvolle Hintergrund Musik erstellt. Erste Schnittversuche deuten schon an, das das ziemlich cool werden kann. Ich muss nur die Sequenzen deutlich länger laufen lassen und inhaltlich an den Erzähler anpassen. Das ziehe ich jetzt mal durch. Die Stimme des Samples oben kommt übrigens von Elevenlabs. Die erste Stimme habe ich selbst konzeptioniert und geprompted, die zweite ist aus einer Vorauswahl.
  10. Und vor allem hätte man ganz viel Spezialsoftware lernen müssen. Was ich heute an Arbeit noch in den Schnitt und das Soundmastering stecke, wird dann bestimmt auch bald gut genug von einer KI abgelöst werden.
  11. Die Überblendungen kommen vor allem daher, dass ich meine Kredits von Kling AI möglichst gut nutzen wollte. Und das Tool bekommt in der neuesten Version die Frame to Frame Animation einfach genial hin. Zumal Kling AI Deepseek integriert hat. Deepseek analysiert deine Bilder und schreibt für den Übergang einen Prompt. Der ist meistens besser als der Prompt, den ich dafür ChatGPT entlocken konnte. Mal sehen wie schnell sich der Effekt abnutzt.
  12. Der Wald schweigt 1.mp3Der Wald schweigt 2.mp3 Warum bringt ihr mich auch auf Ideen. Verdammich. Wie findet ihr die Stimmen? Favorit?
  13. Vielen Dank für dein ausführliches Feedback! Es freut mich total, wenn sich jemand die Zeit dafür nimmt. Und nein, ich mache das nicht beruflich. Ich habe aber ziemlich viel Spaß an der Sache 😁. Mit der Erzählstimme bringst du mich jetzt echt auf Ideen 😅. Elevenlabs macht das mittlerweile auf extrem hohem Niveau. Ich finde das vollkommen in Ordnung, wenn bei dir der Funke nicht überspringt. Ich packe in meine Sachen einfach immer das rein, was mir selbst gefällt und beim Erstellen viel Freude bereitet. Und vielleicht gefällt das ja noch jemand anderem. Für den besseren emotionalen Funken versuche ich mich als nächstes mal der Charakterkonsistenz zu widmen. So dass es zu einer echten Heldengeschichte werden kann mit fixen Charakteren, die ein Abenteuer durchleben. Auch würde ich versuchen weniger Morph-Szenen zu haben, dafür unterschiedliche Perspektiven auf einen Raum/Setup. Aber hier muss ich noch schauen, wie ich die unterschiedlichen KI Tools dafür kombiniere. Ich werde mal mit einer Kombi von Gemini 2.5 Flash (mit dem Bananen-Dings) und Midjourney experimentieren. Die Musik und Lyrics für ein paar Abenteuer stehen schon 😀. (Leider weiter Metal Musik - aber das mit dem Erzähler ... 🫣 ... ich sehe kurze Nächte auf mich zukommen.)
  14. Oh, die Musik ist exakt so wie ich sie haben wollte. Ein einfacher epischer Heavy Metal mit einer klaren Pop-Struktur, mit Melodie und starken weiblichen Vocals. Für mein Storytelling ist er so geworden wie ich ihn haben wollte, als ich die Lyrics ausgearbeitet habe. Aber ich weiß dass bei Musik die Geschmäcker weit auseinander gehen. Sind die Udio-Ergebnisse klangtechnisch so gut, wie moderne Studio-Produktionen? Nö, gar nicht. Aber das ist eben der aktuelle Stand der KI-Musik-Technik. Bei den Animationen und meiner Schnittarbeit bin ich da kritischer, aber ich will nur von Projekt zu Projekt inkrementell besser werden, statt mich in Details reinzufressen, die morgen durch ein KI Update behoben sind. Bin ich also zufrieden mit dem Ergebnis? Ja, super zufrieden 😄. Und das nächste will ich trotzdem noch besser machen.
  15. Ich kann deiner Antwort nicht genau entnehmen ob du das alles für AI Slob hältst oder für ein "gutes Ergebnis" 😅
  16. Gestern Nacht habe ich noch ein Projekt abschließen können. Ein Musikvideo zum DSA1 Abenteuer "Der Wald ohne Wiederkehr". Das war für mich diesmal ein größeres Projekt. Weniger am Ende das Prompten der Bilder und Animationen (das geht erstaunlich schnell, wenn das Setup einmal eingerichtet ist) als vielmehr die Entwicklung des musikalischen und optischen Stils. Schaut gerne mal rein. Wer sich für die Tools interessiert: Musik: Udio 1.5 Bilder: Midjourney 7 Animationen: KlingAI 2.1 Mix und Master: Ozone 11 Schnitt: DaVinci Resolve Ich bin gespannt was ihr von dem Stil haltet.
  17. Mein Bruder kam mit nem Wunsch um die Ecke. Er wollte zum Jubiläum seiner LAN Sessions einen kurzen Videoclip zur Einladung für das nächste Jahr. Motto: "LANOWAR". Und da kam jetzt das bei rum: Hier die Info zu den eingesetzten Tools: Musik: UDIO Soundeffekte: Kling AI Video: Veo3 und Veo2 Logo: Ideogram Bild: Midjourney Lyrics: ChatGPT Abgefahren, was VEO3 alles kann.
  18. Ich habe mir schonmal einen Brief für den Inplay Einsatz mit ChatGPT schreiben lassen, ansonsten habe ich selbst das noch nicht benötigt, da ich immer vorgefertigte Abenteuer Leite zu denen ich mir handschriftlichen Notizen mache. Mein Tool der Wahl wäre aber klar ChatGPT, da ich dort dann alles an einem Ort habe.
  19. Ich schmeiß mich weg. 🤣
  20. Google hat gerade heute ein Bildbearbeitungsprogramm veröffentlicht, das auch dieses Nacharbeiten mit einer KI umsetzt. Es gibt keine komplexen Bearbeitungswerkzeuge mehr, sondern man markiert Bereiche und prompted die gewünschten Änderungen. Solche Werkzeuge werden tief eingreifen in die Produktion jeglicher Kunst, ob Bilder, Musik oder Videos. Ich gehe fest davon aus, dass es z.B. auch Musikprogramme geben wird, in die ein Gitarrist seine selbst komponierte und aufgenommene Gitarrenspur reinladen wird und dann nicht selbst einen Drumcomputer programmieren muss, sondern das von einer KI machen lässt. Bei Kunst kann ich mir das auch vorstellen: ein Künstler entwickelt und zeichnet einen Stil/Charaktere/Figuren und leitet daraus mit KI Bildserien und Varianten ab. Ich persönlich freue mich daher auf alle Erzeugnisse, die kreative Menschen diesen Werkzeugen werden entlocken können. Und ich denke nicht, dass gewinnorientierte Unternehmen das an sich werden vorbeigehen lassen, auch wenn sie sich theoretisch Künstler leisten könnten, die ohne KI arbeiten.
  21. Hat es eigentlich jemanden gestört, dass der letzte Schwung Bücher von Midgard 5 weitgehend mit KI illustriert wurde statt mit zugekauften Stockbildern? Mich persönlich nicht. Ich habe das sogar als erhebliche Qualitätssteigerung empfunden, da mir die vorher eingekauften Stockbilder eher nicht so zugesagt haben. Und dazu kommt: Die KI Bilder haben es geschafft einen relativ homogenen Stil abzubilden auch bei recht komplexen Bildkompositionen. Das hat der KI Prompter wirklich außerordentlich gut hinbekommen. Grundsätzlich sind mir hochwertige Artworks von Künstlern lieber, die einem Setting mit eine ganz eigene Tonalität und ein Gefühl einhauchen, aber ich habe auch vollen Verständnis dafür, dass das bei einem Nischenprodukt wie Midgard nicht gemacht werden konnte. Ich habe die Bücher auch gerne mit den Stockbildern gekauft, aber mit den KI Bildern gefallen sie mir deutlich besser.
  22. Die Möglichkeiten mit Hilfe von KI Bewegtbilder herzustellen werden immer besser und immer einfacher. Ich starte mal einen Faden um meine Projekte vorzustellen, würde mich aber auch freuen, von euren Projekten zu hören und sie zu sehen. Eigentlich habe ich angefangen mit Hilfe von Midjourney KI Bilder für meine DSA1 Runde zu erstellen. Durch die neue Video-Funktion von Midjourney wurden daraus schnell Bewegtbilder, die ich in meinen Abenteurern einsetze. Den Kanal findet ihr hier: Die schaurig schöne Welt von DSA1. Retropunk - YouTube Die Animationen z.B. aus diesem Video: https://youtu.be/-vZsU84vxmA?si=4xuJVi2kqAwEIA-s sind alle mit Midjourney erstellt. Nur die Typographie am Anfang kommt von Ideogram. Die Hintergrundmusik habe ich mit Udio erstellt. Ihr findet bei den Shorts die ganzen Kurzclips der einzelnen Begegnungen: Die schaurig schöne Welt von DSA1. Retropunk - YouTube Weil mich die Kombination aus Bewegtbild und Musik sehr angefixt hat, habe ich auch mit Veo 3 Fast begonnen Clips zu erstellen und diese zu einem Gesamtvideo zusammenzuführen. Einmal habe ich das Abenteuer "Silvanas Befreiung" als Musikvideo umgesetzt. https://youtu.be/ep7DOPAQetY?si=0x9eQTscGBOztyIg Die Musik habe ich wieder mit Udio erstellt. Geübt habe ich aber mit einem rockigeren Stück, das ich unter "Crimson Crossfire" veröffentlicht habe: https://youtu.be/NoT8qQCJ7S4?si=X0AFzgab7SJJz3Ok Auch hier kommt die Musik wieder von Udio und die Clips von Veo 3 Fast. Als nächstes werde ich mir nochmal die Möglichkeiten von Veo 2 Fast ansehen. Hier kann man auch mit dem Input mehrerer Bilder Videos generieren. Erste Tests haben zu spektakulär guten Ergebnissen geführt. Ich hoffe, dass diese Funktion bald in Veo 3 Fast nachgezogen wird. Schaut mal das Ende von Silvanas Befreiung an. Die Schriftzüge, die ineinander übergehen, wurden auf Basis von 2 Bildern in Veo 2 Fast erstellt: https://youtu.be/ep7DOPAQetY?si=d4b_Jth_iGKaxrf8&t=199 Habt ihr auch schon mit Video-KIs gearbeitet? Was sind eure Erfahrungen?
  23. Midjourney bietet jetzt für seine Bilder auch eine Videofunktion an. Ich habe für meine DSA1 Runde eine ganze Bilderserie erstellt und habe diese nun auch mal mit der Video-Funktion in Bewegung gesetzt. Ihr könnt euch das gerne mal hier ansehen, da habe ich die Clips zu einem Video zusammengeschustert: https://youtu.be/mX7qoDTlsVk?si=pXHvuXXfrch5EYLw Die Begegnungen setze ich mir dann nochmal als Einzelclips, so dass ich sie gezielt im Spiel einsetzen kann, wie diese Gruftassel hier: https://youtu.be/bf7HXjIUwf8?si=KD8uJde02-P46baf Schon ganz cool, was jetzt mit Midjourney geht. Die Musik/Sounds in den Videos sind mit UDIO erstellt, die Logos/Texte kommen von Ideogram, die kann Midjourney nicht.
  24. Bei mir leider noch nicht. Sind sonst alle beliefert? Dann frage ich mal nach.
  25. Keine Ahnung wo das hingehört, aber ich muss einfach mal darüber schmunzeln, dass Jackie Chan es in den neuen Band "Unter dem Schirm des Jadekaisers" geschafft hat .

Wichtige Informationen

Wir setzen Cookies, um die Benutzung der Seite zu verbessern. Du kannst die zugehörigen Einstellungen jederzeit anpassen. Ansonsten akzeptiere bitte diese Nutzung.

Browser-Push-Nachrichten konfigurieren

Chrome (Android)
  1. Klicke das Schloss-Symbol neben der Adressleiste.
  2. Klicke Berechtigungen → Benachrichtigungen.
  3. Passe die Einstellungen nach deinen Wünschen an.
Chrome (Desktop)
  1. Klicke das Schloss-Symbol in der Adresszeile.
  2. Klicke Seiteneinstellungen.
  3. Finde Benachrichtigungen und passe sie nach deinen Wünschen an.