DIY Musikvideos (Erfahrungsbericht eines fortgeschrittenen Anfängers)

  • Ersteller GinMonotonic
  • Erstellt am
GinMonotonic
GinMonotonic
Registrierter Benutzer
Zuletzt hier
18.04.24
Registriert
10.03.23
Beiträge
87
Kekse
0
Anbei mein Erfahrungsbericht über die Erstellung von Musikvideos für den Youtube-Kanal unseres Musikprojekts.


VERWENDETE HARDWARE:
Windows 10
Intel i5-12500 3.00 GHz
Crucial RAM 16GB (2x 8GB) DDR5 4800MHz
MSI GeForce GTX 1650 4GT LP OC

Angefangen habe ich mit der Onboard Grafikkarte Intel UHD Graphics 770 und 8GB RAM. Das Hardwareupgrade war kein Quantensprung. In wie weit ich mit der neuen Grafikkarte besser fahre, muss noch geprüft werden. Eine Bessere steht mir derzeit nicht zur Verfügung, da ich einen kleinen Tower habe, sodass ich nur Grafikkarten im Low Profile Format einbauen kann, also steht nur der Vergleich an, ob ich mit der UHD 770 und mehr RAM doch nicht besser bedient bin. Bis irgendwann etwas nennenswert Besseres, in entsprechender Bauform, auf den Markt kommt.

Die RAM-Verdopplung hat nur marginale Verbesserungen gebracht. Bei Schnitten und/oder Übergängen von großen Videos, sowie beim Einsatz von umfangreicheren Effekten, gibt es weiterhin Ruckler und/oder Aussetzer im Vorschaufenster, weshalb ich hier mindestens 24GB empfehlen würde und selbst bei nächster Gelegenheit auf 32GB upgraden werde.


VERWENDETE SOFTWARE:
Vergangenes Jahr habe ich angefangen, mich näher mit der Videobearbeitung zu beschäftigen. Nachdem ich mehrere kostenlose Programme ausprobiert habe, fiel die Entscheidung auf DaVinci Resolve 18. Den Einstieg fand ich erstaunlich einfach. Kurzes Tutorial angeschaut, um die Struktur zu kapieren und schon konnte es losgehen.

DaVinci ist sehr aufgeräumt, umfangreich und logisch aufgebaut. Die Dosierung von Effekten sowie einfachen Funktionen wie Zoom, ist sehr schön gelöst, sodass man sie präzise setzen und kontrollieren kann. Selbst die kostenlose Version bietet genug hochwertige Effekte/Übergänge und Möglichkeiten der Farbanpassungen, sowie vieles mehr, was ich noch nicht kennengelernt/gebraucht habe. Bei meiner Arbeitsweise wäre der Kauf der Vollversion eine Geldverschwendung, wobei ich den Preis akzeptabel finde.

Die kostenlose Version ist gegenüber der Vollversion in manchen Sachen natürlich etwas eingeschränkt. In wie weit diese den eigenen Ansprüchen gerecht werden, muss individuell geprüft werden. Hierzu gibt es unzählige Webseiten und Videos, die diese Entscheidung erleichtern. Die für mich wichtigsten Punkte sind: Die Einschränkung auf max. 60 FPS und 4K.

Projektfenster von "Cold Shower":
Davinci1.jpg



EIGENARTEN DIESER SOFTWARE:
Wie jede andere Software, bringt auch DaVinci Resolve 18 einige Eigenarten mit. Wenn man es gewohnt ist, mit der ENTF-Taste zu löschen, sollte man sich bei "Keyboard Customization" einstellen, dass diese Taste den "Selected Delete" anstatt "Ripple Delete" ausführt. Beim Letzteren entsteht nämlich keine Lücke nach dem Löschen, sondern die nachfolgenden Videos rutschen nach, was logischerweise das ganze Projekt durcheinander bringt. Dieses Missgeschick in der Verbindung mit dem "Live Save" sorgte mal dafür, dass ich ein Projekt neu anfangen musste. Danach schaltete ich "Live Save" aus und aktivierte stattdessen die Backups. Wer schon länger mit dem PC arbeitet, wird den STRG+S Befehl verinnerlicht haben und braucht diesen Automatismus, bei dem es kein Zurück mehr gibt, nicht.

Meiner Internetrecherche nach, hat DaVinci nicht gerade den besten H.264 Codec an Board. Dies macht sich bei schnellen Helligkeitswechseln bemerkbar. Die gerenderten Videos weisen an solchen Stellen grobe Pixel auf. Einige vermeintlichen Experten auf YouTube raten es ins Quicktime Format, mit dem Codec DNxHD oder DNxHR zu rendern, und es anschließend mit einer anderen Software in mp4 H.264 umzuwandeln. Ich bin aber kein Freund von Umwandlungen.
Einfacher und qualitativ besser geht es indem man bei den Rendereinstellungen die Key Frames auf "Every 1 Frame" setzt. Dadurch wird zwar die Datei doppelt so groß, aber fehlerfrei, ohne dass man sie vergewaltigt. So als Orientierung: Ein Musikvideo in HD Qualität (1080p), mit ca. 3,5min Länge, wäre dann ca. 1GB groß. In der heutigen Zeit dürfte das zu verkraften sein.

Diese Einstellung findet man hier:
Davinci5 - Einstellung Rendern.png


So sieht ein Blitzeinschlag aus, wenn man die Key Frames nicht auf 1 gesetzt hat:
Davinci5 - Blitzeinschlag.png



MEINE ARBEITSWEISE:
Da ich für eigene Aufnahmen keine Zeit, Lust, Erfahrung, Ausrüstung, Helfer u.a. habe, entschied ich mich unsere Musikvideos mit dem, in Netz frei verfügbaren, Videomaterial zu schneiden. Momentan bin ich bei der Fertigstellung des dritten Musikvideos. Das Erste ist seit November 2022 auf YouTube, das Zweite seit Mitte Februar 2023 und das Dritte kommt irgendwann, wenn der Song so weit wird.

Mit fremdem Material etwas Eigenes zu machen, kann sowohl sehr einfach, als auch sehr kompliziert sein. Je nachdem welche Ziele man sich setzt. Einfach ist es in dem Sinne, dass man nichts selbst drehen muss und somit ein großer, schwerer, zeitaufwändiger und fast wichtigster Aufgabenteil wegfällt. Kompliziert wird es dann, wenn nicht genug passendes Material gefunden wird. Das Material zusammenzusuchen ist eine Fleißarbeit und alles so zu schneiden, dass es halbwegs stimmig aussieht, ist oft eine Glückssache. Den Kommentaren zufolge, die ich zu den Videos bekam, scheint mir dieser Spagat gelungen zu sein, aber das ist oft Geschmackssache. Ich selbst finde sie für den vorgesehenen Zweck ok.


HABEN SIE VERSTÄNDNIS FÜR FPS:
Ein Musikvideo zeichnet sich unter anderem dadurch aus, dass die Clips im Rhythmus geschnitten sind, also die Schnitte im Beat erfolgen, und ein Videobearbeitungsprogramm zeichnet sich dadurch aus, dass er in FPS (Bilder pro Sekunde) arbeitet. Anders als in der DAW, wo man in BPM arbeitet und dennoch sehr feine Einstellungen vornehmen kann, erlauben die Videoprogramme tatsächlich nur so viele Schnitte in der Sekunde, wie sie im Projekt eingestellt sind.

Bei 30, 60, 120, 180 oder 240BPM sind diese beiden Einheiten synchronisiert und es kann so gut wie nichts schief laufen. Doch sobald man davon abweicht, muss man Kompromisse eingehen und den Schnitt etwas vor- oder zurücksetzen. Also: Je mehr FPS in der Videobearbeitung zugelassen sind, umso präziser können die Schnitte gesetzt werden.

Wie bereits erwähnt, kann man in der kostenlosen Version von DaVinci Resolve 18 max. 60FPS einstellen. Das ist gerade so genug, um einigermaßen genau arbeiten zu können.


ARBEITSERLEICHTERUNG:
Es kann unglaublich nervig und unnötig zeitaufwendig sein, die Clips manuell auf die passende Länge zu schneiden und/oder auf die richtige Position zu platzieren, weshalb man sich zuallererst Gedanken darüber machen sollte, wie man sich die Arbeit vereinfachen kann.

Vor ca. 15 Jahren, als ich kurz mit Adobe Premiere experimentierte, wurde mir empfohlen die Marker im Beat zu setzen. Wenn ich mich richtig erinnere, erfolgte das so, dass man die Audiodatei einfügte, Play drückte und dort wo die Schnitte hinkommen sollten, die Taste M drückte. Später durfte man die ungenauen Marker zurechtrücken oder löschen und neu setzen. Meine Begeisterung für diese Empfehlung hielt sich in Grenzen, da es aber nur ein kleines Videoprojekt mit wenigen solchen Schnitten war, nahm ich sie an, doch beim Wiedereinstieg in die Videobearbeitung musste eine neue Lösung her.

Die Empfehlung die ich diesmal bekam war besser, aber immer noch nicht ideal. Ich sollte mir inhaltslose Videosequenzen in der entsprechenden Länge erstellen, sie im Projekt nacheinander reihen und als Marker verwenden. Eigentlich eine ganz gute Idee, aber auf die Umrechnung und zusätzliche Videos in der Timeline hatte ich keine Lust. Außerdem bestand ja weiterhin das Problem mit der Ungenauigkeit aufgrund von FPS.

Also entschied ich mich das gleiche Prinzip mit Audio anzuwenden. In der DAW erstellte ich mir leere WAVs in der Länge von 1, 1/2, 1/4, 1/8 und 1/16 Takt, und setzte sie ins Projekt ein. Anders als bei Video, können Audios in DaVinci unabhängig von den FPS aneinander gereiht werden. Somit sind die Marker immer Synchron zum verwendeten Audio und man sieht sofort, wenn es mit den FPS nicht passt.

Das sieht dann so aus:
Davinci2.jpg


Und die Clips werden automatisch daran ausgerichtet (+/- ein Frame). Hier +1 Frame:
Davinci3.jpg


Anzumerken ist noch, dass man sich die Projektordner vorab anlegen soll. Jede Änderung des Dateinamens oder -Pfades von den Quellvideos sorgt für Fehlermeldungen im Projekt.


AUDIOFORMATE:
Ob die Audiomarker die identische Länge hätten, wenn ich sie als mp3 genommen hätte, kann ich nicht sagen, da ich zu faul bin es auszuprobieren. Wahrscheinlich gäbe es dort keine Abweichungen, da sie ja inhaltslos sind.
Mir ist jedoch ein Unterschied zwischen der mp3 und WAV Datei hinsichtlich des Inhaltes aufgefallen. Die Dateien waren gleich lang, aber die mp3 fing etwas später an. Gleichzeitig abgespielt, klang es wie ein Delay Effekt. Beim Vergrößern der Ansicht im Projektfenster, konnte man diese Abweichung auch deutlich erkennen. Am Anfang der Datei war eine kleine stumme Stelle und die Anschläge hatten einen sichtbaren Versatz gegenüber der WAV.

Somit sollte man von Anfang an mit WAVs arbeiten, denn bei einem Musikvideo sind es nicht nur die Schnitte selbst, die rhythmisch erfolgen sollten, sondern auch der Inhalt dazwischen. Durch den Versatz kann es schnell vorkommen, dass nach dem Audioaustausch die Bewegungen nicht mehr sitzen, wie sie sollten.

Am besten immer die Qualität nehmen, in der der Song auch produziert wurde, also den handelsüblichen WAV-Format mit 16/24/32(float) Bit und 44,1/48 kHz oder wie auch immer.

Hier der Unterschied zwischen mp3 und WAV:
Davinci4.jpg



DIE EIGENTLICHE ARBEIT:
Nachdem man das Videomaterial aufgenommen hat oder sich entsprechendes Material beschaffen hat, muss man sich mit den Inhalten vertraut machen. Den Song sollte man natürlich auch gut kennen, aber davon gehe ich aus, da dieser Erfahrungsbericht an die gerichtet ist, die eigene Werke visualisieren möchten.

Was man nun daraus macht und wie genau man vorgeht, dafür gibt es keine konkreten Vorgaben. Einen Workflow muss jeder für sich selbst finden und wie man die Schnitte setzt, obliegt der Kreativität des Einzelnen.

Es dürfte nicht schwer sein, im Netz entsprechende Tipps zu finden, wenn man denkt, dass man welche braucht. Ich halte mich dabei immer an den eigenen Geschmack. Wenn es mir gefällt, wird es womöglich auch jemand anderen gefallen, und was mir negativ bei anderen auffällt, das versuche ich nicht anzuwenden.

Das Programm selbst wird man erst kennenlernen, wenn man damit gearbeitet hat. Ich habe im ersten Video so viel wie möglich versucht einzubauen, damit ich mich mit den Funktionen vertraut mache. Beim nächsten Video kamen dann wieder neue Funktionen hinzu und beim Nächsten wieder etwas Neues, kombiniert mit dem Vertrauten.

Ich hoffe, dass ich behilflich sein konnte und wünsche viel Spaß bei der Videobearbeitung!

Hier noch der Link zu unserem Youtube-Kanal: https://www.youtube.com/@trivialdisorder


Edit (Bonus Gedanke):
Viele bauen die Lyrics direkt in das Video, als Untertitel, mit ein. Kann man machen. Man kann aber auch die Untertitelfunktion von Youtube nutzen. Haben wir bei unseren Videos auch gemacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
  • Interessant
Reaktionen: 3 Benutzer
moin,
- hast du mit deiner hardware schon erfahrungen im zusammenhang mit Fusion effekten gemacht?
- mischt du das audio in fairlight? ich mache das gesamte audio in reaper, und baue das fertige in Resolve ein und richte die videos (wobei ich deren tonspuren als syncronisationshilfe nehme) danach aus.
erst vor kurzem hab' ich die automatische syncronisation (auch ohne timecode) gefunden, ich weiß noch nicht, wie gut die funktioniert.
gruß, host
 
Was auch hilft, ist: Überhaupt nicht in h264 exportieren. YouTube frisst CineForm, ProRes, DNxHR direkt. Man muss dann halt aufpassen, ProRes nutzt nur einen eingeschränkten Dynamikbereich gemäß TV-Standard, CineForm hingegen die vollen 8, 10 oder mehr Bit. Vor allem in den Hauttönen ist der Unterschied deutlich sichtbar. Klar, der Upload von CineForm ist monströs, führt aber auch zum am wenigsten schlechten Ergebnis bei YouTube, erst recht, wenn sie dort re-encoden, weil sie mal wieder den Codec gewechselt haben. Das ganze kann man in einen MOV-Container stecken zusammen mit 24bit PCM Audio (aka WAV).
 
  • Gefällt mir
  • Interessant
Reaktionen: 4 Benutzer
Was auch hilft, ist: Überhaupt nicht in h264 exportieren.
Richtig - jedenfalls nicht für den YouTube upload. H.264 ist (wie auch HEVC/H.265, MPEG-2, AV1 und so) ein Codec, der mit zeitlichen Ähnlichkeiten arbeitet und seine Kompression daraus bezieht, dass ein folgendes Bild dem vorhergehenden "ähnlich" ist, so dass nur noch die Differenzen übertragen werden müssen. Wenn - wie in vielen Musikvideos - die Unterschiede (Edit: hier stand Ähnlichkeiten, das war Quatsch) groß sind, braucht das Verfahren ne Menge Bits, weil es viele Differenzen gibt. Für Bewegungen sind in den Codecs genügend "Coding Tools" vorhanden. Für Helligkeitswechsel leider nicht. Gerade eine simple Aufblende von Schwarz nach Bild kann eine H.264 Implementierung vor Herausforderungen stellen. Von Feuer, Explosion, Blitzlichtern ganz zu schweigen.

Für jede Art der Veröffentlichung sollte möglichst verlustarm "gemastert" werden. Im Audio ist das natürlich PCM, im Video wird im professionellen Bereich JPEG-2000 verwendet, aber auch mehr und mehr ProRes 422HQ und DNxHD / HR. CineForm wird eigentlich dort nur zum Datenaustausch mit SFX (Special Effects) Sektionen der Produktion benutzt, wenn das nicht gleich als DPX10 Einzelbilder geht. Für YouTube sind die "normalen", genannten Codecs völlig ausreichend.

Nen H.264 würde ich aus einem Schnittsystem tatsächlich nur ausrechnen, wenn ich "mal eben schnell" eine Vorab-Version per Datei verschicken will und als internes Arbeitsformat im System bietet sich an sich ProRes oder DNx an.

Wobei: Manche System können auch "AVC Intra" und sind damit sehr schnell und gut. "AVC Intra" ist eine H.264 Variante, der die zeitlichen Referenzen geklaut wurden, also nur I-Frames, so dass es keine Vorhersage von Bildern basierend auf Vorgängern gibt.
Rendereinstellungen die Key Frames auf "Every 1 Frame"
Im Prinzip ist das genau das hier. Jedes Frame ist eine Referenz für sich selbst und keinen Nachbarn. Der Vorteil daran ist, dass man für AVC Intra eine normale NVIDIA GPU verwenden kann und der die Coding Arbeit überlassen, so dass man mit einem schwächeren Rechner auskommt. ABER: Ein solches AVC / H.264 kann nicht auf jedem Endgerät (Handy) wiedergegeben werden, weil doch ne Menge Daten über die Busse fließen. Für Handy-Verwertung muss es leider irgendein normales AVC/H.264 (Long GOP) Format sein. Für Master Upload halt was Besseres
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
moin,
- hast du mit deiner hardware schon erfahrungen im zusammenhang mit Fusion effekten gemacht?
Hi!
An Fusion habe ich mich noch nicht rangetraut bzw. hatte noch keine Idee was ich damit machen könnte. Paar interessante Sachen sind mir zwar bei Youtube-Tutorials über den Weg gelaufen, aber es mangelte an der Motivation sie umzusetzen.

- mischt du das audio in fairlight? ich mache das gesamte audio in reaper, und baue das fertige in Resolve ein und richte die videos (wobei ich deren tonspuren als syncronisationshilfe nehme) danach aus.
Da ich ja die Musikvideos mit fremdem Material zusammenschneide, nehme ich unsere finale Audioversion und mache in Fairlight nichts mehr dran. Wenn ich mehrere Tonspuren verwenden würde, würde ich es wahrscheinlich auch in der DAW machen, frei nach dem Motto: Audioprogramme für Audio, Videoprogramme für Video.

_____________________________________

@SubbrSchwob und @scenarnick danke für die technische Erläuterung. Ich kenne mich da überhaupt nicht aus und nahm den H.264 weil er platzsparend ist und somit die Uploaddauer überschaubar bleibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Wobei: Manche System können auch "AVC Intra" und sind damit sehr schnell und gut. "AVC Intra" ist eine H.264 Variante, der die zeitlichen Referenzen geklaut wurden, also nur I-Frames, so dass es keine Vorhersage von Bildern basierend auf Vorgängern gibt.

Wenn Du genau kuckst, stellst Du fest, dass der TE das in seinem Programm eingestellt hat: Jeder Frame ein I-Frame (oft auch Keyframe genannt).

h264 ist nicht soo schlecht wie sein Ruf. Man muss nur eben – wie es meine Kameras machen – so um die 150mbps Bitrate nehmen. :p Dann ist es auch nahezu egal, welchen Encoder man verwendet.
 
Jeder Frame ein I-Frame (oft auch Keyframe genannt).
Genau das hab ich im Folgenden auch vereinfacht erläutert gehabt :)

h264 ist nicht soo schlecht wie sein Ruf. Man muss nur eben – wie es meine Kameras machen – so um die 150mbps Bitrate nehmen. :p Dann ist es auch nahezu egal, welchen Encoder man verwendet
De Facto sind viele der professionellen Kameras basierend auf H.264. SONY XAVC und Panasonic AVC Ultra sind hier zwei besonders populäre Formate, die mit recht hohen Datenraten (bei XAVC 4K Intra bis 600 mbps) arbeiten ein Chroma-Sampling von 4:2:2 verwenden (normal wird in der Übertragung 4:2:0 verwendet) und mit 10-bit Tiefe samplen. Innerhalb XAVC und AVC Ultra gibt es "Intra" und "Long GOP" Operating Points, die alle ihren Job sehr gut machen. H.264 ist noch immer das Arbeitspferd der Industrie.

Für Feature Film Produktionen werden allerdings andere Codecs (siehe oben) genutzt und die Kameras liefern "RAW" Output - vergleichbar unseren DSLR Kameras. Die Produktion erfolgt dann meist ProRes-basierend oder, wenn man ein AVID Haus ist, DNxHR. Der Datenaustausch in der Verwertung geht zum guten Teil noch über JPEG 2000, weil das auch (noch) das Kinoformat ist (DCI - Digital Cinema Initiative). Stichwort hier: Interoperable Master Format.

Für uns allerdings, deren Ziel ne YouTube Auswertung ist, ist das alles weitgehend overkill, aber "besser als default H.264 Ausgabe" darf es eben schon sein.
 
Ja leider sehe ich auch den Unterschied zwischen 4:2:2 (Export nach CineForm 422, oder h264) und 4:4:4 (Vollbild-Preview in meinem Leidwürgs, eeerm Lightworks NLE). Das ist halt der Fluch des trainierten Auges. Es hängt aber natürlich auch vom Material ab, ob ich das sehe. Ich habe auch Kameras, die ProRes machen… ich sehe den Hauptvorteil gegenüber h264 10bit bei hohen Bitraten darin, dass es den Rechner nicht so stresst beim Editing. Aber seit ich diese neue gebrauchte Xeon-Workstation habe, die 2 bis 3 Streams von h264 4K decoden kann, ist es mir auch nicht mehr wichtig.

Oft wird in Kamera-Gruppen auf Facebook diskutiert, wie Hollywood und die Filmindustrie das macht, usw., und das ist immer das Nonplusultra. Wenn man fürs Kino produziert: In Ordnung, gebt Euch die sehr teure Kante!

Die Realität ist, dass die meisten Leute nicht fürs Kino produzieren und dafür auch weder das entsprechende Material nutzen/mieten/kaufen noch den nötigen Zeitaufwand betreiben können. Schon allein die Storage-Lösungen für einen richtigen Kinofilm zuhause einzurichten, nunja…

Aber im Prinzip sind wir da ja auf einer Linie. Für YouTube: Naja, wenn's halt CineForm oder ein anderes gutes Intermediate-Format eh schon kann und mein NLE das ausgeben kann, dann ist es quasi eine Qualitätssteigerung für die Kosten einer längeren Upload-Zeit. Man muss beim Upload ja nicht zuschauen. Also kostet es quasi nix.
 
  • Gefällt mir
Reaktionen: 1 Benutzer

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben