Bandvideo Multicam + Multitrack Audio

rusher
rusher
Registrierter Benutzer
Zuletzt hier
04.01.24
Registriert
11.06.06
Beiträge
2.204
Kekse
7.170
Ort
Köln
Hey,
ich bin eigentlich nur im Audiobereich unterwegs, interessiere mich aber zunehmen auch für die Bild-Seite, besonders den Film. Ich habe vor einem halben Jahr ein Akustikduo recorded (Audio). Wir hatten auch eine Videocrew dabei. Das Video ist parallel zur Audioaufnahme entstanden. Was man hört ist also was man sieht. Weil das mein erstes Projekt in Zusammenarbeit mit Videoleuten war, wusste ich nicht so recht, wie wir optimalerweise kommunikativ bei Schnitten zwischen den Takes vorgehen, da weder der Takestart in der Audioaufzeichnung noch in jeder einzelnen Videokamera zu identischer Zeit stattfand. Dadurch war der Zeitaufwand in der Nachbearbeitung sehr groß. Wir haben jeden Take mit einem Klatschen und der gesprochenen Takenummer begonnen, um einen Synchronisierungspunkt zu haben, ab dem die Zeitrechnung beginnt. Ein Schnitt wurde im Nachhinein dann beispielsweise so kommuniziert:
Schnitt in Take 1 bei 1 Minutene 23 Sekunden 412 Millisekunden. Sprung in Take 3 bei 1 Minute 25 Sekunden 312 Millisekunden (es wurde ja ohne Metronom gespielt, insofern fanden die Sprünge zwischen den Takes nicht an denselben Zeiten innerhalb der jeweiligen Takes statt).
Das ist ein recht aufwendiges und vor Allem fehleranfälliges Verfahren. Weil wirs alle aber nicht besser wussten, haben wirs so gemacht.

Ich plane, in Zukunft häufiger Audio und Videoaufnahmen zeitgleich zu machen. Deswegen wollte ich mich informieren, wie das typische, professionelle Vorgehen in meinem Fall gewesen wäre. Frage 1: In welchem Format findet die Aufnahme üblicherweise statt? Ich denke, bei 24fps im Film wäre eine 48khz-Aufnahme und die Kommunikation über Samples die einfachste Art gewesen (rein hypothetisch, ich bin filmmäßig absolut unwissend). Wie wird es dann aber gehandhabt, wenn mit 30fps aufgenommen wird?

Frage 2: Gibt es für gewöhnlich bei derartigen Projekten eine Art "Master", der alle Aufnahmen (Audio und sämtliche Kameras) zeitgleich startet, um einen exakten Startpunkt zu haben.

Frage 3: Findet die Aufnahme für gewöhnlich in EINE Software statt und wird dort grob geschnitten, oder läuft der Schnitt ähnlich ab, wie ich ihn schon praktiziert habe: Zuerst Audioschnitt mit Schnittprotokoll, Übergabe an die Videofraktion uns Videoschnitt über den Audioschnitt.

Frage 4: Ich gehe davon aus, dass die alle Audio- und Videogeräte irgendwie geclockt werden müssten, damit die Aufnahmen bei längeren Filmstrecken nicht auseinanderlaufen. Wie ist da der Videostandard und wie läuft die Einrichtung praktisch ab?

Vielleicht hat irgendwer Erfahrungen oder kann mir Bücher / Filme empfehlen, die diese Thematik behandeln.
 
Eigenschaft
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Dem Namen nach, hab mich bisher nur nie damit außeinandergesetzt. Smpte-timecode könnte mein stichwort sein. Ich höre mich mal um. Wenn jemand noch weiterführende Infos hat, dann her damit!
 
Frage 1: In welchem Format findet die Aufnahme üblicherweise statt? Ich denke, bei 24fps im Film wäre eine 48khz-Aufnahme und die Kommunikation über Samples die einfachste Art gewesen (rein hypothetisch, ich bin filmmäßig absolut unwissend). Wie wird es dann aber gehandhabt, wenn mit 30fps aufgenommen wird?
In der digitalen Welt, vor allem wenns rein um Internet-Sachen geht, ist die Framerate eigentlich Wurst. 24fps kommen ursprünglich aus dem Kino, ruckelt ein bisschen mehr bei Schwenks und schnellen Kamerabewegungen (einige schwören auf diesen "Kino-Look"), 30fps aus Nordamerika, wo die Netzfrequenz 60 Hz beträgt.
In Europa sind 25 und 50fps gebräuchlich. Wenn man vorhat, das Material irgendwie auf DVD oder ins Fernsehen zu bringen, dann würde ich empfehlen 25 oder 50 Frames zu nehmen. Konvertierung zwischen Framerates (außer zwischen 24 und 25, das wird mit Geschwindigkeitsänderung gemacht) bringt immer Qualitätsverlust. Wenn das Equipment es bringt und man sich die Datenrate und den Speicherplatz leisten kann, dann würde ich mit 50fps aufnehmen.


Frage 2: Gibt es für gewöhnlich bei derartigen Projekten eine Art "Master", der alle Aufnahmen (Audio und sämtliche Kameras) zeitgleich startet, um einen exakten Startpunkt zu haben.
Es gibt die Möglichkeit Equipment über Timecode zu syncen und auf alle Aufnahmen den gleichen Timecode zu schreiben. Das heißt ein Gerät gibt den Takt für alle anderen Geräte vor und alle schreiben ihn in ihre Files. Aber dafür müssen alle Geräte Timecode unterstützen, das ist außerhalb des professionellen Bereichs eher selten. Im Audiobereich hat sich hier Broadcast Wave etabliert, hier wird der Timecode mit aufgezeichnet, was die Audioclips später im Schnitt direkt an die richtige Stelle springen lässt.

Hat man das nicht, muss man eigentlich zwingend mit einer Filmklappe arbeiten. Die meisten semiprofessionellen Audiorecorder bieten die Möglichkeit, Aufnahmen in einem vorher definierten Bennenungsschema abzuspeichern. Das heißt man startet bei Szene 1 mit Take 1, entsprechend wäre der Dateiname zB 01_01. Das teilt der Audiomensch dem Aufnahmeleiter mit, der schreibt das auf die Videoklappe und damit hat der Cutter später die Information, welchen Videoclip er mit welcher Audioaufnahme syncen muss.


Frage 3: Findet die Aufnahme für gewöhnlich in EINE Software statt und wird dort grob geschnitten, oder läuft der Schnitt ähnlich ab, wie ich ihn schon praktiziert habe: Zuerst Audioschnitt mit Schnittprotokoll, Übergabe an die Videofraktion uns Videoschnitt über den Audioschnitt.
Üblicherweise bekommt der Cutter alle Video- und Audiofiles, synct die Audiofiles zu den Videofiles, die er in seiner Sequenz nutzt (wenn sie nicht mit Timecode aufgenommen wurden), und übergibt an den Mischer ein Projekt in Form eines Datenaustauschformats wie OMF, AAF oder MXF. Dieses enthält (wenn richtig exportiert) neben dem geschnittenen Video alle verwendeten Original-Audiofiles (das heißt mit Fleisch an Anfang und Ende) inklusive Schnittliste, so dass beim Öffnen in einer DAW die Clips an den richtigen Stellen sitzen.



Wie man diese Geschichte auf dein Vorhaben überträgt, die Aufzeichnung einer Studioaufnahme mit unterschiedlichen Takes, da müsste man nochmal gut überlegen, aber auch da gibts sicherlich Wege und Möglichkeiten. In der DAW gibts ja schon einen Timecode, den kann man sicherlich irgendwie rausbekommen und ähnlich wie eine Bandmaschine Videokameras dazu syncen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Spannendes Thema! So wie ich das verstehe, wäre die Timecode Option die unkomplizierteste und am wenigsten aufwendige, was die nachträgliche Arbeitszeit angeht. Im Musikclip / Livevideo-Bereich gehe ich davon aus, dass zuerst die Musik geschnitten wird und sich anschließend der Videocutter nach den Audiofiles richten muss, oder? In diesem Fall: Ist es üblich, dass der Videocutter die Bilder rein optisch mit den Audiofiles abgleicht?

Wenn man ohne Synchronisation arbeitet: Besteht bei der Videoaufzeichnung ein ähnliches Problem wie beim Arbeiten ohne Wordclock im Audiobereich? Kann es passieren, dass das Bild der Audiodatei davonrennt oder umgekehrt?
 
Spannendes Thema! So wie ich das verstehe, wäre die Timecode Option die unkomplizierteste und am wenigsten aufwendige, was die nachträgliche Arbeitszeit angeht.
Ich hab nochmal nachgedacht. Das Problem wenn man den Timecode aus einer DAW verwenden will ist, dass er nicht eindeutig ist. Nimmt man mehrere Takes auf, hat man mehrere Clips mit identischem Timecode. Das kann zu Verwechslungen führen.

Im Musikclip / Livevideo-Bereich gehe ich davon aus, dass zuerst die Musik geschnitten wird und sich anschließend der Videocutter nach den Audiofiles richten muss, oder?
Bei Musikvideos ist ja der Song schon fertig und wird beim Videodreh als Playback benutzt. Hier ist es vermutlich am einfachsten den aufgezeichneten Ton der Kameras zu verwenden und die Wellenformen der Videoclips zur Wellenform des fertigen Songs synchron zu schieben.

Bei Live-Produktionen von Konzerten etc. ist ja in der Regel auch professionelle Fernsehtechnik am Start, so dass alle Geräte synchron nach Studiotakt laufen.

In diesem Fall: Ist es üblich, dass der Videocutter die Bilder rein optisch mit den Audiofiles abgleicht?
Optisches abgleichen funktioniert nur mit sehr kurzen optischen wie akustischen Impulsen zB bei Schlagzeugern gut. Sänger, Gitarren usw. synchron zu bekommen ist unglaublich nervig.

Wenn man ohne Synchronisation arbeitet: Besteht bei der Videoaufzeichnung ein ähnliches Problem wie beim Arbeiten ohne Wordclock im Audiobereich? Kann es passieren, dass das Bild der Audiodatei davonrennt oder umgekehrt?
Ja, das passiert. Am Anfang fällts einem nicht unbedingt auf, aber irgendwann denkt man sich da stimmt irgendwas nicht. Das Problem ist, das ist ein schleichender Prozess, wenn man irgendwo einen Schnitt macht und es wieder zurechtschiebt, hat man immer wieder kleine Sprünge drin.


Ich denke für dein Vorhaben wäre ein optischer Abgleich von Tonspur aus Kamera und Tonspur der fertigen Aufnahme am sinnvollsten.
 
Ich hab nochmal nachgedacht. Das Problem wenn man den Timecode aus einer DAW verwenden will ist, dass er nicht eindeutig ist. Nimmt man mehrere Takes auf, hat man mehrere Clips mit identischem Timecode. Das kann zu Verwechslungen führen.
Sollte aber doch funktionieren, wenn man die Takes im selben Projekt hintereinander spielt. Zumindest, wenn die Aufnahme keine Vorbereitung im Projekt braucht. Wenn man mit Click aufnimmt und ohnehin nacheinander einspielt, kann man aber auch das Video faken oder halt von diversen Takes die Videos mischen, das ist dann ja unproblematisch. Die gleichzeitige Videosynchronität ist ja vor Allem wichtig, wenn kein Click dabei ist und die Songs timingmäßig gedehnt werden.

Ja, das passiert. Am Anfang fällts einem nicht unbedingt auf, aber irgendwann denkt man sich da stimmt irgendwas nicht. Das Problem ist, das ist ein schleichender Prozess, wenn man irgendwo einen Schnitt macht und es wieder zurechtschiebt, hat man immer wieder kleine Sprünge drin.
Richtig, arbeitet dabei ein externer Timecodemaster bzw die DAW als Master wie eine Clock (eben wie Wordclock bei Audio) oder braucht man da weitere Gerätschaften?

Ich denke für dein Vorhaben wäre ein optischer Abgleich von Tonspur aus Kamera und Tonspur der fertigen Aufnahme am sinnvollsten.
Je nachdem, ich glaube, dass meine Canon 7d Timecode kann (nur ne Spiegelreflexkamera, die ich auch nicht für Videos gekauft habe, aber man könnte es ja probieren...). Muss mich mal informieren.
 
ups, post im falschen thread
 
Zuletzt bearbeitet:
Richtig, arbeitet dabei ein externer Timecodemaster bzw die DAW als Master wie eine Clock (eben wie Wordclock bei Audio) oder braucht man da weitere Gerätschaften?
Die meisten DAWs können einen MTC ausgeben, man braucht aber noch entsprechende Interfaces, die diesen Timecode in das Format bringen, das das Videoequipment benötigt. Bei modernen bandlosen Kameras wird der SMPTE Timecode meist über BNC-Kabel ein/ausgegeben.

RME hat zB Erweiterungen für die PCI-Karten oder das FF800. Für Avid gibts zB das Sync HD.

Je nachdem, ich glaube, dass meine Canon 7d Timecode kann (nur ne Spiegelreflexkamera, die ich auch nicht für Videos gekauft habe, aber man könnte es ja probieren...). Muss mich mal informieren.
Ich kenne mich mit DSLRs nicht wirklich gut aus, dass sie Timecode ein oder ausgeben können wäre mir jedoch neu. Das können üblicherweise nur Camcorder ab dem SemiPro-Bereich


Insgesamt denke ich, dass der Aufwand, Kameras mit der DAW zu syncen, für den angstrebten Zweck ziemlich hoch ist und die manuelle, optische Synchronisation von Wellenformen in der NLE-Software einfacher ist.
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben