Wir haben was Dummes gemacht... Aufnahmen von mehreren Rechnern zusammenführen?

saTa
saTa
Registrierter Benutzer
Zuletzt hier
08.03.20
Registriert
09.04.04
Beiträge
2.706
Kekse
4.929
Ort
München
Hallo,

Wir haben letztens einen ganzen Tag lang recht aufwändig und an cooler Location live gespielt und das von Freunden mit DSLRs filmen lassen. Damit der Ton auch stimmt, haben wir's sauber mitschneiden wollen.

Jetzt habe ich mit meinem Setup leider nur 8 Kanäle und mein Kollege nur 4. Dachten wir, nehmen wir einfach mit beiden auf und kombinieren's hinterher!
So weit so gut, blöd nur: Die Spuren laufen auseinander. Wenn ich den Anfang (Klappe) exakt aufeinander setze, ist bei Minute 3 das Drumset (mit den vier Kanälen des zweiten Macs aufgenommen) fast einen halben Beat vor dem Rest der Band. Gibt's irgendeine Möglichkeit, die Spuren wieder zu synchronisieren?

Technische Details:
Rechner: 2x MacBook Pro
Interfaces: M-Audio FW1814 und ProFire 610
Settings: Bei beiden 24bit/96kHz eingestellt
Software: Logic Pro 9

Theorie: Das Tempo hatte ich um Metadatenwirrwarr zu vermeiden sicherheitshalber auch bei beiden DAWs eingestellt... Der Drummer spielte aber nach dem Klick aus dem Mac mit 8-Kanal-Interface.
Kann's sein, dass der Clicktrack nicht 100%ig ist und die DAW die Audiospur da irgendwie draufbiegt und daher meine Probleme rühren? Oder sind die Bitraten einfach nicht absolut genau und die Unterschiede rühren daher?

Die momentan beste Idee, die wir haben, ist die Drums per Flextime irgendwie an den Rest zu biegen, was allerdings tagelange mühselige Klickerei bedeuten würde.

Hat irgendjemand eine bessere Idee? Machen Soundbeispiele Sinn, um das Problem zu verdeutlichen?

Danke!
 
Eigenschaft
 
Ich würde folgendes machen:

Alle Spuren in Logic.
Die Spuren mit einem passenden Flextime-Algorithmus versehen.
Rechts oben im Arrange Snap auf Samples.
Dann am Rechten Unteren Ende der Region klicken und ziehen aber dabei alt gedrückt halten. (So wird das Längenveränderungstool zum Dehnen/Stauchen-Tool.)

Dabei einen Transienten im Auge behalten, an dem man sich orientieren kann.

Man kann dabei mehrere Regionen auswählen, sollte aber für die "Hörkontrolle" alle bis auf ein stummschalten. Es braucht vielleicht ein paar Versuche, aber die Tempounterschiede sind ja konstant und können deswegen gleichmäßig über die ganze Regionlänge (und für alle Regionen gleichzeitig) angepasst werden.

Clemens
 
  • Gefällt mir
Reaktionen: 4 Benutzer
Zum Glück war die Snare noch recht deutlich auf dem Gesangs-Mikro zu hören... hab's jetzt mal so gemacht, dass ich nur von den Drum-Spuren die ersten Schläge so hingeschoben hab, dass es gepasst hat und den letzten dann so hingestreckt (rechts oben auf die Spur, dann einfach als würde man eine Region verlängern, bei aktiviertem Flex-Tool).

Danke... :)
 
Achtet darauf, dass Ihr die Spuren beim Dehnen wirklich so genau wie möglich hinbekommt, im Idealfall samplegenau. Gerade wenn Ihr Übersprechen zwischen den Spuren der beiden Interfaces habt, gibt es durch die Phasendrift Auslöschungen (und Anhebungen, Hallo Telefunky;)) im Frequenzgang, die sich über die Zeit auch noch ändern.

Jetzt habt Ihr etwas Wichtiges über Digitalaudio gelernt, was leider im Zeitalter des Plug&Play und einfachen Zusammenstöpseln der verschiedenen Komponenten viele nicht mehr realisieren: für eine Mehrspuraufnahme müssen alle A/D-Wandler im gleichen Takt arbeiten.

Dabei wäre es ganz einfach gewesen und so könnt Ihr es auch beim nächsten Mal machen: Stellt eine SPDIF-Verbindung zwischen den beiden Interfaces her und konfiguriert eines der Interfaces auf "Interne Clock" und das andere als Clock-Slave, der seinen Takt vom SPDIF-Eingang bezieht. Dann driftet nix mehr und die Nacharbeit beschränkt sich darauf, die Klappe zur Deckung zu bringen. Der Rest läuft dann synchron.

Banjo
 
  • Gefällt mir
Reaktionen: 6 Benutzer
Ja, auf die Idee mit dem SPDIF und externer Clock kam ich leider erst als ich das Problem entdeckte...

Noch eine andere Fragen: Wir hatten zwischendrin die beiden Interfaces mit einem Midikabel verbunden und das eine Logic eingestellt, dass es den MTC und all das extern kriegt. Das war toll! Als ich auf meinem Mac "record" drückte, fing der andere auch an, aufzunehmen! Allerdings war das Schlagzeug beim Abspielen aus irgendeinem Grund gute 30-40% schneller, obwohl in beiden Projekten das gleiche Tempo eingestellt war. Woher rührte das?

Und noch eine Frage: Heißt das alles, die Kollaboration über das Internet ist mehr oder minder unmöglich? Zum Songs schreiben machen wir immer Projekte, in denen jeder daheim rumtut. D.h. ich starte ein Projekt mit Drums, Gitarre... der Bassist spielt daheim eine Spur ein, der Sänger singt eine ein etc... bisher ist uns das Auseinanderlaufen noch nie so aufgefallen wie jetzt, weil halt die Drums komplett vom Rest getrennt waren. Aber eigentlich müsste das Problem ja immer bestehen, wenn wir sowas machen, oder? Und Lösung wird's da keine geben?
 
Wenn man die Dateien austauscht, besteht das Problem nicht. Das Abspielen der Backings und das Aufnehmen der neuen Spur passiert ja auf dem selben Interface, da bleibt das synchron zueinander. Bloß mit zwei nicht synchronisierten Interfaces gleichzeitg aufnehmen ist ein Problem.

Banjo
 
  • Gefällt mir
Reaktionen: 2 Benutzer
D.h. jedes mal, wenn der Bassist mein Projekt aufmacht, verbiegt's das bei ihm leicht, seine Bassspur ist dann aber genau so verbogen und wenn ich mein altes und sein neues Zeug auf meinem Rechner wieder öffne, ist's wieder in meine Welt gebogen und passt? Nur, wenn wir jetzt beide gleichzeitig daheim sitzen und irgendwas auf 140bpm aufnehmen und dann zusammenführen würden, würde es nicht gehen?

Wie ist das eigentlich mit den Tempoinformationen in den .aiffs... Ich hatte als zwischenzeitlichen Lösungsversuch ein ganz neues Projekt aufgemacht, in das ich alle Audiodateien ohne Tempoinformationen importiert habe. Da war das Problem zwar nicht gelöst, aber anders... es hat sich unterschiedlich verschoben zum originalen Projekt. Und irgendwann blick ich dann zwischen "Follow Tempo", "Beat Mapping" und "Flex" nicht mehr durch... die komplette Tempospur zu ignorieren ist unter Logic keine Option, oder? Sagen wir ich nehme eine Band bei der Probe auf und sie spielen ohne Klick. Logic zwingt das immer in seine Welt, irgendwie?

Hast du außerdem irgend einen Gedanken zu der MIDI-Kopplung (s. obiger Post...)? Das wäre schon schön gewesen, hätte es funktioniert. Aber die Spuren wurden auf dem einen Rechner drastisch beschleunigt (fast wie so ein Mickey-Maus-Effekt) und ich weiß nicht so recht, warum.

Vielen Dank für die Hilfe so weit jedenfalls... und entschuldigt meine scheinbare Ahnungslosigkeit. Eigentlich kenn ich mich mit dem Logic recht gut aus... nur diese Tempo- und Synchronisations-Basics hab ich irgendwie verpennt zu lernen...
 
Die bpm-Angabe (das Songtempo) und MIDI Timecode haben mit dem Audiotakt (zum Beispiel 44,1 oder 48 kHz) nichts zu tun, das sind zwei paar Stiefel. Das erstere steuert das Timing des Songs, zum Beispiel bei MIDI-Drums und Automation. Der Sampletakt legt fest, wie oft pro Sekunde der AD-Wandler das analoge Eingangssignal abtastet und eine digitale Zahl draus macht, die der Computer dnn abspeichert.

Die MIDI-Timecode-Kopplung ist auch wichtig, weil sonst in der Tat der Songtakt, zum Beispiel von Drumsynths auseinander driftet, wenn man an zwei PCs arbeitet. Alleine dadurch wird aber der Audiosampletakt noch nicht synchron.

Zu der Sache mit dem Mickey-Maus-Effekt: wenn nicht nur das Tempo daneben war, sondern auch die Tonhöhe, kann es sein, dass auf den beiden Rechner verschiedene Samplerates eingestellt waren, zum Beispiel 44,1 und 48 kHz. Das muss auf jeden Fall gleich sein. Gleich eingestellte Sampleraten sind aber noch nicht 100% gleich, wenn keine Synchronisation, in Eurem Fall über SPDIF erfolgt.

Die Interfaces erzeugen ihren Takt mit einem Quarzoszillator und die haben minimale Abweichungen in ihrer Frequenz, sonst würden alle Quarzuhren auf der Welt komplett gleich laufen. Wenn dann ein Quarz mit 44101 Hertz läuft und der andere mit 44099 Hertz, nimmt eben das eine Interafce 44101 Samples pro Sekunde auf und das andere 44099. Das das hinterher nicht zusammengeht, leuchtet irgendwie ein, auch wenn die Abweichungen in der Realität nicht so groß sind, wie in meinem Beispiel.

Banjo
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Danke... prinzipiell ist mir das klar, ich hege allerdings leicht den Verdacht, dass das Problem nur zum Teil an dem unterschiedlichen Audiotakt liegt. Es hatte sich ja auch unterschiedlich verschoben, als ich mal alle Audiospuren unter Ausschluss der Tempoinformation in ein frisches Projekt gepackt habe.

Die Rechner waren definitiv beide auf 24 bit, 96 kHz eingestellt, daran haben wir gedacht... an SPDIF leider nicht... Drumsynth etc. haben MIDI allerdings von dem Rechner bekommen auf dem ich alles außer Drums aufgenommen habe und jetzt auch arbeite, d.h. die MIDI-Synchronisation mit den Dingern stimmt schonmal auf jeden Fall.

Die rein neugierdehalber gestellte Frage bleibt, ob die Verschiebung im Audiomaterial nur an den unterschiedlichen Audiotakt-Clocks liegt oder ob da noch was anderes im Argen ist. Fürs nächste Mal.

Und warum die MIDI-Kopplung der beiden Rechner zu so wirren Ergebnissen führte (es hat auch mal funktioniert und mal nicht....)
 
Also wenn die Tonhöhe passt, hat es nix mit verschiedenen Samplerates zu tun (44,1 vs. 48 oder 88,2 vs. 96) und Ihr habt das ja anscheinend auch richtig eingestellt.

Wenn per Mikrofon aufgenommes Audiomaterial auseinanderdriftet, liegt das definitv am asynchronen Audiotakt.

Zum Thema MTC-Kopplung sollte ich lieber nicht spekulieren, damit und mit Logic kenne ich mich in der Praxis nicht aus. Da muss ein anderer bei, der sich damit schon beschäftigt hat...

Banjo
 
Hm, ja das mit der Tonhöhe ist ohne direkten Vergleich bei Drums jetzt nicht so zweifelsfrei zu entscheiden... aber gut. Ich bieg's mal weiter hin. :)

Besten Dank nochmal.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben