Warum nicht MIDI beim Mixdown ?

turko
turko
Helpful & Friendly User
HFU
Zuletzt hier
19.04.24
Registriert
30.09.08
Beiträge
5.463
Kekse
23.184
WENN die DAW es schafft, das ruckelfrei, ohne Hänger und Stottern zu gewährleisten, was spricht dann dagegen, bis zum Mixdown auf der MIDI-Ebene zu bleiben ?

Allenthalben lese ich nämlich den Ratschlag, Midispuren doch vorher zu bouncen ... aber ohne (für mich stichhaltige) Begründung dafür.

Ich persönlich will gern bis zuletzt die Kontrolle über das Midi-Geschehen behalten ... gerade in Verbindung mit anderen Audiospuren (Vocals ...). Mal einen einzelnen Ton länger, leiser oder später machen, kann da im Gesamtklang eine signifikante musikalische Verbesserung bringen ... warum also sollte man sich dieser Möglichkeit berauben ?

Bin dankbar für neue Einsichten.

Thomas
 
Eigenschaft
 
Der erste Vorteil ist natürlich, dass so Rechenkapazität freigegeben wird, aber das hast du ja als Voraussetzung ausgeklammert.
Ich denke, es hängt ansonsten von den verwendeten Instrumenten ab. Sollten da irgendwelche Zufallsgeschichten eine Rolle spielen, ist es zur Bearbeitung wohl hilfreich, wenn man eine in sich gleichbleibende Version hat.
 
Ich höre das zum ersten Mal. Wo kommt diese Info denn her?
Ich hatte mit MIDI bis zum Mixdown bisher nie Probleme und auch nicht das Gefühl, dass irgendwie Sound verloren geht oder beim Mixdown Fehler passieren. Klar, beim separaten Bouncen kann sich der Rechner nur auf die eine Spur konzentrieren und beim Mixdown so vieles parallel passieren, aber das sollte doch eigentlich keine Probleme machen. Ich habe jedenfalls noch keinen Schluckauf, Fehler oder so bemerkt...
 
Es gibt Plugins, wo Klangparameter per Zufall gesteuert werden, damit das gespielte ein wenig lebendiger klingt. Dadurch hört sich das dann bei jedem Druck auf die Play-Taste leicht anders an. Drum-Plugins sind solche Kandidaten. Da macht es schon Sinn, zu Bouncen auch wenn das meist nur Nuancen sind.

Aber normalerweise kommt dieser Rat daher, dass man klassischerweise bei der Produktion in Phasen vorgeht. Zuerst nimmt man alles auf, was man braucht. Dann editiert man alles, bis es passt und schließlich wird gemixt, bis es gut klingt. Als Sahnehäubchen oben drauf kommt dann das Mastering.

Natürlich muss man bei der Rechenleistung heutiger Computer diese strikte Trennung nicht mehr durchführen, vor allem wenn man gleichzeitig Musiker, Toni und Produzent ist. Es empfiehlt sich aber trotzdem zwischendurch einfach eine klare Kante zu ziehen, wenn man eine Phase abgeschlossen hat. Denn wenn man immer alle Möglichkeiten offen hat, dann verstrickt man sich sehr leicht und man wird erfahrungsgemäß einfach nicht fertig mit einem Projekt. Wenn man zum Beispiel beim Mixing nur noch Audiospuren hat, kommt man nicht mehr in Versuchung, mal eben zu hören ob da nicht doch dieses oder jenes Synthi-Preset oder Parameter besser klingen könnte (was es fast nie tut).
 
  • Gefällt mir
Reaktionen: 8 Benutzer
... ich glaube, der Ratschlag kommt aus älteren Zeiten, in denen erstens die Rechnerkapazität ein Problem war, Synchronisieren via Timecode stattfand und die Soundmodule eng begrenzte Speicherplätze hatten.
Da war's wohl sinnvoll, DEN Sound, mühsam erfrickelt, gleich auf Band zu bannen.

Als ich meinen SAE-Abschluss gemacht hab, immerhin bald 15 Jahre her, wurde das schon nicht mehr gelehrt.
 
WENN die DAW es schafft, das ruckelfrei, ohne Hänger und Stottern zu gewährleisten, was spricht dann dagegen, bis zum Mixdown auf der MIDI-Ebene zu bleiben ?

Allenthalben lese ich nämlich den Ratschlag, Midispuren doch vorher zu bouncen ... aber ohne (für mich stichhaltige) Begründung dafür.


Die offensichtlichste Begründung hast Du ja schon selbst indirekt genannt. Und diese ist auf jedenfall stichhaltig, auch wenn wohl nicht relevant für dich, das sind aber zwei unterschiedliche Dinge.

Kannst ja mal testweise alle virtuelle Audio-Kanäle rendern und dir dann den Gleichspannungsversatz in den Audiodateien anzeigen lassen. Wirst bestimmt überrascht sein.
 
... und dir dann den Gleichspannungsversatz in den Audiodateien anzeigen lassen. Wirst bestimmt überrascht sein.

Ich danke für den Tip, ... verstehe aber nur Bahnhof, bzw. verstehe nicht, worauf das hinausläuft ... und nicht den tieferen Sinn.

Im übrigen danke ich allen Beteiligten für ihre Kommentare. Kommentare, die mich summa summarum darin bestärken, meine bisherige Praxis beizubehalten ...

LG, Thomas
 
Da gab's mal nen Sänger, der hat ein Album über's Telefon eingesungen, weil er direkt vorher eingeknastet worden war. Ohne Freigang.
Hat sich auch verkauft!

Was ich sagen will ist: Am Ende muss es so klingen wie Du es für richtig hälst, und einen "richtigen" bzw. "falschen" Weg dahin gibt es nicht.
Probier's doch einfach mal bei einem finalen Mixdown aus, einmal MIDI bis zum Ende, einmal direkt vorher einzeln in Audio wandeln.
Und dann vergleiche, und vertrau' Deinen Ohren und Deinem Geschmack!
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Probier's doch einfach mal bei einem finalen Mixdown aus, einmal MIDI bis zum Ende, einmal direkt vorher einzeln in Audio wandeln.
Und dann vergleiche, und vertrau' Deinen Ohren und Deinem Geschmack!

Genau das habe ich schon hinter mir ... und - für mich - ist es KEIN VERGLEICH, will heißen, ich bevorzuge EINDEUTIG, auf der MIDI-Ebene zu bleiben. Was mich interessiert hätte ist, ob es TECHNISCHE Gründe dagegen gibt ... nicht welche des Workflows oder der "Arbeitsphilosophie"

@ signalschwarz: Habe mich mittlerweile schlau gemacht. Jetzt verstehe ich immerhin, was mit DC-Offset gemeint ist. Was ich aber nicht verstehe ist, was das mit der Verwendung von virtuellen Instrumenten im Besonderen zu tun haben soll ... Wäre für Aufklärung dankbar ...

Thomas
 
Hallo Turko,

Das Umwandeln in Audio kann dann Sinn machen, wenn es beim Mixdown Probleme gibt (Aussetzer z.B.). Denn bedenke, dass ein Offline Mixdown häufig schneller geschieht als das Projekt in Echtzeit lang ist. Da kann es besonders bei Samplern dazu kommen, dass bei der Echtzeitwiedergabe zwar alles in Ordnung ist, aber beim Offline Rendern, welches dann in Abhängigkeit zum Größe und Komplexität schneller sein kann, zu Fehlern kommt. BFD2 von Fxpansion ist z.B. so ein Kandidat. Netterweise hat FXpansion einen Offline Modus eingebaut. Dieser sorgt dafür, dass die DAW warten muss, bis alle benötigten Audiodaten für den Mixdown zur verfügung stehen. Ich hatte nämlich häufiger das Problem besonders bei großen Drumkit mit vielen Velocity changes. Der ein oder andere Schlag war nach dem Mixdown nicht vorhanden oder hatte Artefakte. Nach aktivieren des Offlinemodus war das Problem behoben. Aber nicht alle Sampler verfügen über so eine Funktion.
 
Danke für den Hinweis.

Aber derartiges ist bei mir noch nie aufgetreten.

LG, Thomas
 
Was DC-O ist, weisst du nun, also brauch ich da nichts mehr zuzuschreiben, oder?

Schon bei Einzelspuren auf einen eventuell vorhandenen Gleichspannungsversatz zu achten und gegebenfalls zu entfernen, ist für mich dasselbe wie bei der Arbeit mit einer Bandmaschine darauf zu achten, dass deren Köpfe und das verwendete Band korrekt eingemessen sind. Hintergrund ist also, dass das Audiomaterial korrekt wiedergegeben wird (im Fall der Bandmaschine beträfe das natürlich auch die Aufnahme) und somit nachgeschaltete Prozessoren auch ebenso korrekt arbeiten können. :)

Als ich zum erstenmal bemerkte, dass auch bzw. gerade bei Spuren die aus virtuellen Klangerzeugern stammen teils massive DC-Os vorliegen, hat mich das sehr überrascht, weil es eigentlich nicht logisch bzw. nachvollziehbar ist, warum das Signal "schmutzig" aus einer digitalen Klangsynthese kommt.
 
@Signalschwarz: Was ist denn das Problem bei DC-Offsets?

Natürlich, wenn sie in der Summe die Hälfte der Amplitude ausmachen, dann ist das Mist. Aber bei sehr, sehr geringen Anteilen wird das allerhöchstens die Lautstärke und Maximalauflösung des Tracks (begrenzt durch die digitale Quantisierung) verringern, weil die tatsächliche Nulllinie der Schwingung nach oben/unten rutscht und damit weniger Differenz bis zum Maximalwert bleibt. Ob man das dann hört? Ich glaube es kaum - wie gesagt: Ich meine hier nur kleine Offsets.

Spätestens im DA-Wandler oder Verstärker hat man einen Kondensator (oder Output-Transformator) drin, der solche DC-Anteile entfernt. Also sollten doch sehr kleine DC-Offsets kein Problem sein.

(Das heißt natürlich nicht, dass man sie deswegen drin lassen sollte - mir geht es eher darum, ob das aus irgendwelchen anderen Gründen schlecht ist, sehr kleine Offsets drin zu haben)
 
Das funktioniert genau so gut mit einem virtuellen Kondensator in der DAW: Einfach einen Hochpass bzw Low-Cut mit niedriger Frequenz auf die Spur und weg ist der DC.
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben