Wie mischt und mastert ihr?

  • Ersteller Drache81
  • Erstellt am
D
Drache81
Registrierter Benutzer
Zuletzt hier
11.03.19
Registriert
09.09.07
Beiträge
96
Kekse
1.068
Ich bin mir nicht sicher ob ich richtig vorgehe beim Abmischen und Mastern. Deswegen will ich euch mal relativ genau beschreiben wie ich das mache. Denn ich bin eigentlich meistens sehr unzufrieden mit meinen Ergebnissen. Wird mal ganz gut, dann aber wieder grottenschlecht!

Ich spiele hauptsächlich Rockmusik. Also E-Gitarren, E-Bass und „echtes“ Schlagzeug sind die Hauptinstrumente!
Meine Software zum Aufnehmen ist Cubase SX 2!
Dort mische ich natürlich auch ab. Nur weiß ich nicht ob ich da auch richtig vorgehe. Wenn ich z.B. eine Gitarrenspur aufnehme achte ich darauf sie eher leise als laut aufzunehmen. Übersteuerungen kann man ja nicht mehr korrigieren aber durch den Befehl „Normalisieren“ kann man die Lautstärke ja schon mal automatisch anpassen.

Dann benutze ich den EQ im Cubase. Am besten die EQ-Kurve. Wenn es sich dann einigermaßen gut anhört setze ich dann einen Kompressor drüber.

Dazu benutze ich den Muliband Compressor im Cubase. Dort sind Voreinstellungen für E-Bass, E-Gitarre usw. Meist sind die Voreinstellungen aber zu übertrieben und es übersteuert. Also muss man halt runterregeln.
Als nächstes regle ich die Lautstärke im Mixer bei allen Spuren. Dann stelle ich den Mixer auf –20dB damit auch kein Signal übersteuert extrahiert wird.

Dann extrahiere ich die Spuren als WAVE-Datei.

Als nächstes öffne ich ein neues Projekt im Cubase und füge die abgemischte Spur ein. (Benutzt ihr zum Mastern evtl. andere Programme?)
Danach normalisiere ich die Spur!
Nun verwende ich nochmals den Multiband Compressor. Dann noch Hüllkurven, Fade-Ins, schneiden usw. und wieder als WAVE-Datei extrahieren und fertig.

Schön wäre auch wenn ihr Tipps habt welche Frequenzen ihr an oder abhebt bei den einzelnen Instrumenten und Spuren! Ich mach das immer nur spontan per Gehör. Wahrscheinlich hört sich deshalb das ganze oft matschig an.

Also ich bin sehr gespannt auf eure Antworten. Und bitte weist mich auf Fehler hin die ich wahrscheinlich tausendfach hier aufgelistet habe!
 
Eigenschaft
 
Wenn ich z.B. eine Gitarrenspur aufnehme achte ich darauf sie eher leise als laut aufzunehmen.

Soweit, sogut.

Übersteuerungen kann man ja nicht mehr korrigieren aber durch den Befehl „Normalisieren“ kann man die Lautstärke ja schon mal automatisch anpassen.

Der Befehl normalisieren hat eigentlich selten was beim Abmischen zu suchen.

Dazu benutze ich den Muliband Compressor im Cubase. Dort sind Voreinstellungen für E-Bass, E-Gitarre usw. Meist sind die Voreinstellungen aber zu übertrieben und es übersteuert. Also muss man halt runterregeln.

Ein Multibandkompressor gehört nicht unbedingt zu den allereinfachsten Effekten im Studiobetrieb. Presets durchzuzappen ist auch nicht wirklich das Mittel der Wahl.
Verwend doch einfach einen "normalen" (singleband)kompressor. Eigne dir an was die einzelnen Regler bewirken und lerne/übe damit umzugehen.

Dann stelle ich den Mixer auf –20dB damit auch kein Signal übersteuert extrahiert wird.

Ich würde da keinen fixen Wert nehmen sondern dem Umständen (=anderen Spuren) entsprechend regeln (ausgehend von 0).

(Benutzt ihr zum Mastern evtl. andere Programme?)

Ja, aber das tut wenig zur Sache. Mit Cubase hast du auch die meisten der benötigten Funktionen.

Danach normalisiere ich die Spur!

Schon wieder...

Nun verwende ich nochmals den Multiband Compressor.

Schon wieder... ;)
Wieder einmal Presets?

Schön wäre auch wenn ihr Tipps habt welche Frequenzen ihr an oder abhebt bei den einzelnen Instrumenten und Spuren! Ich mach das immer nur spontan per Gehör. Wahrscheinlich hört sich deshalb das ganze oft matschig an.

Allgemeine Frequenzangaben bringen überhaupt nichts; Abhängig von Aufnahme, Instrument, Stimmung, etc.. sind das ja immer andere. Genau das ist auch der Grund, warum Presets nicht den Königsweg darstellen.

->
Arbeitsweise von Effekten lernen.
OHREN AUF, üben!
 
Normalisieren berechnet Durchschnittswerte und hebt die Lautstärke der Spur dann an. Das kann zu Klangveränderungen und Dynamikverlust führen. Deswegen würde ich das niemals machen. Was heisst denn "leise" aufnehmen? Nimmt man zu leise auf, hat man eine schlechte Signal-To-Noise-Ratio, nimmt man zu laut auf, clippt es. Irgendwo in der Mitte liegt der Königsweg.

Bei Gitarrenspuren braucht man keinen Multiband-Kompressor, da tut's ein normaler auch. Die Presets sind meistens nutzlos, stelle es Dir einmal selber ein und nehme dann das immer wieder als Vorlage.
 
Hi,

wenn ich einen Track fertig habe, dann exportiere ich alle Spuren als Wave.
Danach öffne ich ein neues Projekt und füge alle Spuren hinzu.
Erst jetzt mische ich ab.
Ich fange meistens mit dem Bass(gitarrre) an. Danach kommt die Bassdrum.
Wenn diese beiden funktionieren, dann kommen die restlichen Drums.

Jetzt steht das Fundament.

Danach Vocals und dann der Rest (Gitarre, Synthesizer etc.)

Ich habe Logic Studio, aber ohne meine UAD 1 Plugins geht bei mir nichts. Ich liebe einfach diese Plugins (Compressoren, EQ). Bei mir wird so gut wie alles komprimiert. Einen Multiband Compressor benütze ich nicht.
 
So unterschiedlich kann man herangehen. Meist balanciere ich erst mal den Gesang so aus, wie es sein soll, und passe dann "die Band" an.
Normalisieren sollte eigentlich nix verändern, außer der Lautstärke, da ja nur der Abstand vom höchsten Pegel zu (i.A.) 0dB ermittelt wird, und dann die ganze Datei dorthin gerechnet wird.
Allerdings verwende ich diese Funktion nur beim Aufarbeiten alter Platten oder Kassetten, und nicht beim Mix, geschweige beim mastern. Wobei ich immer etwas vorsichtig mit dem Begriff mastern bin, seitdem ich begriffen habe, daß das, was die meisten hier(inklusiver meiner selbst) betreiben, vielleicht am premastering kratzt, aber vom wirklichen mastern soweit entfernt ist wie das Schwein vom Fliegen.
 
So unterschiedlich kann man herangehen. Meist balanciere ich erst mal den Gesang so aus, wie es sein soll, und passe dann "die Band" an.
Normalisieren sollte eigentlich nix verändern, außer der Lautstärke, da ja nur der Abstand vom höchsten Pegel zu (i.A.) 0dB ermittelt wird, und dann die ganze Datei dorthin gerechnet wird.
Allerdings verwende ich diese Funktion nur beim Aufarbeiten alter Platten oder Kassetten, und nicht beim Mix, geschweige beim mastern. Wobei ich immer etwas vorsichtig mit dem Begriff mastern bin, seitdem ich begriffen habe, daß das, was die meisten hier(inklusiver meiner selbst) betreiben, vielleicht am premastering kratzt, aber vom wirklichen mastern soweit entfernt ist wie das Schwein vom Fliegen.

Normalisieren: Man ermittelt den RMS-durchschnittlichen Abstand zu 0 db indem man die Wurzel aus dem quadratischen Mittel berechnet. Das ist der verwendete Gain. Da die Wurzel einer Summe nicht die Summe der Wurzeln ist ist das RMS (Root Mean Sqaure) immer größer als das arithmetische Mittel und man kann zeigen, dass das quadrat des arithmetischen Mittels plus der Varianz gleich dem Quadrat des RMS ist. Damit hat man noch die Varianz als Headroom, aber auch keine lineare Anhebung. Das wirkt wohl auf den menschlichen Geits, für den alles normalverteilt ist, angenehmer, bildet aber Dynamikunterschiede nicht mehr 1:1 ab. Wie groß der Effekt ist, weiss ich nicht, kommt auch drauf an, wie dynamisch die Audiofiles sind. I.A. sind Dynamikunterschiede in der Popmusik sehr gering.
 
Normalisieren: Man ermittelt den RMS-durchschnittlichen Abstand zu 0 db indem man die Wurzel aus dem quadratischen Mittel berechnet. Das ist der verwendete Gain. Da die Wurzel einer Summe nicht die Summe der Wurzeln ist ist das RMS (Root Mean Sqaure) immer größer als das arithmetische Mittel und man kann zeigen, dass das quadrat des arithmetischen Mittels plus der Varianz gleich dem Quadrat des RMS ist. Damit hat man noch die Varianz als Headroom, aber auch keine lineare Anhebung. Das wirkt wohl auf den menschlichen Geits, für den alles normalverteilt ist, angenehmer, bildet aber Dynamikunterschiede nicht mehr 1:1 ab. Wie groß der Effekt ist, weiss ich nicht, kommt auch drauf an, wie dynamisch die Audiofiles sind. I.A. sind Dynamikunterschiede in der Popmusik sehr gering.

nein, das ist RMS-kompression
 
Hi,

Thema Pegel:
Bin auch gegen Normalisieren. Ist einfach ein unnötiger Schritt. Eine Lautstärken-Anheben/Senken, das man nicht braucht und in der Regel im Nachhinein eh wieder zurückregelt.

Grund: Alle deine Spuren werden am Master (oder über Umwegen mit Send und Bussen) zusammengemischt, also addiert. Wenn alle Einzelsignale schon voll am Limit sind ist der Master im tief roten Bereich. Die Lösung der meisten Anfänger: Masterfader runter bis das rote Licht weg ist oder noch schlimmer: Limiter als Standardlösung. Bei jedem gröberen Einsatz von EQs usw. läuft man dann wieder Gefahr die Einzelspur und/oder den Master zu übersteuern.

Alles im normalen Rahmen ohne Clipping aufnehmen. Sollte nicht zu leise sein, dass der Rauschabstand zu gering ist, aber wie erwähnt auf keinen Fall zu laut mit Clipping.
Dann das einfach so belassen. Mit Bearbeitung wie EQ, Kompressor, Hall usw.. wirds dann schon lauter werden.

Wenn du Drumloops oder andere Samples dazumischt, dann kannst du die ja so leise drehen, dass sie dazupassen, anstatt alles andere laut zu drehen.

Ich würde nie prinzipiell einen EQ und einen Kompressor auf jede Spur schalten.
Man muss sich schon anhören wo die Probleme liegen und was der Sound braucht, um
im Mix zu sitzen.
Bei verzerrte Gitarren bringt z.b. ein Kompressor gar nichts. Verzerrung schränkt die Dynamik schon stark ein. Ein Kompressor hat dann nichts mehr zu tun. Eventuell noch um etwas Dynamik zurückzuholen, was aber bei durchgehende Rhythmusgitarren mit viel Sustain und praktisch keine Pausen auch nicht funktioniert.

Also man muss sich schon anhören, ob die Dynamik so groß ist, dass sie eingeschränkt werden muss oder ein Kompressor als Effekt an sich gebraucht wird oder nicht.

Schon gar keinen Multiband-Kompressor. Braucht man gaaaanz selten bei eventuell schlechteren Bassisten, aber sonst eigentlich nie beim Mischen und auch nicht immer beim Mastern.

Es gibt auch z.b. eventuell Keyboard-Spuren oder sehr gut aufgenommene Spuren, die eventuell auch keinen EQ brauchen. Ok, dass ist eher seltener.

Noch was: Im Normalfall würde ich einen EQ nach dem Kompressor schalten.
Vor dem Kompressor würde ich als EQ nur einen Low-Cut empfehlen bzw. starke
Fehler im Signal bereinigen wenn es sein muss (Resonanzen, Brummen,....).
Die starken "Unebenheiten" im Freuquenzgang beeinflussen sonst den Kompressor zu
stark in seiner Arbeitsweise, was meistens in einem nicht passenden Pumpen ohne viel Dynamikgewinn endet.

Wenn man das EQing, das für die Färbung und für den Mix wichtig ist nach dem EQ macht,
hat man darüber mehr Kontrolle, was zu empfehlen ist.

lg. JayT.
 
Wenn man das EQing, das für die Färbung und für den Mix wichtig ist nach dem EQ macht,
hat man darüber mehr Kontrolle, was zu empfehlen ist.

lg. JayT.

aber wenn man nicht aufpasst pfeift der mix irgendwann nur noch durch die gegend. mit kompressor nach dem EQ werden so schmalbandige bearbeitungen nochmal etwas glatt gebügelt und es klingt in summe, wie ich finde, musikalischer.
 
nein, das ist RMS-kompression

Aber ich berechne doch die Anhebung aller Punkte...bei einer Kompression würde ich doch die lokalen Maxima oder Minima als Zielwert betrachten und den Rest daraufhin absenken / anheben.
 
Aber ich berechne doch die Anhebung aller Punkte...bei einer Kompression würde ich doch die lokalen Maxima oder Minima als Zielwert betrachten und den Rest daraufhin absenken / anheben.

Wenn alle Punkte ident angehoben oder abgesenkt werden und die Berechnung der Anhebung/Absenkung vom höchsten Peak abhängig ist, dann ist das schlicht und einfach Normalisieren.

Wenn sich am Crestfaktor etwas ändert, dann ist es komprimieren.

Es gibt auch RMS-Normalisieren. Manchmal in Verbindung mit Kompressoren, manchmal aber auch als eine reine Peak-Normalisierung. Als Referenz wird aber der RMS-Pegel herangezogen.
 
aber wenn man nicht aufpasst pfeift der mix irgendwann nur noch durch die gegend. mit kompressor nach dem EQ werden so schmalbandige bearbeitungen nochmal etwas glatt gebügelt und es klingt in summe, wie ich finde, musikalischer.

Uuups. Habe mich überhaupt vertippt. Habe geschrieben "....EQing vor EQing..." *g.

Klar, manche haben lieber den Kompressor nach dem EQ.
Speziell beim Recording (bei meinem Preamp z.B. die Standard-Einstellung).
Hat auch seine Vorteile. Einerseits (wie du geschrieben hast) wirkt sich das EQing nicht ganz so stark aus, andererseits hat man dann die volle Kontrolle über die Dynamik, was speziell vor dem A/D-Wandler meist von Vorteil ist.
Wenn man mit EQ und Kompressor aufnimmt, sicher eine gute Reihenfolge.

Finde ich aber nicht so geeignet fürs mischen, weil mir da das EQing viel wichtiger ist als die Kompression und ich außerdem nicht bei jeder EQ-Änderung den Threshold am Kompressor neu einstellen möchte. Natürlich kann das den Nachteil mit sich bringen, dass man mit dem EQ (speziell bei Anhebung von Bass und Höhen) das wieder zurückbringt, was der Kompressor weggedrückt hat und damit der Kompressor umsonst ist.

lg. JayT.
 
Klassischer Weise gibt's zuerst einen technischen EQ mit dem man alles, was man bei der Aufnahme versaut hat wieder geradebiegt. ;)
Dann Kompressor, danach musikalischer EQ.

Je nach Signal entfällt also das erste EQing, je nach Ziel der Bearbeitung wird EQing mit Kompression vertauscht und/oder etwas ausgelassen -> legitim ist also eigentlich jede Reihenfolge, solang man weiß, warum man sie so wählt ;)
 
So, dann werfe ich auch mal was in den Raum, wie es auf meinen Kanälen sehr oft ausschaut:

1. Evtl. LowCut Filter (wenn nötig)
2. EQ/Filter der nur absenkt, Nerv absenken, Dröhn absenken, Mumpf absenken
3. Gate (wenn nötig und bei Produktionen, bei denen ich nicht genug Zeit zum schneiden hab)
4. Kompressor (wenn nötig)
5. EQ zum anheben von Charakteristiken oder zum kompletten verbiegen (wenn nötig)
 
Servus,
bei mir siehts genauso wie bei Navar aus. Nur auf das Gate verzichte ich generell. Die Zeit zum Schneiden muss man sich einfach nehmen.

Interessant finde ich die Idee, den Kompressor hinter den EQ zu packen. Das war bisher gar nicht meine Arbeitsweise, wird demnächst aber mal ausprobiert. Danke!
Da lohnt sich der Umstieg aufs 4er-Cubase, wo sich VSTs frei in ihrer Reihenfolge per Drag&Drop verschieben lassen.

Viele Grüße
Moritz
 
Nur auf das Gate verzichte ich generell
:great: Ganz meiner Meinung!

:great: Gut zusammengefasst Navar. Kann man sicher als gute Allround-Lösung sehen.

Für das Thema Normalisieren oder noch schlimmer RMS-Normalsieren habe ich auch
einen Smiley gefunden: :bang::bang:::bang:
Aber danke für die genaue Beschreibung. RMS-Normalisieren habe ich bisher noch nicht gehört.

JayT.
 
Aber danke für die genaue Beschreibung. RMS-Normalisieren habe ich bisher noch nicht gehört.

Gibt's bei einigen Brennprogrammen (z.B. Nero soweit ich weiß) beim Erstellen von Audio-CDs. Nennt sich dann so in etwa wie "Lautstärke anpassen" oder ähnliches.

Auch in der Windows Media Freigabe zu finden. Soll dem Streaming-Client dann ein Abspielen verschiedenster MP3s mit ähnlicher Lautheit ermöglichen (für ein bißchen mehr Radio-Charakter ;) ).
 
oder beim iPod... da kommt aber nur zerre bei raus ^^
 
Mit dem Gate stimme ich dir vollends zu, ich setze es auch eigentlich nur dann ein, wenn es wirklich schnell gehen soll, auf Toms generell nicht. :)

Ansonsten trenne ich editieren und mischen so strikt wie möglich. Das editieren kann einem so die Rübe vernebeln, wenn man ein paar Stunden lang Bassdrum und Snare geschnitten oder Frequenzen gesucht hat.

Meist mische ich dann vom Schlagzeug aufwärts oder von den Leadvocals abwärts. Sehr oft steht aber an erster Stelle nach dem editieren ein Roughmix in dem ich weder Kompressoren, EQs oder irgendwas anderes einsetze, sondern mir nur eine Art Guidemix erstelle mit den Fingern auf den Reglern, als würde ich den Song live mischen. Dadurch erstelle ich mir ein Grundgerüst, welches ich danach immer wieder zum Gegenhören heranziehe, alles was ich danach mache muss "besser" sein, als dieser Mix. Damit habe ich angefangen, als ich meine "Verschlimmbesserungsphase" hatte :)
 
... Damit habe ich angefangen, als ich meine "Verschlimmbesserungsphase" hatte :)

hehe schön zu hören, dass andere die gleichen entwicklungsphasen durchlaufen haben :D
197 verschiedene kompressoren auf der snare, und am ende klingts dann zwar voll derb death metal, blöderweise isses aber ein girlie-pop song ^^
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben