Frage zu Vocal-EQing und Summensignal-Kompresser

DaEnno
DaEnno
Registrierter Benutzer
Zuletzt hier
15.02.10
Registriert
07.11.06
Beiträge
312
Kekse
166
Ort
jetz in Leipzsch
Hallo!

Ich hab mal 2 fragen.

Erstens:
Verbessert mich bitte wenn ich falsch liege, aber mein bisheriges theorie-wissen sagt mir, dass man allen aufgenommen instrumenten einen jeweils "eigenen platz" im frequenzspektrum geben muss, um es in den mix zu integrieren und damit es sich durchsetzt. D.h. zum beispiel bass-anhebung bei 80 Hz, bassdrum-anhebung bei 100 Hz usw. damit sich die instrumente sich nicht gegenseitig übertönen, right?
Wie läuft das ganze beim gesang ab? Ich dachte immer, da dürfe man mit nem EQ nich soviel rumfuchteln, um den klangcharakter der stimme nicht zu sehr zu beeinflussen.

Zweitens:
Ich hab desöfteren hier gelesen, dass man über das summensignal beim mastern nochma nen kompresser laufen lässt, was ich zuerst ein wenig komisch fand, was dann aber doch sinn machte. Nun ist mir aber aufgefallen, dass im radio auch teils sehr heftig komprimiert (oder gelimited) wird, vor allm bei rock songs auf nicht so rockigen sendern. Da is das intro schonmal ungewohnt laut, und wenn's dann richtig losgeht und alle instrumente einsetzen, wirkt das ganze bei weitem nich so wuchtig wie auf cd.
Übertreiben die radio sender das nur? oder hat das vielleicht mit was ganz anderem zu tun? was für einstellungen verwendet ihr beim komprimieren des summensignals und warum?

hoffe meine fragen sind nich zu lästig ;)
 
Eigenschaft
 
hi,
1. Es stimmt wohl das Jedes Instrument seinen Platz haben sollte, aber dazu lieber absenken als erhöhen. Es gibt auch beim Gesang, genau wie bei anderen Instrumenten gewisse Anhebungen und net so schöne Frequenzen, was unter anderem auch an den Mics oder den Aufnahmeräumen liegt. So Spielt sich bei Vokals zum Beispiel unterhalb von 90 Hz nichts mehr ab. um 300 Hz könnte man ausdünnen , bei 800 Hz und eben da wo es stört...aber halt im Rahmen bleiben.

2. Um zumindest einen kleinen Eindruck zu bekommen was beim mastern später passiert kannst du in deiner Summe nen Kompressor legen und so aussteuern das der Mix laut wird, aber net kratzt. Dies ist aber nur ein kleiner Anhaltspunkt von dem was wirklich im Masteringstudio passiert zumal die Masteringengineers viel besseres Equipment zur Verfügung haben...normalerweise.
Radiosender versuchen sich dahingehend zu übertrumpfen die lautesten zu sein was sehr unschön klingt und das Ergebnis davon das ist was man heut so heut....meiner Meinung nach ein Greul. Überkomprimiert und nix mehr mit Dynamik.

lg
Seb
 
Radiosender versuchen sich dahingehend zu übertrumpfen die lautesten zu sein was sehr unschön klingt und das Ergebnis davon das ist was man heut so heut...

mag vielleicht stimmen, aber der Hauptgrund für die radikale Kompression bei Radiosendern sind (wie immer beim Radio) die Autofahrer. Denen kann man angeblich keine Dynamik zuordnen. Man stelle sich vor, man fährt gemütlich vor sich hin, schaltet den Sender um: erst kommt das leise Intro, und auf einmal KAWUMM setzt die komplette Band mit allem drum und dran ein und schon hat man das Auto vor schreck in den Graben gesetzt!;)

Das mit der größten Lautstärke ist wohl eher bei den Produzenten/Masteringstudios der Trend. Dass man will, dass der eigene Song durch die höhere Laustärke sofort auffällt. Aber auch das gleichen die Radiosender dann natürlich wieder durch ihre Mörderkompression aus:D
 
1. Es stimmt wohl das Jedes Instrument seinen Platz haben sollte, aber dazu lieber absenken als erhöhen.

meinst du mit absenken jetzt beim jeweiligen instrument (z.b. gitarre) gewisse frequenzen absenken, oder bei anderen instrumenten (z.b. bass, schlagzeug) frequenzen absenken um für dieses instrument (gitarre) dann platz im spektrum zu schaffen?
ersteres würde mir jedoch weniger einleuchten, da man ja dadurch (so denke ich) nur platz für andre instrumente (bass, schlagzeug) macht, aber nichts für die durchsetzungsfähigkeit des bearbeiteten instrumentes (gitarre) tut.

aber ich denke falsch, oder?^^
 
Du brauchst nur equen wenn es wirklich nötig ist. Wenn du zB nen Bass und ne BDrum hast und die beiden sich so überschneiden das es in den tiefen unschön brummt und suboptimal, sprich doof, klingt, solltest du es so bearbeiten das es ok klingt.
Da der bass normalerweise frequenzmäßig etwas unter der bdrum hängt würdest du so etwas bass aus der Bdrum nehmen.
Aber auch hier gilt...probieren geht über studieren.
Es hängt immer vom jeweiligen Material ab.

Viel Spaß beim probieren,
Seb
 
hm... kanns sein, dass der kram, den ich beschrieben habe, nur für live geeignet is? hab das nämlich so aus ner soundcheck-ausgabe rausgelesen.

wobei mein mix immer ziemlich leise war. ich war dazu gezwungen die lautstärke runterzudrehen, weil die peaks sonst nicht mehr bei max. 0db geblieben wären. ich dachte dass die komischen peaks, die (laustärke-mäßig) wirklich wesentlich über dem restlichen audiomaterial lagen, durch bestimmte amplituden-überlagerungen kamen und man sowas halt durch dieses für-jedes-instrument-im-frequenzspektrum-platz-schaffen beseitigen könnte. zumal sich bei professionellen aufnahmen die laustärkepegel alle kaum weg von der 0db-grenze wegbewegen :confused:

anmerkung 1: warum ich präteritum spreche? sammle seit längerer zeit theorie wissen und komm irgendwie nie dazu, das ganze praktisch umzusetzen. aber mein wissen scheint auch ein wenig unvollstänsdig^^

anmerkung 2: schön, dass sich jemand um so anhnungslose leute wie mich kümmert :great:
 
Lautstärke kann man durch sogenanntes "Limiting" erreichen. Das ist nichts anderes als ein Kompressor, der auf ratio unendlich und attack so kurz wie möglich eingestellt ist. Dadurch werden sozusagen alle hervorstechenden Peaks deines Signals gleichgemacht und die Gesamtlautstärke erhöht sich.
Die maximale Signalamplitude ist dabei immer 0 db, wie du schon erkannt hast. Sonst übersteuert das ganze und das wollen wir ja nicht.:eek: Bei eigenen aufgenommenen Sachen, die man bloß normalisiert genauso wie bei hochglanz Profiproduktionen ist der maximale Pegelausschlag auf 0 db. Letztere erscheinen bloß um einiges lauter, weil sie eben mit viel Knowhow komprimiert und gelimited (= in der Dynamik eingeschränkt) wurden.
 
Lautstärke kann man durch sogenanntes "Limiting" erreichen. Das ist nichts anderes als ein Kompressor, der auf ratio unendlich und attack so kurz wie möglich eingestellt ist. Dadurch werden sozusagen alle hervorstechenden Peaks deines Signals gleichgemacht und die Gesamtlautstärke erhöht sich.

das dann über summensignal, right? hört sich das dann nich komisch an? ich solltes wahrscheinlich ausprobieren bevor ich frag, aber ich stell mir das dann genauso vor, wie bei den "überkomprimierten" musikstücken im radio...

aber trotzdem viel viel danke an euch beide fürs antworten :great: ich werds dann halt ausprobieren.
 
Das ist die Kunst dabei, dass es sich nicht komisch anhört!;)
Solange man das nicht übertreibt und es gut macht, hört man das eigentlich überhaupt nicht. Wenn man das Original nicht kennt.
Sicherlich gibts da aber auch genügend Gegenbeispiele in der aktuellen Musik:D
 
Verbessert mich bitte wenn ich falsch liege, aber mein bisheriges theorie-wissen sagt mir, dass man allen aufgenommen instrumenten einen jeweils "eigenen platz" im frequenzspektrum geben muss, um es in den mix zu integrieren und damit es sich durchsetzt.

Dazu habe ich auch Fragen:

1.) Warum hört sich dann live ein rein akustisches Jazztrio oder ein Streichquartett oder ein Sinfonieorchester gut an? Da wird nichts beschnitten oder angehoben und trotzdem passt alles.

2.) Wird in diesen Fällen z.B. bei Aufnahmen für CD auch manipuliert? Falls ja - warum eigentlich?

mfg
 
Hi,
weil die einzelnen Instrumente in Deinen o.g. Bsp. so gewählt und gebaut sind das sie zusammen klingen. Und wie gesagt, Equing etc...ist nur angeraten wenn es sein muss...bei elektronischen Geräten z.B. oder wenn in einer Gitarrenwand Platz für Gesang geschaffen werden muss :).

Lg
Seb
 
Dazu habe ich auch Fragen:

1.) Warum hört sich dann live ein rein akustisches Jazztrio oder ein Streichquartett oder ein Sinfonieorchester gut an? Da wird nichts beschnitten oder angehoben und trotzdem passt alles.

2.) Wird in diesen Fällen z.B. bei Aufnahmen für CD auch manipuliert? Falls ja - warum eigentlich?

mfg

Zu 1: Naja, auf CD und gut gemischt hört sich das aber nochmal einiges klarer und besser an. Da kanns schon mal passieren, dass ein Instrument irgendwo untergeht. Deshalb muss es sich ja nicht gleich schlecht anhören. Auf Platte würde man das instrument dann halt noch etwas wahrnehmen. "Gut anhören" ist ja ein sehr subjektiver Begriff. Aber dass ein livesound etwas anderes ist als ein Studiosound sollte dir ja bekannt sein.

zu 2: je mehr akustische Instrumente und je nachdem wie der Sound gewünscht ist, wird im klassischen Bereich tatsächlich sehr wenig bis gar nichts nachbearbeitet. Man versucht allerdings schon vor/bei der Aufnahme die Mikrofonauswahl und -positionen so geschickt zu wählen, dass sie für den Platz im Mix der jeweiligen Instrumente und den Gesamtklang fördernd sind.
Aber manipuliert wird immer und überall:D und wenns nur ein Hauch von künstlichem Hall ist.
 
Aber dass ein livesound etwas anderes ist als ein Studiosound sollte dir ja bekannt sein.

Dass das so ist, weiß ich natürlich; aber: Sollte man nicht zumindest im Bereich rein akustischer Instrumente das Bestreben haben, dass der Sound aus dem Studio möglichst so ist wie live und unverstärkt?

mfg
 
ich hab zwar, wie oben bereits bewiesen, wenig ahnung :D aber ich würde mir ma so denken, dass live halt übersprechungen da sind, welche man im studio verhindern kann. und ich denk mal wenn man die einzelnen spuren nacheinander aufnimmt, gibt es immer etwas, was den klang verbessert, also warum nicht dem auch so tun?

dazu folgendes

manipuliert wird immer und überall:D und wenns nur ein Hauch von künstlichem Hall ist.

und wenn jemand, so wie du, etwas haben will, was dem live-klang möglichst nahe kommt: dafür gibts live-alben :D
 
Dass das so ist, weiß ich natürlich; aber: Sollte man nicht zumindest im Bereich rein akustischer Instrumente das Bestreben haben, dass der Sound aus dem Studio möglichst so ist wie live und unverstärkt?

mfg


Es sagt ja keiner, dass es nicht so ist;)
Aber haargenau DEN Klang, den man hört, wenn man direkt vor einem Streichquartett sitzt, kann man nicht exakt zu 100% reproduzieren. Es werden einfach zu viele Komponenten verwendent, die aufgrund ihrer physikalischen Natur den Klang färben und prägen. In erster Linie sind das Mikrofone. Da die meisten Mikrofone eine Richtcharakteristik haben, werden große Teile des Klanges, wie z. B. Raumreflexionen stärker ausgeblendet. Aber auch Preamps etc. und nicht zu vergessen, die Anlage, auf der der Konsument das Stück dann anhört. Die verändern meistens auch gewaltig den sound. Und um das alles auszugleichen, muss man halt leichte Nachbesserungen an dem aufgenommenen Material machen.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben