Headroom - nicht ganz klar was im Mix passiert

Simpi
Simpi
Registrierter Benutzer
Zuletzt hier
28.11.16
Registriert
25.12.05
Beiträge
130
Kekse
69
Hey :) Ich hoffe ich blamier mich hier jetzt nicht bis auf die Knochen. Wir haben einen Song aufgenommen - beim Mix würd ich gern -5db Headroom lassen.

Jetzt zu dem was ich nicht versteh :D

Das "Headroom lassen" gestaltet sich irgendwie schwieriger als gedacht.
Ich hab mal einen Test gemacht:

Bassdrum und eine Gitarre sind zu testzwecken mit einem Limiter versehen, der das Signal bei -5db begrenzt.

Im den jeweiligen Spuren (Gitarrenspur, Bassdrumspur) stimmt das auch soweit. Überall ist der maximale Ausschlage -5db. In der Stereo-Masterspur allerdings erreiche ich Peaks bis zu -0,8db, allerdings nur wenn ich die beiden Spuren gleichzeitig laufen lassen.
Lasse ich sie einzelnt laufen bleibt alles schön bei -5db. Warum ist das so und wie bring ich das ganze jetzt auf den gewünschten Headroom von -5db?

Ich lese das ganze in Cubase 5 ab, bei dem der Peak-Anzeige wo man mit der linken Maustaste draufklickt um sie zurückzusetzen

Bitte nicht die Gewehre aus dem Schrank holen, bin noch Anfänger :gruebel:
 
Eigenschaft
 
Wenn hier irgendwer ein Gewehr auspackt, bekommt er von mir persönlich auf die Finger ;)

Das Verhalten ist folgendes: die Signale werden am Ausgang summiert. Das heißt, dass sich zwei leise Signale zu einem etwas lauteren Signal addieren. Das ist ungefähr so, wie ein einzelner Sänger auch nicht so laut ist, wie ein ganzer Chor. Du musst aber auch gar nicht die Einzelspuren so mischen, dass am Ausgang eine bestimmte Lautstärke anliegt. Dafür gibt es ja einen Master Volume. Du stellst die einzelnen Spuren so ein, dass das Verhältnis der Lautstärken untereinander passt (also z.B. der Gesang von der Autstärke zu den Drums passt u.s.w.). Die Gesamtlautstärke regelst Du dann mit dem Master Volume.

Grüße
Nerezza
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Fast richtig. Außer beim Live Mischen ist der Master immer auf 0 dB.

Dass zwei Einzelsignale lauter sind als eines, dürfte wohl klar sein. Deswegen macht es auch keinen Sinn, alle Einzelspuren auf - 5 zu limitieren und zu hoffen, die Summe geht dann auch nicht höher.

Ein Limiter hat auf Einzelspuren eigentlich gar nichts verloren. Es gibt Ausnahmen, aber als Anfänger sollte man sich erst mal darauf konzentrieren, die Verhältnisse zueinander zu regeln. Dazu gehört neben dem Pegel zuerst aucg mal der EQ. Dann kann man langsam über Kompression bestimmter Eibzelsluren nachdenken.

Wo hast Du denn die - 5 dB aufgeschnappt? Klingt wieder nach so einem Kochrezept aus einer Muckerzeitung.

Noch mal zum Masterfader. Im Studio habecich den glaube ich seit Jahren nicht angefasst. Der steht auf Null. Die Summierung der Einzelsignale passiert nicht im Masterfader, sondern auf dem Summenbus VOR dem Fader. Es macht deswegen keinen Sinn, den Bus zu überfahren ubd dann einfach den Masterfader auf - 15 dB zu stellen. Man muss vorher schon saubet arbeiten (Stichwort Gainstruktur) und dann halt alle Eibzelsignale entsprechend runterziehen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ein Limiter hat auf Einzelspuren eigentlich gar nichts verloren. Es gibt Ausnahmen ...
Der Threadersteller schrieb ja "zu Testzwecken", es wird also nicht seine übliche Verfahrensweise sein.

In allen anderen Punkten vollste Zustimmung, mit einer Einschränkung: beim Mischen in DAWs ist es dank der hohen internen Bittiefe heutzutage in den meisten Fällen so gut wie unmöglich den "Bus" zu übersteuern.
Trotzdem stimme ich der Aussage zu, denn all solche Grundlagen sollte man sich von vornherein korrekt angewöhnen, sonst steht man u.U. mal in einer Situation mit anderem Equipment völlig auf dem Schlauch und weiß nicht wieso es nicht gelingen will.
Ich kann mich gut an die ersten komplett digitalen Mischungen erinnern, bei denen man garkeinen Headroom hatte. Wurde es in der Summe zuviel hat es sofort gekracht. Das war sehr, sehr hässlich, aber genau deswegen auch extrem lehrreich in diesen Dingen penibel sauber zu arbeiten. ;)
 
Die 0 dB Regel im Master hat wohl ihren Ursprung im analogen Mixing und aus Zeiten, wo es noch keine Fließkomma Wortbreiten gab.
Trotzdem ist es von Vorteil den Masterbus nicht über Null zu fahren, sowie auch die Einzelkanäle nicht. Es kann nämlich passieren, dass man Plugins, wie Kompressoren, nicht mehr richtig eingestellt werden können, weil sie schon von vornherein hart arbeiten, obwohl der Threshold auf 0 steht.
 
Zuletzt bearbeitet:
Danke fürs Korrigieren :)

Du musst erst einige Beiträge anderer Benutzer bewertet haben, bevor du 968 erneut bewerten kannst.

Grüße
Nerezza
 
Also, bevor ich mir in einem digitalen Sequenzer die Mühe mache, alle Kanäle leiser zu drehen (gesetzt den Fall, man hat's da mit den Pegeln nicht maßlos übertrieben und ist ansonsten mit dem mix zufrieden), ziehe ich lieber mal schnell den Master runter, um am Ausgang kein digitales Clipping zu haben.

- Der Sack
 
Ich würde mir trotz allem gleich eine saubere Arbeitsweise angewöhnen. Die Digitlatechnik mag dazu verleiden mit dem Argument, auf dem MixBus habe ich so viel Headroom, dass das nichts ausmacht. Wenn ich aber den Master immer auf Null stehen lasse, gewöhne ich mit bei der Aufnahme schon an, nicht ständig die AD Wandler an ihrem Limit zu betreiben. Auch das wirkt sich später auf den Mix aus.

Desweiteren muss bei jeder Signaländerung im Digitalbereich Dithering eingesetzt werden. Wenn der Master also nicht auf Null steht, muss der komplette Mix nochnmal gedithert werden.

Wenn man tatsächlich nicht recht aufgepasst hat und einen guten Mix mit zu hohem Pegel eingestellt hat (kann bei Stellung Null eigentlich gar nicht passieren, sonst hätte es bereits beim Mix Aufbau klippen müssen), dann gibt es eine bessere Methode als den Masterfader nach unten zu bewegen. Man gruppiert einfach aller Kanäle und zieht die gemeinsam runter. Dann ändert sich nichts an den Verhältnissen, der Mix bleibt gleich und das Dithering des Gesamtmixes entfällt.

Man muss nicht bereits beim Lernen als Anfänger schludern, nur weil es digital möglich ist und sollte sich von Anfang an eine saubere Arbeitsweise beim Mischen angewöhnen. Das wirkt sich mit der Erfahrung, die man dabei macht, bis in die Art und Weise auf, wie man aufnimmt. Und das bringt einem schneller Vorwärts, man erkennt die Zusammenhänge des gesamten Produktionsvorgangs viel besser.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich würde mir trotz allem gleich eine saubere Arbeitsweise angewöhnen. Die Digitlatechnik mag dazu verleiden mit dem Argument, auf dem MixBus habe ich so viel Headroom, dass das nichts ausmacht. Wenn ich aber den Master immer auf Null stehen lasse, gewöhne ich mit bei der Aufnahme schon an, nicht ständig die AD Wandler an ihrem Limit zu betreiben. Auch das wirkt sich später auf den Mix aus.

Sorry, aber das ist ja Unsinn. Bei der Aufnahme schaue ich auf meine Eingangspegel. Der Master ist da vollkommen irrelevant. Clippen sollte er im Fall von Softwaremonitoring am besten dennoch nicht - wobei das vielleicht noch egal ist, denn das Monitoring schließt u.U. nicht den Master ein.
Aber abgesehen davon: Wenn ich mehrere Signale zeitgleich so aufnehme, dass die Maximalaussteuerung des einzelnen Kanals nahe 0dB liegt (und das ist auf alle Fälle wünschenswert), dann wird es logischweise an einem auf 0dB stehendem Master clippen, da ja die Spuren dort summiert werden.
Wie gesagt, das Argument ist schlicht und ergreifend unsinnig.

Desweiteren muss bei jeder Signaländerung im Digitalbereich Dithering eingesetzt werden. Wenn der Master also nicht auf Null steht, muss der komplette Mix nochnmal gedithert werden.

Auch das ist leider Unsinn. Dithern tut man aus ganz anderen Gründen. Wenn es im Mix gut klingt, kann der Master irgendwo hingestellt werden, solange er nur nahe genug an 0dB ist aber nicht darüber hinaus geht.

Wenn man tatsächlich nicht recht aufgepasst hat und einen guten Mix mit zu hohem Pegel eingestellt hat (kann bei Stellung Null eigentlich gar nicht passieren, sonst hätte es bereits beim Mix Aufbau klippen müssen), dann gibt es eine bessere Methode als den Masterfader nach unten zu bewegen. Man gruppiert einfach aller Kanäle und zieht die gemeinsam runter. Dann ändert sich nichts an den Verhältnissen, der Mix bleibt gleich und das Dithering des Gesamtmixes entfällt.

Das stimmt zwar so, ist aber im digitalen Arbeitsbereich unnötig. Da reicht es eben, den Master runterzuziehen. Die einzelnen Kanäle haben defintiv genug Headroom (es sei denn, man betreibt seltsame Experimente).

Man muss nicht bereits beim Lernen als Anfänger schludern, nur weil es digital möglich ist und sollte sich von Anfang an eine saubere Arbeitsweise beim Mischen angewöhnen. Das wirkt sich mit der Erfahrung, die man dabei macht, bis in die Art und Weise auf, wie man aufnimmt. Und das bringt einem schneller Vorwärts, man erkennt die Zusammenhänge des gesamten Produktionsvorgangs viel besser.

Das stimmt zwar erneut, aber dann solltest du auch nicht mit seltsamen Aussagen daherkommen (ist ja auch leider nicht das erste Mal), wie etwa der Aufnahmegeschichte - bei der man, wenn man mehrspurig und zeitgleich aufnimmt, den Master (falls man ihn abhört) sogar runterdrehen *muss*, damit es da nicht clippt.

- Der Sack
 
Zuletzt bearbeitet:
Du hast mich nicht richtig verstanden. Meine Erfahrung ist, dass bereits die Einzelkanäle besser klingen, wenn man nicht bis an den Rand aussteuert. Es ist dann ein Nebeneffekt, dass die Fader im optimalen Arbeitsbereich stehen können, ohne dass die Summe zu heiß ist.

Dithering.
JEDE digitale Bearbeitung erfordert Dithering! JEDE.
Das sind Grundlagen der digitalen Audiotechnik. Ein gutes Pult oder eine gute DAW macht das von Haus aus.
 
Beziehst du dich jetzt auf echte Konsolen oder den internen Mixer einer DAW?
 
...nicht ständig die AD Wandler an ihrem Limit zu betreiben. Auch das wirkt sich später auf den Mix aus.

Höre ich auch so. :)


Desweiteren muss bei jeder Signaländerung im Digitalbereich Dithering eingesetzt werden.

Das ist falsch bzw. Du hast dich missverständlich ausgedrückt. Bei einer Auflösungsreduzierung der Wortbreite ist unter Umständen Dithering notwendig. So wie es da steht könnte man interpretieren das wirklich nach JEDER Signalbearbeitung Dithering erfolgen MUSS.



Wenn der Master also nicht auf Null steht, muss der komplette Mix nochnmal gedithert werden.

Was wenn nicht der komplette Mix sollte deiner Meinung nach denn sonst gedithert werden?

Wenn Dithering notwendig wird, ist dies unabhängig von der Stellung des Master-Faders.



Wenn man tatsächlich nicht recht aufgepasst hat und einen guten Mix mit zu hohem Pegel eingestellt hat (kann bei Stellung Null eigentlich gar nicht passieren, sonst hätte es bereits beim Mix Aufbau klippen müssen), dann gibt es eine bessere Methode als den Masterfader nach unten zu bewegen. Man gruppiert einfach aller Kanäle und zieht die gemeinsam runter. Dann ändert sich nichts an den Verhältnissen, der Mix bleibt gleich und das Dithering des Gesamtmixes entfällt.

Falsch.
Wenn die Einzelspuren in Gruppen geführt werden und dort hinsichtlich ihrer Dynamik eine Bearbeitung erfahren würden, bspw. durch einen Kompressor, dann würde dieser bei deiner Vorgehensweise einen anderen Pegel anliegen haben und seine Bearbeitung entsprechend anders ausfallen.

Und auch hier schon wieder: Die Summe ist das was ggf. gedithert wird, nichts anderes.



Sorry, aber das ist ja Unsinn. Bei der Aufnahme schaue ich auf meine Eingangspegel. Der Master ist da vollkommen irrelevant. Clippen sollte er im Fall von Softwaremonitoring am besten dennoch nicht - wobei das vielleicht noch egal ist, denn das Monitoring schließt u.U. nicht den Master ein.

Eine Aufnahme sollte niemals clippen - egal wie man monitort.



Aber abgesehen davon: Wenn ich mehrere Signale zeitgleich so aufnehme, dass die Maximalaussteuerung des einzelnen Kanals nahe 0dB liegt (und das ist auf alle Fälle wünschenswert),...

Nein.
Die allermeisten Wandler haben nicht nur Probleme bei ihrer minimalen Aussteuerung, sondern ebenso bei ihrer maximalen Aussteuerung. Da der darstellbare Dynamikraum bei 24-bit int. mehr als ausreichend ist, sollte man sich einen Headroom "gönnen".



Dithering.
JEDE digitale Bearbeitung erfordert Dithering! JEDE.
Das sind Grundlagen der digitalen Audiotechnik. Ein gutes Pult oder eine gute DAW macht das von Haus aus.

Zum ersten, zum zweiten und zum dritten: Nein! :)
 
Eigentlich hat ja Signalschwarz schon alles entscheidende gesagt, aber...

Du hast mich nicht richtig verstanden. Meine Erfahrung ist, dass bereits die Einzelkanäle besser klingen, wenn man nicht bis an den Rand aussteuert.

Das ist bei digitalen Aufnahmen erneut leider einfach Unsinn. Dafür gibt es keinen technischen Hintergrund. Eher im Gegenteil: Als es noch nicht so üblich war, mit 24bit aufzunehmen (sondern eher mit 16bit) musste man sich verdammt viel Mühe geben, um auch wirklich so nah es geht an die 0dB zu kommen, um etwaiges Quantisierungsrauschen bei leisen Passagen zu vermeiden. Seit 24dB an sich üblich sind, ist das weniger relevant (fast schon gar nicht mehr), aber dass Kanäle bei weniger Aussteuerung besser klingen bleibt dennoch Quatsch.

Es ist dann ein Nebeneffekt, dass die Fader im optimalen Arbeitsbereich stehen können, ohne dass die Summe zu heiß ist.

Wie gesagt, da dreht man die Summe einfach runter. Oder etwaige Busse.

Nochmal: Wenn ich mehrere Kanäle zeitgleich mit einem gescheiten Signalpegel aufnehme UND per Software-Monitoring den Master abhöre (was kein ganz unübliches Szenario ist), dann kann ich entweder die Kanäle oder den Master nicht im "optimalen Arbeitsbereich" (welcher das digital auch immer sein mag) halten. Das geht rechnerisch einfach nicht.

Dithering.
JEDE digitale Bearbeitung erfordert Dithering! JEDE.
Das sind Grundlagen der digitalen Audiotechnik. Ein gutes Pult oder eine gute DAW macht das von Haus aus.

Es tut mir ja sehr leid, aber: Ich bekomme ehrlich gesagt so langsam Zweifel, ob du dich mit digitaler Signalverarbeitung und/oder Sequenzern auch nur einigermaßen auskennst. Es spricht dann doch recht Vieles dagegen. Dithern wird normalerweise als der allerletzte Schritt in einem digitalen Mix, und zwar beim Bouncen/Exportieren genutzt und ist speziell (aber nicht nur) dann sinnvoll, wenn man die Bittiefe verringern will (Bsp.: Aus einem 24bit Mix ein 16bit Master für CD erstellen). Das Dithern entschärft dann das vielleicht bei leisen Passagen entstehende Quantisierungsrauschen. Wenn man, so etwa zwecks Weiterverarbeitung in einer anderen Umgebung, auf der höheren Bittiefe bleiben will und weiß, dass das noch nicht die finale Datei ist, dann wird meistens gar nicht gedithert. Deshalb ist in vielen Sequenzern standardmäßig da auch, ganz entgegen deiner Aussage, KEIN Häkchen gesetzt bzw. keine Dithering-Methode ausgewählt.
Dass jede digitale Bearbeitung Dithering erfordert ist ebenfalls einfach falsch. Wenn ich innerhalb meines Sequenzer, aus welchen Gründen auch immer, bspw. ein File normalisiere (das sollte ja als digitale Bearbeitung gelten, oder?), dann wird da nicht gedithert.

So leid es mir auch wirklich tut - und dein vermutlich guter Wille in allen Ehren -, aber ich finde es relativ unmöglich, dass du Leuten hier Tipps geben willst, wenn es so eklatante Fehleinschätzungen der Sachlage(n) deinerseits gibt.
Mal klingt Sequoia nicht gut, dann sollte man lieber nicht möglichst nahe an 0dB aussteuern und jetzt wird auch noch überall beinahe zwanghaft gedithert. Sorry, aber der Quatsch häuft sich einfach.

- Der Sack

---------- Post hinzugefügt um 23:52:26 ---------- Letzter Beitrag war um 23:44:48 ----------

Achja, an den Threadstarter: Ich meine, mal was gelesen zu haben, dass, wenn man einen Track zum Mastern weggibt, die Leute es ganz gerne sehen, wenn da ein wenig Luft zu 0dB hin ist. Aber wenn mich nicht alles täuscht, handelte es sich da eher um Werte im Nullkomma- bis vielleicht 1-2 dB Bereich.
Gibt meiner Meinung nach aber an sich gar keinen Grund, da mehr Headroom zu lassen, denn alles was eigentlich passiert ist, dass man an dynamischer Auflösung verliert.
 
Das liegt daran, dass der Masteringmensch die sowie so auf wahrscheinlich -6 db oder weniger normalisiert. Bisschen Headroom brauch er ja schon zum bearbeiten. Das will er sich wahrscheinlich sparen.
 
Das liegt daran, dass der Masteringmensch die sowie so auf wahrscheinlich -6 db oder weniger normalisiert. Bisschen Headroom brauch er ja schon zum bearbeiten. Das will er sich wahrscheinlich sparen.

Ich habe das ehrlich gesagt nie so ganz verstanden, zumal es sich ja um Files handelt, die traditionell für CD-Brennereien vorbereitet werden. Und ich weiß nicht, ob (und wenn ja wieso) da im professionellen Bereich wirklich -6dB gefordert werden. Wenn ich hier auf 0dB gebrachte Files auf CDs brenne, klingen die so, wie ich es denke, zerren tut da nichts.
Und Headroom zum Bearbeiten sollte ein Mastering-Typ an sich nicht brauchen. Wenn er equalizieren oder komprimieren will, kann er auch die Outputs so einstellen, dass es nicht zerrt.

Ich wäre aber durchaus dankbar, wenn mich mal jemand hinsichtlich der -6dB erhellen könnte. Wie gesagt, das kapiere ich nicht, denn man verschenkt meiner Meinung nach bei einer 16bit-Auflösung (das ist ja das CD-Zielformat) doch ganz schön was an dynamischer Bandbreite.

- Der Sack
 
Dither ist nicht nur notwendig nach einer Wortbreitenreduktion. Im Prinzip muss nach jedem digitalen Signalprozess gedithert werden. Also auch wenn ich nur den Fader in einer anderen Stellung als Null habe und auf 24 Bit bleibe.
http://www.digido.com/dither.html

Das ist die Theorie und man kann argumentieren, ob man nach einer DSP Operation dithern muss, wenn man im 32 bit float format bleibt. Sobald man aber im Ausgang von 32 float auf 24 geht, kommt man ums dithern nicht herum. Streng genommen müsste man das auch machen, wenn man auf 32 float bleibt ubd es gibt viele PlugIns, bei denen man das einstellen kann.

Im TDM Bus von ProTools war dithern immer nötig.

Zur Kompressoreinstellung.
Üblicherweise wird ein Kompressor vor dem Fader insertiert. Die Kompression ist dann unabhängig von der Sellung des Faders. Man kann also sehr wohl einfach alke Fader auf eine Gruppe legen und dann alle relativ zueinander im gleichen Naße runterziehen, ohne den Mix zu verändern.

Was Anderes ist es, wenn ich per VCA den Eingangspegel an den Kanalzügen ändere. Dann wird der Kompressor natürlich anders angefahren. Aber das meinte ich nicht.
 
Dither ist nicht nur notwendig nach einer Wortbreitenreduktion. Im Prinzip muss nach jedem digitalen Signalprozess gedithert werden. Also auch wenn ich nur den Fader in einer anderen Stellung als Null habe und auf 24 Bit bleibe.
http://www.digido.com/dither.html

Den Artikel hättest du vielleicht mal lieber selber lesen sollen. Kannste ja aber jetzt noch nachholen. Dann wüsstest du, dass in einer (üblicherweise) 32bit-float Umgebung das bloße Bewegen eines Faders quasi gar nichts ausmacht.

Streng genommen müsste man das auch machen, wenn man auf 32 float bleibt ubd es gibt viele PlugIns, bei denen man das einstellen kann.

A) Was genau kann man da einstellen?
B) Welche Plugins? Wenn es so viele sind, nenne mal bitte ein Beispiel.

Zur Kompressoreinstellung.
Üblicherweise wird ein Kompressor vor dem Fader insertiert. Die Kompression ist dann unabhängig von der Sellung des Faders. Man kann also sehr wohl einfach alke Fader auf eine Gruppe legen und dann alle relativ zueinander im gleichen Naße runterziehen, ohne den Mix zu verändern.

Das ist allerdings korrekt.

- Der Sack
 
Das ist bei digitalen Aufnahmen erneut leider einfach Unsinn. Dafür gibt es keinen technischen Hintergrund. Eher im Gegenteil: Als es noch nicht so üblich war, mit 24bit aufzunehmen (sondern eher mit 16bit) musste man sich verdammt viel Mühe geben, um auch wirklich so nah es geht an die 0dB zu kommen, um etwaiges Quantisierungsrauschen bei leisen Passagen zu vermeiden. Seit 24dB an sich üblich sind, ist das weniger relevant (fast schon gar nicht mehr), aber dass Kanäle bei weniger Aussteuerung besser klingen bleibt dennoch Quatsch.

Wie schon zuvor geschrieben bin ich da (ausnahmsweise) der Meinung von 968.
Richtig ist wohl, das man bei der frühen Digitaltechnik bzw. Aufnahmen mit 16-bit Auflösung den Rauschabstand noch möglichst hoch halten musste, da das durch den Umsetzer erzeugte Rauschen mitunter noch im hörbaren Bereich lag. Bei 24-bit, einer abbildbaren Dynamik von 144dB und einem Rauschabstand bei ~ -110dB oder noch höher ist dies aber nicht mehr der Fall, eine maximale Aussteuerung ist somit nicht mehr notwendig bzw. anzuraten. Im Gegenteil ist es sogar so, das wie schon geschrieben Umsetzer eben auch im Bereich ihrer maximalen Aussteuerung Probleme bereiten können. Ich nutze bspw. weder bei der Aufnahme noch bei der Wiedergabe die maximale Aussteuerung, mit positivem Effekt wie ich meine. Und bevor die Frage kommt: Blindtest bestanden, Doppelblindtest nicht gemacht. ;)

BTW: Der Ausdruck Quantisierungsrauschen ist hier nicht richtig gewählt, denn ein Umsetzer rauscht, wie jedes andere elektrische Bauteil auch, auch wenn kein Signal anliegt. Quantisierungsrauschen = Verzerrungen bei Requantisierung, wahrgenommen als "Rauschen".




Dithern wird normalerweise als der allerletzte Schritt in einem digitalen Mix, und zwar beim Bouncen/Exportieren genutzt und ist speziell (aber nicht nur) dann sinnvoll, wenn man die Bittiefe verringern will (Bsp.: Aus einem 24bit Mix ein 16bit Master für CD erstellen).

Könntest Du das etwas weiter ausführen? Welche Anwendungsfälle siehst Du noch?



Dass jede digitale Bearbeitung Dithering erfordert ist ebenfalls einfach falsch. Wenn ich innerhalb meines Sequenzer, aus welchen Gründen auch immer, bspw. ein File normalisiere (das sollte ja als digitale Bearbeitung gelten, oder?), dann wird da nicht gedithert.

Normalisieren? Pfui, pfui, pfui. :D Man hat doch innerhalb des Sequenzers der maßen viele Möglichkeiten zu pegeln das so ein Offline-Prozess doch recht unnötig ist.



Achja, an den Threadstarter: Ich meine, mal was gelesen zu haben, dass, wenn man einen Track zum Mastern weggibt, die Leute es ganz gerne sehen, wenn da ein wenig Luft zu 0dB hin ist. Aber wenn mich nicht alles täuscht, handelte es sich da eher um Werte im Nullkomma- bis vielleicht 1-2 dB Bereich.

Im Allgemeinen wird ein solcher Headroom gewünscht, wie im Verlauf des Threads schon geschrieben wurde, dann meist im Bereich von -3 bis -6 dBfs.
Allerdings gibt es keine technische Notwendigkeit dafür, mal abgesehen von den armen Schweinen die ohne Fliesskomma auskommen müssen und der Maxime das jede Bearbeitung gleich Verzerrung gleich Klangverschlechterung ist und somit möglichst wenige Arbeitsschritte anzupeilen sind (wobei es im Endeffekt egal ist ob der Mixer den Master im Pegel reduziert oder der Masterer bevor er mit seiner echten Arbeit anfängt das Material runterpegelt.



Gibt meiner Meinung nach aber an sich gar keinen Grund, da mehr Headroom zu lassen, denn alles was eigentlich passiert ist, dass man an dynamischer Auflösung verliert.

Mal angenommen man hat einen (einigermaßen) tauglichen Umsetzer mit einem Rauschabstand von -110 bis ~ -124 dBfs. Welche Signalquellen die üblicherweise aufgenommen werden haben deiner Meinung nach einen Dynamikbereich dieser Größenordnung so dass deine Annahme relevant wird?



Das liegt daran, dass der Masteringmensch die sowie so auf wahrscheinlich -6 db oder weniger normalisiert. Bisschen Headroom brauch er ja schon zum bearbeiten. Das will er sich wahrscheinlich sparen.

Schon wieder dieses unnütze Normalisieren... :D
Ja, in der Regel braucht man natürlich beim Mastering etwas Luft nach oben - aber die bekommt man automatisch dam man beim Mastering sinnvollerweise wieder mit einer (wesentlich) höheren Auflösung und Fliesskommaberechnung arbeitet.





Und Headroom zum Bearbeiten sollte ein Mastering-Typ an sich nicht brauchen. Wenn er equalizieren oder komprimieren will, kann er auch die Outputs so einstellen, dass es nicht zerrt.

Richtig.
Während der Bearbeitung nutzt man den Vorteil von höherer Auflösung + Fliesskomma, im letzten Prozessor kann dann der Ausgabepegel bestimmt werden.



Wie gesagt, das kapiere ich nicht, denn man verschenkt meiner Meinung nach bei einer 16bit-Auflösung (das ist ja das CD-Zielformat) doch ganz schön was an dynamischer Bandbreite

Siehe weiter oben und: In diesem Moment (während der Bearbeitung) ist ja noch nichts mit 16-bit, die Konvertierung kommt ja erst im allerletzten Schritt zum tragen. Und ich gehe davon aus das wir hier die ganze Zeit über reines ITB-Mastering reden. Vielleicht verstehe ich dich auch einfach falsch.



Dither ist nicht nur notwendig nach einer Wortbreitenreduktion. Im Prinzip muss nach jedem digitalen Signalprozess gedithert werden. Also auch wenn ich nur den Fader in einer anderen Stellung als Null habe und auf 24 Bit bleibe.
http://www.digido.com/dither.html

Das ist die Theorie und man kann argumentieren, ob man nach einer DSP Operation dithern muss, wenn man im 32 bit float format bleibt. Sobald man aber im Ausgang von 32 float auf 24 geht, kommt man ums dithern nicht herum. Streng genommen müsste man das auch machen, wenn man auf 32 float bleibt ubd es gibt viele PlugIns, bei denen man das einstellen kann.

Les' den Text vielleicht nochmal genauer. Dein explizites Augenmerk solltest Du auf den letzten Absatz richtn, Stichwort "kummulatives Dithering".



Zur Kompressoreinstellung.
Üblicherweise wird ein Kompressor vor dem Fader insertiert. Die Kompression ist dann unabhängig von der Sellung des Faders. Man kann also sehr wohl einfach alke Fader auf eine Gruppe legen und dann alle relativ zueinander im gleichen Naße runterziehen, ohne den Mix zu verändern.

Ich weiss wo man einen Kompresor für gewöhnlich und sinnvollerweise einsetzt. In meinem Beispiel habe ich aber eindeutig von der Gruppen-Kompression gesprochen. Wenn die Quell-Kanäle im Pegel verändert werden betrifft das sehr wohl die Arbeitsweise des Kompressors in der/dem angesteuerten Gruppe/Bus.
 
Wie schon zuvor geschrieben bin ich da (ausnahmsweise) der Meinung von 968.
Richtig ist wohl, das man bei der frühen Digitaltechnik bzw. Aufnahmen mit 16-bit Auflösung den Rauschabstand noch möglichst hoch halten musste, da das durch den Umsetzer erzeugte Rauschen mitunter noch im hörbaren Bereich lag. Bei 24-bit, einer abbildbaren Dynamik von 144dB und einem Rauschabstand bei ~ -110dB oder noch höher ist dies aber nicht mehr der Fall, eine maximale Aussteuerung ist somit nicht mehr notwendig bzw. anzuraten.

Dem stimme ich komplett zu und seit ich auf 24 bit arbeite kann ich mich deutlich weniger um die Auspegelung kümmern - bzw. lasse ich einfach genug Headroom.
Aber man macht das ja nicht, wie 968 meinte, um alle Regler in der "Optimalstellung" positionieren zu können,

Könntest Du das etwas weiter ausführen? Welche Anwendungsfälle siehst Du noch?

Auch wenn man auf 16bit arbeitet, wird man am Ende vermutlich dithern.
Andererseits lag da bei mir anscheinend ein kleiner Denkfehler vor, denn da der Sequenzer intern sowieso mit einer höheren Auflösung arbeitet, sollte man beim finalen Bouncen vielleicht in der Tat immer dithern.

Normalisieren? Pfui, pfui, pfui. :D Man hat doch innerhalb des Sequenzers der maßen viele Möglichkeiten zu pegeln das so ein Offline-Prozess doch recht unnötig ist.

An sich komplett richtig, aber manchmal sind normalisierte Files einfach schöner zum Arbeiten. Und mir sind die etwaigen Qualitätsverluste einfach egal.
Abgesehen davon nutze ich den Sequenzer aber auch, um Files für den Einsatz im Sampler vorzubereiten, und da ist es dann beinahe schon wichtig, für eine Velocity Zone gleichlaute Samples zu haben.

Im Allgemeinen wird ein solcher Headroom gewünscht, wie im Verlauf des Threads schon geschrieben wurde, dann meist im Bereich von -3 bis -6 dBfs.
Allerdings gibt es keine technische Notwendigkeit dafür, mal abgesehen von den armen Schweinen die ohne Fliesskomma auskommen müssen und der Maxime das jede Bearbeitung gleich Verzerrung gleich Klangverschlechterung ist und somit möglichst wenige Arbeitsschritte anzupeilen sind (wobei es im Endeffekt egal ist ob der Mixer den Master im Pegel reduziert oder der Masterer bevor er mit seiner echten Arbeit anfängt das Material runterpegelt.

So gut konnte ich es nicht ausdrücke, aber: Eben.

Mal angenommen man hat einen (einigermaßen) tauglichen Umsetzer mit einem Rauschabstand von -110 bis ~ -124 dBfs. Welche Signalquellen die üblicherweise aufgenommen werden haben deiner Meinung nach einen Dynamikbereich dieser Größenordnung so dass deine Annahme relevant wird?

Naja, wenn ich etwas aus dem Sequenzer mit, sagen wir, -6dB bounce, dann verliere ich vielleicht nicht dynamischen Spielraum (da habe ich mich wohl falsch ausgedrückt), aber meine Mixes werden eben 6dB leiser als der meiste Kram sein.
Das ist natürlich irrelevant, wenn es tatsächlich danach zum Mastern geht, aber ansonsten will ich persönlich maximalen Pegel.

Siehe weiter oben und: In diesem Moment (während der Bearbeitung) ist ja noch nichts mit 16-bit, die Konvertierung kommt ja erst im allerletzten Schritt zum tragen. Und ich gehe davon aus das wir hier die ganze Zeit über reines ITB-Mastering reden.

Hm, jetzt, wo ich genauer drüber nachdenke, hast du vermutlich recht.

- Der Sack
 
Auch wenn man auf 16bit arbeitet, wird man am Ende vermutlich dithern.
Andererseits lag da bei mir anscheinend ein kleiner Denkfehler vor, denn da der Sequenzer intern sowieso mit einer höheren Auflösung arbeitet, sollte man beim finalen Bouncen vielleicht in der Tat immer dithern.

So ist es.
Die interne Mixbusauflösung ist idR wesentlich höher als das Aufnahmeformat, deswegen ist auch idR Dithering notwendig. Ausnahme wäre ein Song der einfach keine leisen Stellen an denen die Quantisierungsverzerrungen wahrnehmbar wären (diese entstehen nebenbei bemerkt mitunter ja auch bei hohen Pegeln sind dann aber nicht unbedingt wahrnehmbar) aufweist.

Da Du deine Arbeit mit Samplern erwähnt hast: Bei einem einzelnen Bearbeitungsschritt (wie dem Normalisieren oder bspw. einem Lowshelf) und geringfügiger Bearbeitung/Veränderung kann es sein, das die Mixbusauflösung gar nicht aktiv wird, heisst das Material auch am Sequenzer-/Editor-Ausgang in seiner ursprünglichen Auflösung vorliegt und hier Dithering tatsächlich überflüssig wäre. So etwas kannst Du dir mit einem Bit-Meter anzeigen lassen. Solche Bit-Meter zeigen übrigens auch intersample peaks an die auf analoger Ebene zum tragen kommen und eine Rolle spielen wenn man hart auf 0 dBfs pegelt wie Du es geschrieben hattest.



An sich komplett richtig, aber manchmal sind normalisierte Files einfach schöner zum Arbeiten. Und mir sind die etwaigen Qualitätsverluste einfach egal.
Abgesehen davon nutze ich den Sequenzer aber auch, um Files für den Einsatz im Sampler vorzubereiten, und da ist es dann beinahe schon wichtig, für eine Velocity Zone gleichlaute Samples zu haben.

Bevor Missverständnisse entstehen: Normalisierung ist qualitativ nicht schlechter als andere Möglichkeiten den Pegel zu regeln, sie ist nur etwas unpraktischer da offline und damit destruktiv, heutzutage will man ja alles im direkten Zugriff haben. Nachteilig wäre auch, wenn man zunächst ale seine Aufnahmen Normaliseren würde und dann z.B. bei der Bassdrum mit einem EnvelopeShaper arbeiten möchte und dabei schon den Pegel so hoch jagt das man den Eingangspegel noch weiter bzw. ein weiteres Mal korrigieren muss. Bei der Arbeit mit Samples zur Erstellung eigener Sampler-Instrumente würde ich natürlich auch wie Du vorgehen, wenn es sich um reines Pegeln handelt.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben