Finales Mixing und Mastering einer orchestralen Aufnahme?!

  • #161
Ich hätte also vielleicht das Piano an dieser Stelle vorher stärker mit dem Kompressor bearbeiten sollen.
Nein, zumindest nicht nach meinem Verständnis.
Das sollte Aufgabe des Mastering-Tools sein. Das soll schauen, was reinkommt und machen, was es machen soll - unter anderem garantieren, daß es eben keine Übersteuerungen gibt. Sonst bräuchte ich es ja nicht und könnte einfach nur den Pegel hochziehen und es clippen lassen. Das ändert den LUFS-Wert auch irgendwie 😉

Früher habe ich den Adaptive Limiter von Logic verwendet, aber da haben mir die Resultate nicht wirklich gefallen.
Jetzt nutze ich selbst nur noch Ozone8 (auch schon etwas älter) und da sehe ich die Resultate recht gut.
Soweit ich sehe, kann der Mastering assistant von Logic relativ wenig, aber trotzdem müßten die "true peaks" erkennbar sein. Und am Ende eben das Ergebnis mal mit einem anderen Tool anschauen.
 
  • Gefällt mir
Reaktionen: 1 Benutzer

  • #162
@Jan, du solltest solche Dinge schon im Mix lösen!

Der Grund ist simpel. Im Mix kannst Du, falls das Ergebnis Deines Handelns kritisch ist, leichter eingreifen, denn Du arbeitest in der fraglichen Spur und nicht im Gesamtmix.

Also wenn der Mastering Engineer die eine Stelle mit dem zu lauten Pianoanschlag leiser macht, was er kann, dann wird der Gesamt-Track an dieser Stelle leiser und nicht das einzelne Signal...

Wie gesagt, ich automatisiere solche Stellen gern im Mix, weil das punktgenaues Arbeiten ist.

Limiter arbeiten zeitbasiert (Attack/Release) und regeln die Verstärkung (Gain). Clipper wirken sofort, ohne Zeitverzögerung, und schneiden die Wellenform ab.

Limiter klingen transparenter und sauberer. Clipper erzeugen, wenn gewollt, Obertöne/Verzerrungen.

Es ist also eine gute Idee bei sehr dynamischen Signalen die Spitzen ggf. mit einem Clipper einzugrenzen. Das wäre dann auch punktgenau.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
  • #163
Es ist also eine gute Idee bei sehr dynamischen Signalen die Spitzen ggf. mit einem Clipper einzugrenzen.
im orchestralen Kontext wäre das imho kontraproduktiv, weil derartige Obertöne idR nicht gewünscht sind. Der Zeitversatz eines Software Limiters ist musikalisch quasi null.
 
  • Gefällt mir
Reaktionen: 1 Benutzer

  • #164
Ich verstehe, was Du meinst. Ich habe mich da nicht ganz klar ausgedrückt.

Es geht nicht darum, Obertöne oder Verzerrungen zu erzeugen, sondern nur die eine Spitze zu "kappen", die etwas heraussticht. Also subtil und nicht wie in "modernen" Produktionen gern eine Grenzlinie zu errichten.
Im Falle des Pianotons sind es vielleicht 0.3db, die ich da leiser machen würde.

Ich bin eher der Freund des Eingriffes mittels Volumenautomation, also nicht dynamisch mit einem Compressor. Man kann auch ein Gain Tool verwenden. Möglichkeiten gibt es viele.

Wenn es bei mir hart auf hart kommt, nutze ich RX und gehe bis ins "Sample"...
 
  • Gefällt mir
Reaktionen: 1 Benutzer
  • #165
Ich bin eher der Freund des Eingriffes mittels Volumenautomation, also nicht dynamisch mit einem Compressor. Man kann auch ein Gain Tool verwenden. Möglichkeiten gibt es viele.
Da bin ich ganz bei dir... und unterstreiche noch mal den Satz: solche Dinge sollten bereits im Mix erledigt sein.
Eine kurze Stelle lässt sich (alternativ zur og Methode) uU auch per Normalisierung auf einen definierten Zielwert bearbeiten.
Ist in erster Linie eine Frage von Routine/Workflow...
(ich muss das so machen, weil meine DAW komplett non-destructive arbeitet und mich die Unmenge an Automation den Track nicht mehr sehen liesse)
Mit Wavosaur geht das fix von der Hand. (um mal was anderes als das unsägliche Audacity zu erwähnen). :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
  • #166
solche Dinge sollten bereits im Mix erledigt sein
wir sind da im Grunde alle einer Meinung.

Mein Satz weiter oben war so gemeint: Wenn das Mastering Tool clippt, muß man nicht in den Mix zurück, sondern am Mastering Tool runterdrehen 😉 (Es sei denn, man will das Clipping so haben)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
  • Ersteller
  • #167
Die letzten Beiträge sehe ich eben erst - danke euch. 👍

Ich nehme jedenfalls mit, dass solche Themen möglichst bereits im Musikstück selbst, bzw. in dessen Mixing, gelöst werden sollten. Einzelne (zu) laute Piano-Stellen lassen sich m. E. zwar nicht gut mit einer Automation abfangen, weil man es zumeist hören wird, wenn das Piano auf einmal „leiser gedreht“ wird. Einen „Clipper“ gibt es bei Logic Pro m.W. nicht, weshalb der Ansatz über den die Spitzen reduzierenden Kompressor zumindest nicht völlig falsch gewesen sein dürfte.

Alles in allem bin ich nach reichlichem Testhören mit meinem laienhaften Mastering des Stücks erstmal zufrieden (die Basis ist der Import der Klangdatei in iTunes und hieraus dann das Abspielen auf diversen Kopfhörern und Musikanlagen via AirPlay). Eher stört mich, dass ich bei dem parallelen Mastering eines zweiten Titels den Fehler mit den LUFS gemacht habe (siehe Beitrag Nr. 158). Da muss ich zukünftig besser aufpassen, damit die Titel zueinander passen.

Der nächste Schritt ist vielleicht die Überlegung, anstelle der Logic Pro-internen Tools externe Tools wie Ozone zu verwenden. Vielleicht ist es dafür aber noch zu früh - denn die Tools ersetzen ja kein eigenes Know-how (das bei mir offensichtlich noch ausbaufähig ist). Bei einem Test von Ozone damals hat mich auch gestört, dass der dortige „Mastering Assistant“ (bzw. die KI-Funktion in Ozone) keine Einstellung für klassische (bzw. orchestrale) Musik hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
  • #168
Es gibt ja den Spruch "a little goes a long way", und gerade im Mixing Prozess passt der sehr gut.
Viele Kleine Schritten, zusammengezählt können einen Riesen Unterschied machen

Automation ist ein unfassbar mächtiges Werkzeug, du kannst ja nicht nur die Lautstärke automatisieren, sondern JEDEN! Plugin Parameter, damit stehen dir sehr viele Möglichkeiten offen
Zb:

Ich habe eine Instrumentenspur, mit deren Klang usw ich sehr zufrieden bin, aber, es gibt einige wenige Stellen im Song, wo mir etwas nicht ganz so gut gefällt.
Zuerst muß ich identifizieren was das ist, es bennenen können, was mich stört. damit ich dann auch eine Lösung dafür anwenden kann.
Zb das Instrument, weil es bei diesen Stellen etwas härter gespielt wird, hat einige Resonanzen die mir nicht so gut gefallen.
Dh. ich kann nun ein EQ Plugin nehmen, ich such mir die störenden Resonanzen aus, und senke sie ab, aber ich mache das natürlich nicht für die ganze Spur, sondern ich automatisiere den EQ das er nur bei den entsprechenden Stellen das macht.

Oder ein Instrument wie ein Klavier, du haust zu fest rein, ich habe einige Möglichkeiten diese Stellen im Mix zu entschärfen:
1) dezente Lautstärkenautomation
2) ich kann einen EQ aktivieren der mir hier bestimmte Frequenzen an diesen stellen ebenfalls dezent absenkt
3) und ich kann auch zb einen Transient Designer (auch genannt Envelope Shaper, Transient Shaper, etc) verwenden, um die Anschläge etwas zu reduzieren, und das natürlich auch per Automation so das es nur bei bestimmten Stellen aktiv ist.

Ich kann das aber auch genau gegenteilig verwenden, ich habe einen Song der schon ziemlich voll ist, die Instrumente geben alles, der Pianist haut rein in die Tasten, zu 95% zufrieden, aber ein bisschen mehr könnte es noch sein, dann kann ich genauso mit einen Transient Designer genau an diesen Stellen seine Tastenanschläge noch etwas mehr rausholen und betonen, und vielleicht auch mit einem EQ oder einem Exciter noch dazu für noch mehr Obertöne.
mache ich auch gerne am Schlagzeug bei den Drumfills am Ende einer Sektion das ich da mit solchen Methoden einfach noch ein wenig mehr Power und Excitement reinbekomme 🙂
Ich hab also damit richtig viele Möglichkeiten mit Automation zu arbeiten

mein Lieblingsclippingtool ist das kostenlose GClip, hab mal vor vielen Jahren einen Text dazugeschrieben, weiss aber nicht ob es das auch für Mac OS mittlerweile gibt:

Aber ich hab Clipper glaub ich noch nie für Klavier eingesetzt, eher für Schlagzeug und jegliche Percussionsinstrumente.
Klavier wäre mein Griff eher zum Transient Shaper, auch gerne Tape Saturation (aber die Tape Saturation halt auch in einem Rock und Pop Kontext wie es sich im epischen orchestralen filmmusikstil einsetzen lässt, fehlt es mir an Erfahrung).
 
  • Gefällt mir
Reaktionen: 3 Benutzer
  • Ersteller
  • #169
Ich gebe zu, dass ich mich mit der Automation bisher nur wenig beschäftigt habe - und sie auch nur sehr vereinzelt nutze.

In erster Linie kenne ich die Automation deshalb, weil ich bei Logic Pro manchmal irgendwie versehentlich die Automation von „Read“ auf einen anderen Modus umstelle und Logic dann, von mir unbemerkt, irgendwelche Automationen aufzeichnet. 😱 Ich fluche dann wild und brauche eine Weile, den Unfug wieder zu löschen.
 
  • Haha
Reaktionen: 1 Benutzer
  • #170
ich würde Automation auch defintiv erst ziemlich am Schluss machen, wenn noch mitten in der Songwriting und Arrangierphase bin, und da schon mit Automation anfange, schiesse ich mir damit selber ins Knie, weil ich noch üblicherweise viel im Projekt hin und herschiebe und ändere, und irgendwie übersieht man doch dann immer wieder eine Automationspur, und die wird dann nicht mitkopiert oder nicht mitverschoben, und lauter so sachen. oder man veschiebt ein Plugin in der Reihenfolge in den Inserts und auf einmal ist die automationspur dann weg :D, da gibts viele Fehlerquellen, einfach mühsam und ärgerlich 🤣 also habe ich mir angewöhhnt das ich immer erst ganz am schluss mache.

happy friday!
 
  • Gefällt mir
Reaktionen: 3 Benutzer
  • #171
@Jan S.

Schön, dass Du erst einmal zufrieden bist!

Wenn Du via Automation den einen Piano Hit leiser machst, dann hört man das überhaupt nicht, weil es eben dann nicht mehr heraussticht, mehr ist das ja nicht.

Ja, es ist wichtig, dass man darauf achtet, dass READ läuft, wenn man abspielt. Das ist ein sehr gutes Tool, aber man muss etwas üben, um es blind zu beherrschen.

In Logic gibt es einige Clipper, z.B.:

In jedem Compressor unter DISTORTION und im PHAT FX.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
  • Ersteller
  • #172
Auch diese Frage packe ich mal hier in meinen kleinen „Fred der gesammelten Ratlosigkeiten“ (😉), weil ich schlicht nicht sagen kann, ob es ein Thema der Instrumentierung ist, des Mixings oder ob es eher um ein Plugin geht:

Wie erzielt man den Effekt, dass ein Klang (z.B. ein Software-Instrument) sowohl direkt und eng am linken als auch am rechten Ohr erklingt (wir unterstellen mal Kopfhörer)?

Was meine ich damit? Die Instrumente platziert man ja nach eigener Vorstellung im Stereobild (einfaches Beispiel: Streicher mittig, Blechbläser rechts). Ich möchte aber den Effekt erzielen, dass ein Instrument „zweigeteilt“ sowohl am linken als auch am rechten Ohr direkt anliegt.

Was nicht funktioniert hat, ist eine Doppelung der Instrumenten-Spur in der DAW (Logic Pro) und ein anschließendes Verschieben der Panoramaregler der Spuren nach links und rechts: Der Ton wird zwar „breiter“, der Effekt beider stark nach links bzw. rechts verschobener Spuren hebt sich aber weitgehend auf und das Instrument erklingt nach wie vor (in etwa) mitten im Raum. Auch kleine Veränderungen beider Spuren, z.B. mit Round Robins, Differenzierung der Dynamik o.ä. machen beide Spuren zwar besser getrennt hörbar, erzielen aber nicht den gewünschten extremen Effekt eines Erklingens direkt und getrennt an jedem Ohr.

Braucht man dafür ein bestimmtes Plugin, oder was ist zu tun?
 
  • #173
Mitte/Seiten Stereophonie ? :gruebel:
 
  • #174
Ich würde sagen, diesen Effekt kann man nur erzeugen, wenn zwei unterscheidbare Instrumente vorliegen.
Die müssen sich dann untereinander auch hinreichend unterscheiden. Wie stark der Unterschied sein muß kommt halt drauf an.

Um welches Instrument soll es hier gehen ?
 
  • Gefällt mir
Reaktionen: 1 Benutzer
  • #175
das was du beschreibst, entsteht durch den Unterschied zwischen dem Linken und dem rechten Kanal

dazu fallen mir spontan 2 Möglichkeiten ein

was ich als erstes ausprobieren würde.
für Links ein anderes VSTi verwenden, als für rechts

wenn du zb Geigen hast, stell dir das so vor, arbeitest mit 2 Geigern(innen), der/die eine spielt auf der rechten Seite, und der/die andere spielt auf der linken Seite
beide spielen vielleicht die selben Noten, aber dadurch das sie unterschiedliche Personen sind, spielen sie etwas anders, das Timing ist leicht unterschiedlich, sie haben einen anderen Ton und auch ein anderes Instrument mit einem anderen Grundklang, daduch erreichst du diese Trennung und diesen Effekt das du quasi das Gleiche, aber doch Unterschiedliche auf beiden Seiten hast.

es gibt auch Plugins das soetwas mehr oder weniger gut machen können, wie zb das Reel ADT von Waves
müssten man ausprobieren wie sich der Effekt für dich in dem Kontext anhört

ach ja, und noch eine Möglichkeit wäre, wenn das VSTi schon bereits mit mehreren Mikrofonen abgenommen würde, könnte man auch hier 2 Direktmikrofone auswählen und eines davon nach Hart Links und das andere nach Hart Rechts pannen.
kann aber sein das dann die Balance in Sich gestört ist (zb eine Seite ist zu basslastig) und auch das es mit der Monokompatiblität ev. Probleme gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 3 Benutzer
  • #176
für Links ein anderes VSTi verwenden, als für rechts

es gibt auch Plugins das soetwas mehr oder weniger gut machen können, wie zb das Reel ADT von Waves
entscheidend für den Eindruck sind die Zeit-Differenzen, es muss also kein explizites ADT sein.
Einfach mal ein Delay von null bis 80ms zwischen die Kanäle setzen.
Sorgfältig einstellen, der Effekt reagiert sehr sensibel auf verschiedene Zeiten.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
  • #177
Hätte ich jetzt auch als ersten Gedanken gehabt:
Minimaler Zeitversatz der gepannten Spuren. Beide routen auf denselben FXAux-Send.
 
  • #178
Ein Delay funktioniert durchaus - klingt aber eben auch so. Halt etwas künstlich.
Das würde ich im Orchester-Kontext persönlich nicht machen wollen 😉
 
  • Gefällt mir
Reaktionen: 1 Benutzer
  • #179
der Trick mit dem Delay, das nennt man dann auch den Haas Effekt oder?
 
  • #180
Eher das Gegenteil. Damit man zwei Signale als getrennte Signale wahrnehmen kann, müssen sie außerhalb des Haas-Fensters liegen. Innerhalb des kurzen Fensters macht das Gehirn ein einzelnes Signal draus (etwas kurz formuliert).
 
  • Interessant
  • Gefällt mir
Reaktionen: 3 Benutzer
Zurück
Oben