Frequenzen im Stereobild

242
242
Registrierter Benutzer
Zuletzt hier
09.11.21
Registriert
18.10.20
Beiträge
154
Kekse
53
Guten Tag,

nach meiner Recherche habe ich Grafiken und Ausführungen gesehen die bestimmte Instrumente einem Platz im Stereobild zuordnen. Ich selbst benutze gerne einen Monomaker um z.B. alle Informationen unter 90hz Mono zu machen, wie man die hochfrequenten Quellen im Stereobild verteilt ist dann schon etwas komplizierter.

Sicherlich nicht verkehrt ist dies an erster Stelle nach Gehör zu machen. Da ich mich aber an komplexeren Ansätzen versuchen möchte, wäre eine theoretische Stütze interessant.

Gibt es theoretische Ansätze für ein "maximal breit" wirkendes Stereobild, speziell wie man im Spektrum (L100-C-R100) das Signal in Frequenzen verteilen sollte? Was mich also interessiert ist eine abstrakte Zuteilung vom Frequenzspektrum ins Stereospektrum.

Viele Grüße
 
Eigenschaft
 
504,7 Hz gehört immer nach links.









Ernsthaft. Wie lange hast Du über das Thema nachgedacht? Ist Dir klar, dass ein Instrument nicht nur aus einem Ton und Töne nicht nur aus einer Frequenz bestehen?
 
  • Gefällt mir
Reaktionen: 5 Benutzer
Da muss ich Signalschwarz Recht geben, so schematisch geht das nicht und die meisten Instrumente haben bereits ein ganzes Bündel an Frequenzen.

Ausgewogenheit ist vermutlich ein Kriterium, also nicht alles Dumpfe nach rechts und alles Helle nach links. Ansonsten würde ich ganz einfach meinen Ohren vertrauen, dass das Gesamtbild nicht nach einer Seite schief hängt.

Banjo
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Hallo, danke für die Rückmeldung.

Würdet ihr also sagen, dass die tiefen Frequenzen in die Mitte zu legen (zB. Via Mono-Maker unter 80hz) und besonders hochfrequente Anteile in die Seiten zu legen für ein breit klingendes Stereobild irrelevant sind? Welchen Ansatz würdet ihr für ein breit wirkendes Stereobild verfolgen?

Mir ist durchaus klar, dass verschiedene Instrumente ein breites Spektrum abbilden. Was allerdings möglich ist und auf namhaften produktionen gemacht worden ist, ist z.B. eine Gitarrenspur über mehrere Verstärker aufzunehmen und per Bandpass in bestimmte Frequenzbereiche aufzuteilen. Mit Softwaresynths ist das noch simpler. Es gibt also unterschiedliche möglichkeiten frequenzen im Mix aufzufächern. Aber wie gesagt, mich interessiert hier eine abstrakte Perspektive, die nicht unbedingt mit praktikabeler Konvention in Verbindung steht. Ist nicht unbedingt Jedermanns Sache, aber das ist nun mal was mich an dieser Stelle interessiert.

Nach meinem aktuellen Verständnis würde es theoretisch Sinn ergeben 1hz in der Mitte zu haben und alles über 20k gänzlich an der Seite. Sollte das theoretisch sinnvoll sein, wäre dann interessant für mich zu wissen wie die Frequenzen theoretisch im Klangbild zu verteilen wären.
 
Zuletzt bearbeitet:
Welchen Ansatz würdet ihr für ein breit wirkendes Stereobild verfolgen?

Der eigentliche unterschied bei Frequenzen bezüglich der Wahrnehmung im Stereobild ist tatsächlich die Frequenz. Tiefe Töne sind schwer ortbar, weshalb es keinen Sinn macht, die im Stereopanorama zu verteilen. Deshalb ist es durchaus sinnvoll, Bass Frequenzen generell in Mono zu definieren. Also alles von ca. 120 Hz abwärts.

Was das Stereofeld angeht, hier kommt es auf das Instrument an. Und hier ist probieren angesagt, damit man das versteht. Das macht dann links und rechts Platz für andere Frequenzen.

Beispiel Bass, der hat natürlich nicht nur Frequenzen unterhalb von 120 Hz, sondern auch andere Frequenzen in höheren Bereichen. Beispiel Slap Bass. Der Slap liegt so um ein Kiloherz. Testweise kann man jetzt einfach mal den Bass nehmen, die Spur doppeln, bei der einen Sour alles unter 120 Hz in Mono Mitte legen, alles darüber mit einem EQ abschneiden. Auf der anderen Spur macht man das umgekehrt. In der zweiten Spur dann ein Plugin rein, das Breite macht. Hall oder ähnliches, vielleicht noch einen Stereo Widener. Und dann mal am Panorama drehen. Testweise mal die Grenzfrequenz der beiden Spuren verschieben. Cut High an der einen und Cut Low an der anderen Spur verschieben.

Das sollte einen Eindruck vermitteln, was für ein Zusammenhang besteht zwischen Frequenz, Ortbarkeit und Stereo Eindruck.

Generell sind Frequenzen von 800 bis ca. 2.5 kHz gut zu ortbar. Darüber hinaus wird es dann schon wieder schwierig. Das gibt dann eher so eine Art Stereo Wolke.

Nach meinem aktuellen Verständnis würde es theoretisch Sinn ergeben 1hz in der Mitte zu haben und alles über 20k gänzlich an der Seite.

Du musst Dein theoretisches Verständnis mit der Realität abgleichen. Danach wird von diesem Verständnis nichts mehr übrig sein. Es wird ersetzt worden sein durch praxistaugliche Erkenntnisse über Stereo als solches und die unterschiedlichen Techniken, die eingesetzt werden können, um Klänge sinnvoll im Stereo Panorama zu verteilen..... (;
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Nach meinem aktuellen Verständnis würde es theoretisch Sinn ergeben 1hz in der Mitte zu haben und alles über 20k gänzlich an der Seite. Sollte das theoretisch sinnvoll sein, wäre dann interessant für mich zu wissen wie die Frequenzen theoretisch im Klangbild zu verteilen wären.
Wenn es sich bei "1 Hz" und "über 20 k(Hz)" nicht um Schreibfehler handelt, solltest du, mit Verlaub, dringend deine theoretischen Grundlagen aufarbeiten und auf ein Fundament stellen.
1 Hz und alles über 20 kHz liegen weit unter bzw. über der menschlichen Hörschwelle. So tiefe, knapp über dem Gleichstrom liegende Frequenzen lassen sich auch gar nicht wiedergeben, selbst mit den größten Subwoofern nicht. Außerdem sollten ggf. tatsächlich vorkommende extrem tiefe Frequenzanteile wie z.B. Rumpeln aus der Aufnahme heraus gehalten werden, das sie sonst den Klang komplett versauen können.
Instrumente, die im Obertonspektrum Frequenzanteile über 20 kHz haben, sind sehr, sehr dünn gesät, und wenn es dort tatsächlich Harmonische gibt, sind deren Pegel sehr bis verschwindend gering. Aber wie gesagt, sind diese schon in Richtung Ultraschall gehenden Frequenzen für das menschliche Ohr ohnehin nicht wahrnehmbar, und wenn mit 44,1 kHz gesampelt wird, ist alles über ca. 20 kHz sowieso und zurecht heraus gefiltert.

Wenn die Grundlagen nicht stimmen, erwachsen daraus selten bis nie sinnvolle Konzepte.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich vermute mal, die 1Hz und 20kHz waren eher so als Eckpunkte einer Verteilung von Mitte bis extrem außen gedacht, nicht unbedingt als hörbare Frequenzen. Aber auch dieser theoretische Ansatz wird nicht klingen.

Letztlich muss man sich nur eine gut klingende Produktion anhören und mit dem Balanceregler spielen um zu merken, dass da beide Seiten relativ ausgewogen sind. Auch ein Signal in der Mitte geht ja nach links UND rechts, sofern man nicht gerade Surround mixt.

Banjo
 
Der eigentliche unterschied bei Frequenzen bezüglich der Wahrnehmung im Stereobild ist tatsächlich die Frequenz. Tiefe Töne sind schwer ortbar, weshalb es keinen Sinn macht, die im Stereopanorama zu verteilen. Deshalb ist es durchaus sinnvoll, Bass Frequenzen generell in Mono zu definieren. Also alles von ca. 120 Hz abwärts.
(...)
Generell sind Frequenzen von 800 bis ca. 2.5 kHz gut zu ortbar. Darüber hinaus wird es dann schon wieder schwierig. Das gibt dann eher so eine Art Stereo Wolke.
Das ist sehr nützlich für mich. Ich habe gelesen, dass Dave Jerden Gitarren 7k aufwerts aufgenommen hat (mit highpass) und sie mit anderen Gitarrenspuren (gleiche Spielweise andere Verstärker) die gelow/bandpasst wurden zusammengesetzt hat. Er hat die Summe aber hart links und gedoppelt rechts gesetzt. Da ab 2,5khz aber die Zuordnung nicht mehr plausibel ist, macht es da dann keinen Sinn das extra etwas weiter nach außen zu legen. In gewisserweise macht es dann Sinn im Stereofeld den Fokus auf alles zwischen 120hz-2,5khz zu legen. Natürlich ist letztendlich die praktische Erfahrungen Ausschlag gebend. Das Beispiel mit dem Bass ist auch interessant für mich weiter zu berfolgen.

@lobomix&banjo
Es ging mir tatsächlich um die genannten Eckpunkte ohne praktischen Bezug. Praktisch gesehen ist das tiefste mit dem ich arbeite eine akustische Basedrum. Die Ausführung war dennoch interessant. Im Höhenbereich arbeite ich mit höheren Abtastraten. Die Debatte über Abtastraten und dem Hörvermögen des menschlichen Gehörs ist grundsätzlich hoch Interessant, würde ich in diesem Rahmen aber lieber außen vor lassen. Klar ist, irgendwo gibt es definitv eine wahrnehmbare grenze und in sofern das korrekt ist, ist für das Stereobild alles über 2,5khz weniger interessant.

Danke für die Antworten soweit. Ich habe den Eindruck, die Sache nun besser zu verstehen und gebe allen recht, dass es im Endeffekt unwesentlich ist, wenn ein Mix in einem theoretischen Sinne breit wirkt.
 
Noch ein anderes Beispiel:

Pop Life - Prince



Stimmen im linken Kanal um etliche Millisekunden und mit Delay nach hinten versetzt, im rechten Kanal dry und on time.
Macht im Stereo-Bild einen sehr interssanten, "schwirrenden" Eindruck.

Der deutsche Toni Hans-Martin Buff hat ja mal ein paar Jahre mit Prince zusammengearbeitet. Im Interview sagte er: "Als ich bei Prince anfing, konnte ich schon einiges. Als ich dort aufhörte (Kündigung seinerseits), konnte ich schon vieles." :rock:

Edith: Hier noch eine Live-Version (Live hat er immer gerne jazzige Versionen seiner Songs präsentiert, Delay auf Voc aber auch hier zu finden):

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Danke für dieses Beispiel. Qualifiziert sich das als der sogenannte Haas-Effekt? Kommt es dabei, wenn man nicht darauf achten, unter Umständen zu Phasenauslöschung, wenn das Signal auf Mono gesetzt wird?
 
Zuletzt bearbeitet:
Hi:hat:

Um ehrlich zu sein. Solche theoretischen Überlegungen in dieser Art mach ich mir auch oft. Mir ist es dann von Anfang an bewusst, dass das vermutlich in der Praxis kein Sinn ergibt.
Aber, man lernt viel dabei, wenn man das dann einfach mal nachbaut, und ausprobiert, was denn in der Praxis tatsächlich passiert.

Also zB in deinem Beispiel mit den Frequenzaufteilungen, könnte ich mir vorstellen, dass es ein Interessantes Experiment wäre, wenn man es nicht ganz so auf die Spitze treibt. Ich würd das mal nicht grad mit einzelnen isolierten Frequenzen versuchen, sondern ganze Töne inklusive deren Obertöne entweder nach links oder rechts zu verteilen. Dann muss es auch nicht unbedingt ein Experiment bleiben.

Ein Beispiel: Ich habe eine Gitarre und ein Piano und ein Song in C-Dur.
Da kommen die Töne C D E–F G A H–C vor.
Nun kann ich ja bei der Gitarre, zB die Töne C, E, G und H nach links legen, und die Töne D, F, A, C nach rechts.
und beim Piano mach ich das umgekehrt.

Ich hab das Experiment noch nicht gemacht, aber ich denk mir, das klingt sehr aufgeräumt und breit. Vermutlich etwas zappelig und nervös^^. Und beide Instrumente sind (durchschnittlich) mittig im Panorama. Kann durchaus in der Praxis Sinn ergeben, muss man halt ausprobieren. Und wenns nicht funktioniert, hat man viel gelernt dabei:)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Nachtrag:
Das hat mich jetzt echt grad interessiert und ich habs mal nachgebaut. War schnell gemacht.
Ich glaub das kommt in meinen Mixen jetzt öfter zur Anwendung, das ist echt geil was dabei raus kommt, sehr dynamisch und lebendig:)
hört selbst:
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Interessant. Was hat dich zu diesem Ansatz bewegt?

Bei Kraftwerk - tour de france (2009 mix) hört man einen Harfenlauf von tief zu hoch und in der Mittendes Laufs wird die spur von links auf rechts gelegt. Simple aber effektiv.



Eventuell dienlich für eine breitere Klangerzeugnisse ist wenn man höhere Noten nach Außen legt.
 
Erlaubt ist, was gefällt, und wenn es hilft, das angestrebte Ziel zu erreichen, warum nicht ...

Da ich sowohl als Musiker als auch als "Ton-Aufzeichnender" aus der Klassik komme, kann ich zur speziellen Aufnahmetechnik in dem hier zur Debatte stehenden Genre wenig beisteuern, aber zu dem in Post #9 beschriebenen Delay eines Signals im jeweils anderen Stereo-Kanal möchte ich etwas anmerken.

Dieser Effekt erinnert mich an das Erzeugen von mehr oder weniger Laufzeit- und Pegelunterschieden durch die gezielte Auswahl einer zur Aufnahmesituation und dem beabsichtigten Stereoklang passenden Stereo-Mikrofonanordnung.
Bekanntlich kann man zwischen den Extremen Koinzidenz-Mikrofonie (die 2 Mikrofonkapseln haben praktisch keinen Abstand zueinander und sind nur angewinkelt, z.B. XY) und einer breiten AB-Anordnung (Mikrofone sind parallel angeordnet in einem Abstand von 60-80 cm). Alle Kombinationen aus mit Abstand und Winkeln zueinander angeordneten Mikrofonen fasst man unter dem Stichwort "Äquivalenzanordnung" zusammen, z.B: ORTF, EBS usw..
Sehr schön visualisiert ist das in diesem Arbeitsblatt: http://www.sengpielaudio.com/Visualization-EBS.htm
Dabei gilt, dass Koinzidenzanordnungen nur Pegelunterschiede, aber keine Laufzeitunterschiede liefern, reine AB-Anordnungen dagegen nur Laufzeit-, aber praktisch keine Pegelunterschiede, dagegen die Äquivalenzanordnungen aber beides.

Koinzidenzanordnungen ergeben ein Stereobild, dass im besten Fall sehr präzise abbildet und eine sehr gute Lokalisation der Schallquellen erlaubt. Die Räumlichkeit bleibt dagegen blass und schlimmstenfalls klingen solche Aufnahmen fast wie mono.
Laufzeitunterschiede bringen dagegen eine Räumlichkeit bis hin zu einer schon spektakulären Räumlichkeit, wobei die Präzision der Abbildung der Schallquellen und deren Lokalisation leidet und die Aufnahmen diffus, schlimmstenfalls verwaschen und matschig klingen je nach Hallanteil.
Es gilt, die gute Anordnung für die gegebene Aufnahmesituation, den Raum und das Ensemble zu finden - allerdings wird man in den meisten Fällen nicht nur mit zwei Mikrofonen, also der Stereo-Anordung alleine arbeiten, sondern Nah-Stützen dazu nehmen und eine Mehrspur-Aufnahme machen.
Die Überlegung, bestimmte Töne, Frequenzen bzw. Frequenzbereiche im Stereobild in der DAW gezielt zu verteilen oder Frequenzbereiche sozusagen frei zu räumen gibt es so im Klassik-Bereich nicht (ist mir jedenfalls noch nicht so begegnet), wobei es aber immer sehr ratsam ist bei Aufnahmen in Räumen, vor allem großen und halligen Räumen (z.B. Kirchen), besonders die tiefen Frequenzen im Griff zu halten, da diese dort schnell "herum wabern" und den Klang mulmig machen.

Die Überlegungen zu den ´Frequenzbereichen´ der Instrumente wurden vorher praktisch vollständig durch die Komposition, die Instrumentierung und das Arrangement fest gelegt, ebenso die räumliche Verteilung der Instrumente durch die Aufstellung und Sitzanordnung des Ensembles.
Ich hoffe, @242, dass diese Anmerkungen trotzdem ein wenig Licht in den Zusammenhang mit der Ausfüllung der Stereobasis bringen können. Möglicherweise lohnt es sich aber, ein wenig mit Pegel- und Laufzeitunterschieden eines Signals im jeweils anderen Kanal herum zu experimentieren aufgrund der hier beschriebenen Zusammenhänge - ähnlich wie zu den Takes von Prince beschrieben.

Gruß, Jürgen
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Da ich sowohl als Musiker als auch als "Ton-Aufzeichnender" aus der Klassik komme, kann ich zur speziellen Aufnahmetechnik in dem hier zur Debatte stehenden Genre wenig beisteuern, aber zu dem in Post #9 beschriebenen Delay eines Signals im jeweils anderen Stereo-Kanal möchte ich etwas anmerken.
Ich selbst bin im popular Musik Bereich tätig, aber primär mit physischer Instrumentation.
Koinzidenzanordnungen ergeben ein Stereobild, dass im besten Fall sehr präzise abbildet und eine sehr gute Lokalisation der Schallquellen erlaubt. Die Räumlichkeit bleibt dagegen blass und schlimmstenfalls klingen solche Aufnahmen fast wie mono.
Bei verzerrten Gitarren nimmt man deshalb häufig eine Spur zwei mal auf (overdub), da ein simples kopieren auf die andere Seite praktisch in der Mitte landet. Ohne Differenz kein Stereobild.
Die Überlegungen zu den ´Frequenzbereichen´ der Instrumente wurden vorher praktisch vollständig durch die Komposition, die Instrumentierung und das Arrangement fest gelegt, ebenso die räumliche Verteilung der Instrumente durch die Aufstellung und Sitzanordnung des Ensembles.
Da ich garnicht die Möglichkeit habe ein so räumliches Phenomen wie ein Orchester aufzunehmen bleibt viel Interpretationsraum um ein Klangbild zu erzeugen. Während man hier eine Perfomance aufnimmt, arbeite ich mit einer Collage an Performances. Das Beispiel der elektronischen Musik finde ich aber gut, weil es viel Erklärungsbedarf wie man das mit "echten Instrumenten" umsetzen möchte außen vor lässt.

Meine Idee das Klangbild mit steigender Frequenz nach Außen aufzublättern, steht im Widerspruch im Vergleich zu natürlichen Phenomenen wie z.B. ein Orchester in einem Raum spielend. Der Mix wird beim Orchester durch die Anordung der Musiker und der Architektur vorgegeben. Das Ziel ist es hier ein natürliches Phenomen dokumentieren.

Für mein Projekt würde ich momentan die tiefen Frequenzen bis 80-120hz einfach mono setzten. Die Bass line kann man im oberen Bereich künstlich mit einem Stereo-Raumeffekt oder Wider etwas spreizen. Die Information darüber würde ich dann aufteilen bis alles über 2,5khz, was sich dann ganz an den Seiten befinden würde.

Auf was ich ursprünglich aus war ist zu einer Frequenz ein logischen Platz im Spektrum zu zuordnen (mit einer Formel). Wenn man also logisch argumentieren kann, tieffrequente Informationen komplett in die Mitte zu setzen und Hochfrequente über 2,5khz ganz nach außen, dann müsste es theoretisch zwei richtige Plätze für 1khz geben. Das war mein Gedanke. Die Anordung der Musiker im Orchester folgt auch gewissen physikalischen Prinzipien.
 
Zuletzt bearbeitet:
Ich verstehe grundsätzlich, dass dieser Malen nach Zahlen Ansatz im besten Fall sehr beschränkt ist und somit für die meisten Applikationen irrelevant ist. In einem experimentellen Kontext, bei dem man eine Komplexität erreicht bei dem sich ein trial and error Prozess aufgrund fehlender Flexibilität nicht anbietet, würde ich es gerne so probieren.

Mit dem Ziel ein breites Stereobild zu erzeugen, bietet es sich an das lowend mono zu setzen und das highend zunehmend zu spreizen. Ab einen gewissen Punkt (ab ca. 2.5khz) ist ein weiteres Spreizen kontraproduktiv, da das menschliche Ohr/Gehirn die Information nicht mehr lokalisieren kann.

Man kann einen Mono-Maker anwenden, sagen wir bis 80-100hz, die Information darüber weiterhin relativ mittig halten und ab etwa 800hz (leicht lokalisierbar) fängt der kritische Spreizpunkt an. Die Relation zwischen Hertz und Seitenposition ist aber nehme ich an nicht linear. Diese Realtion ist ein kritischer Punkt der mich interessiert. Eine raue Kalkulation allein wäre dienlich, in Situationen in denen sich Informationen im Stereofeld nach belieben verteilen nicht pragmatisch ist (z.B. wegen Komplexität). Eine solche Perspektive ist, wenn man die Option hat direkt auf akustisches Feedback zu reagieren und auch wenn man konventionelle Verteilungsoptionen in Betracht zieht sehr abwegig, keine Frage.
 
Ab einen gewissen Punkt (ab ca. 2.5khz) ist ein weiteres Spreizen kontraproduktiv, da das menschliche Ohr/Gehirn die Information nicht mehr lokalisieren kann.

Du scheinst sehr interessante Informationsquellen zu haben.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
@242, deinen Ausführungen kann ich weitgehend nicht folgen. Die tiefen Frequenzen (unterhalb 150 Hz) nur in mono abzubilden war üblich bei der Schallplatte, weil es nicht sinnvoll möglich war, die tiefen Frequenzen in den Stereo-Rillenflanken abzubilden, da das die Spielzeit der Platte deutlich verkürzt hätte. Zusätzlich wurden die Frequenzen unter 40 Hz abgesenkt, da dies die Spielzeit noch mehr beschränkt hätte, und zusätzlich hätte das die Nadeln aus der Rille werfen können.
Klanglich waren diese ´dezenteren´ Bässe durchaus nicht immer nachteilig, was wahrscheinlich einer der Gründe ist, warum manche heute noch finden, dass die Schallplatte besser klingt.
Insofern könnte eine mono-Mischung unterhalb ca. 150 Hz unter Umständen eine klangliche Verbesserung bringen. Eine Gesetzmäßigkeit würde ich aber nicht daraus machen, sondern im Einzelfall ausprobieren und entscheiden.

Tatsächlich kann das Gehör auch tiefe Frequenzen lokalisieren, indem der Laufzeitunterschied zwischen den beiden Ohren als Phasendifferenz vom Hörzentrum ausgewertet wird [sehr ergiebige, aber nicht einfach zu lesende Quelle: https://mitpress.mit.edu/books/auditory-neuroscience]. Diese Differenz darf aber nicht zu klein sein, was der Grund dafür ist, dass bei der üblichen Aufstellung der Lautsprecher im Stereodreieck die Lokalisation der tiefen Frequenzen schwer fällt (aber eben nicht unmöglich ist) - die Lautsprecher müssten deutlich weiter links und rechts aufgestellt werden um die entsprechenden Laufzeitdifferenzen zu liefern.
Dennoch ´monofiziere´ ich z.B. bei Orchesteraufnahmen die tiefen Frequenzen nicht, da bei der heute vorherrschenden Orchester-Aufstellung die Kontrabässe immer rechts außen stehen, lasse ich sie auch dort im Stereobild und verschiebe deren tiefe Frequenzen nicht zur Mitte hin. Das würde zu einer widersprüchlichen Abbildung der Bässe führen, da deren Obertöne (die ich stets über ein Stützmikrofon aufnehme) ja von rechts außen kommen. Das Panning der Stütz-Spur muss mit der Abbildung in den Stereo-Hauptmikrofon-Spuren übereinstimmen. Dieses Prinzip der Übereinstimmung der Lokalisation der Stütz-Mikrofone mit der vom Stereo-Hauptmikrofonsystem vorgegebenen Lokalisierung versuche ich stets konsequent einzuhalten.

Aber wie ich schon weiter oben schrieb, nehme ich an, dass diese aus der Aufnahmetechnik akustischer Ensembles im ´klassischen´ Genre stammenden Gedanken und Zusammenhänge nicht bzw. nur eingeschränkt auf dein Genre/deine Genres übertragbar sind.
Vielleicht beleuchten meine Anmerkungen aber, warum ich den Gedanken, Frequenzen zu pannen nicht nachvollziehen kann und keinen Zugang dazu finde.
Die technischen Einschränkungen aus der Zeit der Schallplatte können jedenfalls heute keine grundsätzliche Richtschnur mehr sein.

Die Aufstellung und Sitzordnung von Orchestern folgt eher weniger physikalischen Gründen, wobei gewisse akustische Aspekte durchaus eine Rolle spielen. So braucht es immer mehrere bis viele unisono spielende Streicher, um einen voll und homogen klingenden Streichersatz zu erhalten. Da die Blasinstrumente auch schon solo klanglich deutlich durchsetzungsfähiger und präsenter sind, braucht es davon nur wenige im Vergleich zu den Streichern, und man kann sie dann besser hinter den Streichern anordnen.
 
  • Interessant
  • Gefällt mir
Reaktionen: 2 Benutzer
Insofern könnte eine mono-Mischung unterhalb ca. 150 Hz unter Umständen eine klangliche Verbesserung bringen. Eine Gesetzmäßigkeit würde ich aber nicht daraus machen, sondern im Einzelfall ausprobieren und entscheiden.
Dem schließe ich mich an. Ich habe diesen Ansatz übernommen von Mick Guzauski.
(ab 8:00)
In diesem Video äußert er sich nur kurz dazu. Ich habe mir auch andere Mix-Sessions von ihm angeguckt und da äußert er sich ausführlicher (er benutzt einen Monomaker, wenn ich mich recht erinnere, in jedem Mix) . Wenn man eine glaubhafte Räumlichkeit z.B. in einem Klassik-/Jazz-Kontext herstellen möchte, würde ich das auch nicht machen. Es geht darum die "Energie" des lowends gleichmäßig zu verteilen. Bei Produktionen die mit einem Overdubverfahren arbeiten ist das oft naheliegender als wenn man eine Performance aufnimmt. Mir geht es bei diesem Ansatz um ein gänzlich künstliches Klangbild.
 
Zuletzt bearbeitet:
Bei Produktionen im Pop hat man üblicherweise jede Spur (d.h. jedes Instrument, jede Stimme usw.) isoliert von den anderen Spuren und damit einen sehr exklusiven Zugriff um mit Effekten und überhaupt die Spur zu bearbeiten. Auf diese Weise lässt sich auch jede Spur beliebig pannen, so dass eine widerspruchsfreie Anordnung im Stereobild möglich ist, auch bei Overdubs.
Das ist eine ganz andere Welt im Vergleich zu rein akustischen Aufnahmen ´klassischer´ Ensembles. Da Pop nicht eigentlich meine musikalische Heimat ist und ich mich mit dessen Eigenarten nicht näher auskenne, lasse ich auch schön die Finger davon, in diesem Bereich tätig zu werden, aufzunehmen oder gar zu mischen oder produzieren.

Nichtsdestotrotz wäre ich aber sehr daran interessiert, etwas aus deinen Arbeiten zu hören, wenn du etwas fertig gestellt hast. Auch und gerade ein Satz wie dieser:

Mir geht es bei diesem Ansatz um ein gänzlich künstliches Klangbild.
macht mich neugierig, wie so etwas klingen wird. Vielleicht kannst du hier ja was einstellen.

Wenn ich Mick Guzautzki im Video oben richtig verstanden habe, geht es ihm bei der ´Monofizierung´ der tiefen Frequenzen (8:10 - der Regler stand auf 92 Hz) darum, dass diese tiefen Frequenzen identisch (also mit gleichem Pegel und gleicher Phase) von beiden Lautsprechern des Stereo-Sets abgestrahlt werden, womit sie mehr "Punch" bekommen.
Diesen Zusammenhang kann ich nachvollziehen und er leuchtet mir ein.
 
  • Gefällt mir
Reaktionen: 1 Benutzer

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben