Phasenverschiebung: Relevanz bei Recording?

P
pasc_1984
Registrierter Benutzer
Zuletzt hier
09.11.21
Registriert
10.09.20
Beiträge
11
Kekse
0
Hallo,
ich plane, das Konzert unseres lokalen Harmonieorchesters aufzuzeichnen. Ich möchte dazu A/B als Haupt-Mikrofonierung nutzen (gefällt mir klanglich einfach besser), gleichzeitig aber die Holzbläser und Percussions mit je zwei Stützmikrofonen abnehmen.
Beim Drumset kommen noch Overheads und Bassdrum hinzu.

Viele Mikrofone, dementsprechend ist das Stichwort Phasenverschiebung nicht zu ignorieren. Wobei (und das ist die Grundsatzfrage, die sich mir stellt): Inwiefern ist die Phasenverschiebung von Relevanz, wenn ich doch jedes Mikrofon einzeln aufzeichne und später erst je zwei Mikrofone aus einer Gruppe (Haupt-Stereopaar, Holz-Mikrofone, Percussions-Mikrofone, ...) und anschließend die Gruppen untereinander durch Polaritätsumkehr/Delay korrigieren kann?

Übersehe ich etwas?

Danke und Gruß,
Pascal
 
Eigenschaft
 
Zuletzt bearbeitet:
LordB
LordB
Registrierter Benutzer
Zuletzt hier
01.12.21
Registriert
12.06.18
Beiträge
389
Kekse
2.384
Wenn Dein Mischpult/DAW bereits bei der Aufzeichnung die Möglichkeit bietet, die Laufzeitkorrektur anzupassen, würde ich das tun. Mein Soundcraft Ui24r bietet sowas.
Als ich im Frühjahr 2019 eine Gruppe Pipes&Drums aufgenommen habe, stand ich später beim Mix vor dem gleichen Problem und musste jede Spur nachkorrigieren, weil ich es bei der Aufnahme vergessen hatte. Es war im Mix zu hören, dass die Laufzeiten nicht genau passten.
Es schadet also nicht die Laufzeiten zum Hauptmikro entsprechend zu korrigieren.

Die Phasenlage als solche bereits bei der Aufnahme zu berücksichtigen ist sicher der bessere Weg. Aber auch im Nachgang im Mix leicht zu korrigieren. Und oft auch besser zu identifizieren.
 
ProPA
ProPA
Registrierter Benutzer
Zuletzt hier
17.11.21
Registriert
26.11.10
Beiträge
115
Kekse
227
Ort
Hohenfurch
Man kann das vorher oder nachher korrigieren. Um sich kein Bein zustellen, sollten im Idealfall die Stützmikrofone, die nahe nebeneinander sind, etwa gleiche Entfernungen zu den Hauptmikrofonen haben (sternförmig), da man sonst zu viele verschiedene Laufzeiten mischt und man kann ja je Mikrofon nur eine kompensieren. Zeit spart man sich, wenn man:
- Bei der Aufstellung die Distanz zur Hauptmikrofonie misst (Laser?)
- Am Anfang ein paar mal vom hinteren Bühnenende in die Hände klatscht und das aufzeichnet, dann sieht man sofort den Versatz

Übrigens: A/B ist eigentlich ein No Go, das erzeugt ja bereits in sich Kammfilter und ist nicht monokompatibel. Du erzeugst Frequenzauslöschungen, die durch keine Nachbearbeitung der Welt wieder herzustellen sind. Gut anhören tut sich das in der Regel nur am Kopfhörer, da Du hier eine 100% Trennung zwischen den 2 Kanälen hast. selbst ORTF finde ich in der Praxis schon grenzwertig, weshalb ich das bei Orchestern in der Regel mit X/Y oder eigentlich mit sauteuren Stereo-Spezial-Mikrofonen mache. Wenn Du eine große Räumlichkeit einfachen willst, kann man eher z.B. nochmals eine A/B oder ORTF Mikrofonie in großem Abstand im Raum aufstellen, die man dann vorsichtig dazu mischt, evtl. auch mit einem Low Cut versehen.

Viele Grüße
Tobias
 
  • Gefällt mir
Reaktionen: 3 Benutzer
F
Frans13
Registrierter Benutzer
Zuletzt hier
01.12.21
Registriert
13.03.17
Beiträge
328
Kekse
1.408
Inwiefern ist die Phasenverschiebung von Relevanz, wenn ich doch jedes Mikrofon einzeln aufzeichne
Hallo Pasc_1984!
Das ist deswegen ein Thema, weil die Mikrofone wahrscheinlich nicht nur das mithören, was sie hören sollen, dh. da wo sie davor stehen, sondern auch den Rest drumherum. Jetzt weiß ich zwar nicht, welche Mikros du verwendest und wieviel da jeweils von den anderen Signalen mit drauf ist, aber du hast wohl auf jedem Mikrofon einen zeitversetzten Anteil der anderen Schallquellen... plus Reflektionen und Raumklang. Den Zeitversatz bekämst du hin, wenn alles statisch stehen bleibt und es quasi eine Stelle gibt die "Anker" ist und alles drumrum gestaffelt zunehmenden Zeitversatz hat. Aber du hast wohl (da könnte man jetzt dolle ein Diagramm zeichnen wo von allen Punkten zu allen andern Punkten Pfeile gehen) Signale, wo A das Hauptsignal vorm Mikrofon ist und B+C die anderen zwei.. und wenn du in Relation zu B die Zeit hingebogen hast, paßt sie auf dem andern Signal zu C nicht mehr. Und schiebst du C hin, paßt B nicht mehr und so weiter.
Wie stark das dann auffällt? Hängt von Dingen ab. Die elegantere Methode ist, die Signale so draufzubekommen, daß sie sich nicht gegenseitig stören. Das ist leider mit etwas Erfahrung verbunden, oder du mußt halt beim Aufbau probieren, hören, probieren, hören, probieren......

 
P
pasc_1984
Registrierter Benutzer
Zuletzt hier
09.11.21
Registriert
10.09.20
Beiträge
11
Kekse
0
Übrigens: A/B ist eigentlich ein No Go, das erzeugt ja bereits in sich Kammfilter und ist nicht monokompatibel.
Ich war erst auch überrascht, hatte davon aber in einem Artikel gelesen: https://m.bonedo.de/artikel/einzelansicht/klassik-aufnahmen-in-der-laeiszhalle-hamburg.html

Und sind wir mal ehrlich: Mir fällt
keine Situation ein, wo eine solche Aufnahme in Mono abgehört würde. ;) Selbst ältere Autos können Stereo.
X/Y hatte ich schon ein paar Mal genutzt, ich empfand es immer irgendwie „eingeengt“.

Gibt es Möglichkeiten, die Phasenlage ohne Orchester zu überprüfen, z. B. durch eine kleine PA auf der Bühne oder reicht da schon ein Schlagzeug?

Ich möchte noch anmerken, dass das kein bezahlter Auftrag ist. Ich spiele selbst dort mit und es ist einfach eine Möglichkeit, sich von Jahr zu Jahr damit auszuprobieren, aus Fehlern zu lernen, besser zu werden. Die Aufnahmen sind am Ende des Tages nur ein „Nice-to-have“. ;)
 
O
OSDrum
Registrierter Benutzer
Zuletzt hier
01.12.21
Registriert
06.02.11
Beiträge
98
Kekse
402
Ich habe solche Aufnahmen schon sehr oft gemacht und würde Dir raten, die Korrekturen erst später in der DAW zu machen, denn dort ist es reversibel und Du kannst Dich herantasten.
Um hinterher vernünftige Referenzen zu haben, ist es sinnvoll, bei laufender Aufnahme nahe (!) bei jedem Mikro einmal ein Clickgeräusch zu erzeugen (gut eignen sich Drumsticks, die wan wie zum Anzählen zusammenschlägt). Dann hast Du später die tatsächliche Verzögerung zwischen allen Mikrofonen verfügbar und kannst basierend darauf korrigieren.
Wenn Schlagzeug und Percussion im Spiel ist, ist das größte Problem eigentlich immer, dass die Snare zum Beispiel in alle Mikrofone einstreut und aufgrund der Laufzeitdifferenzen im Prinzip mehrfach hintereinander ertönt, was zu einem sehr unschönen „Möllersound“ führt. Ich optimiere daher immer auf das Signal, das am meisten stört - fast immer die Snare. Du solltest die Aufstellung der AB Mics so machen, dass der Abstand zum Schlagzeug gleichweit ist. Die anderen Stützmikrofone korrigiere ich meist so, dass die Snare phasengleich ist. Das ist ein Kompromiss, weil Du damit den Versatz zwischen Stützen und Hauptmikrofon nur teilweise oder auch gar nicht ausgleichst, aber in der Praxis führt es bei mir zu den besten Ergebnissen. Nur wenn kein Schlagwerk dabei ist, kann man die Stützen auf die Hauptmikrofone korrigieren, dann wäre meine Empfehlung, immer zum näher gelegenen Mikro der AB Anordnung zu korrigieren.
Am Ende solltest Du immer wieder die Korrektur mit dem Original vergleichen und die Ohren entscheiden lassen, welche Version besser klingt. Das die Korrekturen bis auf wenige Samples genau vorgenommen werden müssen, ist Dir klar denke ich. Je nach DAW muss man dazu das Zeitraster umstellen. In Samplitude kann man einen Bereich zwischen zwei Signalen aufspannen und bekommt die Länge in Samples angezeigt. Diesen Wert kann man dann als Verzögerung für die Spur mit den Stützen einstellen.
 
LoboMix
LoboMix
Helpful & Friendly User
HFU
Zuletzt hier
01.12.21
Registriert
23.01.15
Beiträge
2.502
Kekse
36.611
@pasc_1984, das Thema der "Phasen" wird oft etwas praxisfern übertrieben.
Auslöschungen durch ungünstige Überlagerung, also Phasenverschiebung, zweier oder mehrerer Audio-Signale sind umso relevanter, je mehr die Signale korrelieren und je statischer der Schall ist. Im Extremfall hat man zwei Sinustöne gleicher Frequenz, die gegeneinander phasenverschoben sind. Dann sind die Auslöschungen durch Subtraktion und die Verstärkungen durch Addition nicht nur gut zu hören, sondern auch sehr gut z.B. in einem Oszilloskop zu sehen.
Je weniger die Signale korrelieren, desto weniger kommt dieser Effekt zum Tragen.
Ganz "sauber" lässt sich das eigentlich nur mit technisch erzeugten Signalen (z.B. Prüftongenertor) und elektronischer Mischung (z.B. im Mischpult oder der DAW) reproduzieren.

In der Aufnahmepraxis bei Aufnahmen von akustischen Instrumenten und Ensembles spielen die Phasenbeziehungen keine nennenswerte Rolle, schon gar nicht, wenn dazu noch der Raum mit seinem Nachhall kommt. Denn die Signale korrelieren einfach nicht präzise genug, um die beschriebenen Auslöschungen und Verstärkungen zu produzieren. Die Phasenbeziehungen können angenähert als chaotisch betrachtet werden, auch wenn es sich um dasselbe Signal handelt (z.B. ein Klarinettensolo das sowohl im Hauptmikro als auch in der Stütze beim Spieler präsent ist). Alleine der Raum fügt ein gewisses Chaos hinzu, und zudem sind natürliche Klänge sehr selten ganz statisch in sich.
Hinzu kommt, dass die Stützen üblicherweise im Pegel unter den Hauptmikrofonen liegen bei der Zumischung, da kommt der Effekt erst recht nicht zum Tragen.

Wenn es einen halbwegs guten Raum für die Aufnahme gibt, würde ich immer eine Hauptmikrofonierung mit Laufzeitunterschieden empfehlen (Äquivalenzanordnungen oder A/B), da nur mit den Laufzeitunterschieden die Aufnahme eine ansprechende Räumlichkeit bekommt. Von XY als Hauptmikrofonanordnung habe ich mich schon lange verabschiedet (in guten Räumen), da sie mir zu wenig räumlich und tendenziell schon zu sehr quasi "mono" klingt.

Warum macht aber das Verzögern der Stützen gegenüber dem Hauptmikro dennoch Sinn?
Das hat damit zu tun, dass ohne diese Verzögerung das Signal der Stützen noch vor dem Hauptmikrofonsignal beim Hörer ankommt. Denn die Stützen stehen ja viel näher an den gestützten Instrumenten als das Hauptmikrofon. Ohne Verzögerung stehen die Stützsignale zeitlich vor dem Hauptmikrofonsignal, was die gestützen Instrumente zu präsent macht und vor allem die Räumlichkeit der Aufnahme verderben kann.
Im Gegenteil kann es sinnvoll sein, die Verzögerung der Stützen größer einzustellen als es der Entfernung zum Hauptmikro entspricht (z.B. 20ms mehr). Dann wirken die Stützsignale wie eine erste Reflexion und verbessern so sogar die Räumlichkeit der Aufnahme.
Hier eine kurze Hintergrundinfo dazu: http://www.sengpielaudio.com/HauptmikrofonUndStuetzmikrofone.pdf

Zu groß darf die Überkompensation nicht sein, vor allem bei percussiven Klängen, da es sonst zu Echo-artigen Verzögerungen kommt.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
ProPA
ProPA
Registrierter Benutzer
Zuletzt hier
17.11.21
Registriert
26.11.10
Beiträge
115
Kekse
227
Ort
Hohenfurch
In der Aufnahmepraxis bei Aufnahmen von akustischen Instrumenten und Ensembles spielen die Phasenbeziehungen keine nennenswerte Rolle, schon gar nicht, wenn dazu noch der Raum mit seinem Nachhall kommt. Denn die Signale korrelieren einfach nicht präzise genug, um die beschriebenen Auslöschungen und Verstärkungen zu produzieren. Die Phasenbeziehungen können angenähert als chaotisch betrachtet werden, auch wenn es sich um dasselbe Signal handelt (z.B. ein Klarinettensolo das sowohl im Hauptmikro als auch in der Stütze beim Spieler präsent ist). Alleine der Raum fügt ein gewisses Chaos hinzu, und zudem sind natürliche Klänge sehr selten ganz statisch in sich.
Hinzu kommt, dass die Stützen üblicherweise im Pegel unter den Hauptmikrofonen liegen bei der Zumischung, da kommt der Effekt erst recht nicht zum Tragen.
Da bin ich echt diametral anderer Meinung, nur um das nochmals zu unterstreichen. Laufzeitkompensation ist bei Orchesteraufnahmen schlichtweg Standard und ich höre das abartig. Es ist ja letztendlich auch kein Problem, da in der DAW korrigiert werden kann. ELementar für die Tonalität ist ja der Grundton des Instrumentes. Das ist auch der lauteste Sinus nach einer Fourier Transformation und natürlich korreliert der hervorragend auf dem Stützmikrofon und dem Hauptmikrofon, da die Wellenlängen ja passend lang sind, nämlich je nach Instrument bis zu mehrere Meter.

Kleine Gemeinheit: Wenn man natürlich schon mit A/B anfängt, hört man evtl. alle weiteren Phasenschweinereien nicht mehr ;)

Viele Grüße
Tobias
 
Basselch
Basselch
MOD Recording HCA Mikrofone
Moderator
HCA
Zuletzt hier
01.12.21
Registriert
30.10.06
Beiträge
12.515
Kekse
57.791
Ort
NRW
Hallo,
Übrigens: A/B ist eigentlich ein No Go, das erzeugt ja bereits in sich Kammfilter und ist nicht monokompatibel.

...in dieser Pauschalität muß ich der Aussage recht scharf widersprechen. Die eingeschränkte Monokompatibilität ist allerdings Tatsache - die andere Frage ist, wie oft wird heute noch echtes Mono gehört? Phasendifferenzen werden mit zunehmendem Abstand der beiden Kapseln bei AB auftreten (Wellenlänge kleiner Kapselabstand...), aber dennoch zeigt die Erfahrung, daß die Raumabbildung einer AB-Aufnahme nach wie vor überzeugend und beeindruckend ist. Je weiter die Mikrofone von der Schallquelle entfernt stehen, um so weiter dürfen sie auch auseinander stehen, um immer noch eine gute Räumlichkeit abzubilden, irgendwann folgt dann allerdings das "Mittenloch", wenn der Abstand dann doch zu groß wird. In einem solchen Fall von Groß-AB würde man das durch eine Mittenstütze auszugleichen versuchen.
Ich habe auch anfangs mit XY experimentiert, mich aber wie @LoboMix ganz schnell davon verabschiedet, weil es für mich klanglich unbefriedigend war (ich bin vorwiegend in der Klassik unterwegs, da hat man meist gutklingende Räume).
Gleichfalls hatte ich schon einige Male das Vergnügen, bei professionellen CD-Produktionen als Chorsänger dabeisein zu dürfen, und da habe ich meist AB in verschiedensten Ausführungen mit mehr oder weniger Stützen erlebt, einmal auch einen Decca-Tree, aber kein XY. Ich denke, die entsprechenden Tonmeister werden ihre Gründe gehabt haben... ;)
Unabhängig davon haben sich die Entwickler der verschiedenen Mikrofonierungstechniken sicher etwas dabei gedacht, solche Exoten wie "Stereo 180°" funktionieren ja auch. Nur eben nicht immer und überall... :D

Viele Grüße
Klaus
 
ProPA
ProPA
Registrierter Benutzer
Zuletzt hier
17.11.21
Registriert
26.11.10
Beiträge
115
Kekse
227
Ort
Hohenfurch
Gleichfalls hatte ich schon einige Male das Vergnügen, bei professionellen CD-Produktionen als Chorsänger dabeisein zu dürfen, und da habe ich meist AB in verschiedensten Ausführungen mit mehr oder weniger Stützen erlebt, einmal auch einen Decca-Tree, aber kein XY. Ich denke, die entsprechenden Tonmeister werden ihre Gründe gehabt haben... ;)
Da bin ich dann eher dabei. (Übrigens wäre ich ja einer der Tonmeister und ich habe mir in der Regel immer was dabei gedacht. ;) Da waren dann durchaus schon Jobs mit den Münchner Philharmonikern und ähnlichen dabei. Das ist jetzt nicht mehr direkt die Hobbyabteilung.)
Ich benutze zuletzt wie gesagt ebenso nicht X/Y, weil mich das nicht zu 100% befriedigt, meistens aber mehr als A/B. Ich nutze eben komplexere Geschichten, die hier aber nicht zur Verfügung stehen.
Bei großem Abstand und gutem Raum kann A/B wie von Dir erklärt tatsächlich gut sein, das ist aber gerade im Hobbybereich eher die absolute Ausnahme. Die schlechte Monokompatibilität der A/B Technik zeigt übrigens nur das grundsätzliche Problem der großen Laufzeitdifferenzen. Natürlich hört niemand mono, aber auch bei einer perfekten Stereoanordnung einer Abhöre kommt es zu Übersprechen auf das "falsche" Ohr und somit zu den Kammfiltern. Wenn ich Vollorchester nur mit 2 Standard Mikrofonen aufnehmen müsste, würde ich wohl X/Y nehmen, aber sehr nah rangehen (z.B. 1m hinter den Dirigent). Bei Chor würde ich eher ORTF nehmen. Beides kann man dann mit Plug Ins auch noch breiter ziehen, als es in echt war. Der Sound bleibt dabei druckvoll und kammfilterfrei. Wenn ich nah dran bin, brauche ich danach eben Kunsthall, was ich kein Problem finde. Sonst nutze ich dann eben gerne die weitere Raumstütze. Diese kann aufgrund des Abstandes dann auch gerne X/Y sein.
Viele Grüße
Tobias
 
P
pasc_1984
Registrierter Benutzer
Zuletzt hier
09.11.21
Registriert
10.09.20
Beiträge
11
Kekse
0
Holladiewaldfee! Hätte nicht gedacht, eine so rege Diskussion mit meiner Frage auszulösen. Danke für all eure Beiträge!

Ich werde morgen mal ein paar Konstellationen ausprobieren. Der Saal ist akustisch recht gut optimiert. Ich hatte vor, meine SE7-Nieren für das A/B zu nehmen, um Reflexionen aus dem hinteren Saalbereich zu bekämpfen. Ich glaube, ich teste einfach mal kleines A/B mit Stützmikrofonen bei der Generalprobe aus. Wenn es (Zufall?) gut klingt, lasse ich es stehen. Falls nicht, greife ich einfach für das Konzert auf ORTF zurück und gut ist. ;)
Wie gesagt: Es ist primär für mich. Würde es keine Aufnahme geben, würde keiner danach fragen. :cool:
 
Zuletzt bearbeitet:
LoboMix
LoboMix
Helpful & Friendly User
HFU
Zuletzt hier
01.12.21
Registriert
23.01.15
Beiträge
2.502
Kekse
36.611
Ich will gar nicht bestreiten, dass A/B-Hauptmikrofonie Probleme mit sich bringen kann, das liegt aber eher an unsachgemäßer Anwendung und/oder an schlechten, unpassenden Räumen und hat eher nicht mit "Phasenverschiebungen" zu tun.
Wenn ich in (sehr) halligen Kirchen ein Orchester aufnehme, dann ist mir die Räumlichkeit von A/B auch zu viel und der Klang zu verwaschen, unpräzise und undefiniert. Für eine Orgelaufnahme in derselben (sehr) halligen Kirche kann A/B hingegen genau richtig sein (Kugeln, 60 cm Abstand), vor allem, wenn die Orgel eine romantische Disposition hat und dazu auch das passende romantische Programm gespielt wird. Dann darf der Klang gerne etwas diffus und flächig sein.
Für Bach und überhaupt sehr kontrapunktische Musik würde ich eventuell eine andere Hauptmikrofonie auswählen.

Das ganze hängt also von den akustischen Gegebenheiten und der Stilistik ab - und nicht zuletzt von der Interpretation und Klangvorstellung des/der Interpreten. Aber das ist ja ein normaler Gedankengang bei jeglichen Aufnahmen.

Am allermeisten benutze ich Äquivalenzanordnungen wie ORTF/EBS und entsprechenden Anordnungen, deren Kapselabstände und -winkel ich anhand der Ausdehnung des Klangkörpers und des Abstandes der Hauptmikrofone selber erstelle mithilfe eines Rechenblattes nach E. Sengpiel.
Nach wie vor überzeugt mich die Kombination aus Laufzeit- und Pegeldifferenzen am meisten.
Mit Decca-Tree habe ich auch schon gearbeitet und diese Aufnahme war sehr überzeugend und ich hatte vor, es öfter einzusetzen.
Leider habe ich seit dem Beginn der Corona-Pandemie keine Aufnahme mehr machen können - ich mache das nur nebenher und die wenigen Aufträge, die ich regelmäßig habe, sind erst mal alle weg gebrochen, weil diese Ensembles alle Konzertprojekte abgesagt haben (bzw. die kleinen Ersatz-Veranstaltungen nicht mitgeschnitten werden).

Phasenverschiebungen gibt es bei Laufzeitdifferenzen immer, sie sind auch maßgeblich für den guten räumlichen Eindruck von Äquivalenz- und A/B-Hauptmikrofonanordnungen mitverantwortlich, da unser Gehör interaureale Phasenverschiebungen bei Frequenzen unterhalb von ca. 1600 auswerten kann. Wenn diese im Audiomaterial enthalten sind, wirkt nun mal vor allem der Raum beeindruckender und authentischer.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
P
pasc_1984
Registrierter Benutzer
Zuletzt hier
09.11.21
Registriert
10.09.20
Beiträge
11
Kekse
0
Was den Kammfiltereffekt betrifft, so kann ich das ja eigentlich recht einfach testen, indem ich an verschiedenen Positionen ein paar Läufe auf der Trompete oder auf dem Schlagzeug spiele, oder nicht?
 
LordB
LordB
Registrierter Benutzer
Zuletzt hier
01.12.21
Registriert
12.06.18
Beiträge
389
Kekse
2.384
Ich habe mal zur Phasenverschiebung und dem Kammfilter - und natürlich was man etwas dagegen tun kann - zwei gute Berichte bei delamar gelesen… und sogar wiedergefunden. Vielleicht hilft Dir das ja etwas.

https://www.delamar.de/faq/kammfiltereffekt-31609/
https://www.delamar.de/faq/phasenverschiebung-17344/

Als Tipp, sofern Du die Laufzeiten bereits bei der Aufnahme in der DAW korrigieren willst:

Je Meter bei 25° Raumtemperatur 2,888ms
Je Meter
bei 20° Raumtemperatur 2,912ms
Je Meter
bei 15° Raumtemperatur 2,937ms
 
Zuletzt bearbeitet:
LoboMix
LoboMix
Helpful & Friendly User
HFU
Zuletzt hier
01.12.21
Registriert
23.01.15
Beiträge
2.502
Kekse
36.611
@pasc_1984, jetzt lass´ dich nicht verrückt machen wegen Phasen und Kammfilter.
Wenn mehr als ein Mikrofon im Spiel ist, werden die auf irgend eine Weise interferieren.
Dabei muss man das (Stereo-)Hauptmikrofonsystem immer gesondert betrachten und darf es gedanklich nicht mit ggf. dazu kommenden Stützen vermengen.

Beim Hauptmikrofonsystem muss es zwingend (bei Stereo) zwei Signale geben, die unterschiedlich sind, aber korrelieren. Dabei darf die Korrelation nicht vollständig sein, dann wären die Signale identisch und es bliebe Mono*. Sie dürfen auch nicht zu stark differieren, dann wird das Resultat zu einem verwaschenen Klangbrei, dem es an Transparenz und Lokalisation fehlt.
Das passiert z.B. dann, wenn jemand in einer halligen Kirche zu weit weg von Klangkörper seine Mikros aufstellt. Dann erreicht sie nur noch der diffuse Raumhall (jedenfalls mit einem deutlich höheren Pegel als der Direktschall).**
Hier ein paar Hinweise zu Fehlern bei der Aufstellung von Hauptmikrofonsystemen: http://www.sengpielaudio.com/GedankenloseLaufzeitMikrofonaufstellungen.pdf
Inwiefern man mehr Pegel- oder mehr Laufzeitunterschiede ins Spiel bringen will, ist zum einen von der Aufnahmesituation (Raum, Ensemblegröße), des weiteren dem Genre und der Stilistik (siehe meinen obigen Post), und nicht zuletzt vom Geschmack und den Vorlieben abhängig.
Mitunter kann es sinnvoll sein, absichtlich eine gewisse Undifferenziertheit und etwas "Verwaschungen" in Kauf zu nehmen. Wenn etwa Laienensembles nicht ganz soo präzise und exakt musizieren, dann darf da gerne etwas "zugedeckt" werden.

Sehr hilfreich und informativ für die Einrichtung von Stereo-Hauptmikrofonsystemen ist diese Seite mit Rechenblatt:
http://www.sengpielaudio.com/HejiaD.htm

Die Hauptmikrofone müssen also angemessen unterschiedlichen Schall aufnehmen, was bei den üblichen Stereo-Hauptmikrofonsystemen gegeben ist. Betrachtungen hinsichtlich Phasenverschiebungen und Kammfilter-Effekten spielen bei Hauptmikrofonen erst mal keine, bzw. eine sehr untergeordnete Rolle.
Kammfilter-Effekte können z.B. dann auftreten, wenn man das Hauptmikrosystem dicht an eine (schallharte) Wand oder unter einer Decke aufstellt. Dann können von dort Reflexionen auf die Mikros treffen mit Pegeln, die ähnlich hoch sind wie die Pegel des direkt eintreffenden Schalls. Das führt dann tatsächlich schnell zu Kammfiltereffekten.
Wenn die Pegel der Reflexionen deutlich unter den direkt eintreffenden Schallpegeln liegen, bleiben die Kammfilter-Effekte unhörbar, können also vernachlässigt werden.
In jedem Fall sollen der Aufstellungsort und die Höhe des Hauptmikrofonsystems sorgfältig bedacht und eingerichtet werden (so es die Verhältnisse vor Ort zulassen, manchmal wird man mit Kompromissen leben müssen, vor allem bei Live-Mitschnitten).

Ansonsten spielen diese Überlegungen erst eine Rolle, wenn Stütz-Mikros zum Einsatz kommen. Aber auch hier muss man mehr auf den Abstand der Stützen zueinander achten als auf den Abstand zum Hauptmikrosystem. Für die Stützen hilft die "3zu1-Regel" [siehe hier: http://www.sengpielaudio.com/Die3zu1RegelAntworten.pdf]
Beim Zumischen der Stützen zum Hauptmikrofonsignal ist auf die Pegel zu achten. Liegen die ausreichend weit auseinander, dann kann der Kammfilter-Effekt generell vernachlässigt werden.
Entweder dominieren die Hauptmikros und die Stützen bleiben z.B. -10dB unter diesen (geben also nur ein wenig mehr Direktheit dazu), oder es ist umgekehrt: wenn das gestützte Instrument im Hauptmikro zu leise ist (weshalb es ja gestützt werden muss), dann dominiert der Stütz-Kanal, und wieder bleibt der Effekt unhörbar.
Im Zweifel natürlich immer mit den Ohren gut prüfen.
Hier noch etwas zu Stützen, allerdings bei Streichern: http://www.sengpielaudio.com/UnterschiedZwischenBass-Stuetze.pdf


Noch mal zu den "Phasen":
Bei Stereo-Hauptmikrophonsystemen ist wie gesagt dieser Ansatz ziemlich irrelevant. Denn bei einem so komplexen Schall wie es natürliche Klangerzeuger, und dann noch im Ensemble sind, macht die Betrachtung von Phasenbeziehungen praktisch keinen Sinn mehr. Allenfalls, wenn bei zwei sehr stark korrelierenden Signalen eines verpolt ist, z.B., weil ein Stecker falsch verlötet wurde - für so etwas ist ein Korrelationsgradmesser oder ein Stereo-Sichtgerät sehr hilfreich, aber auch um die Stereo-Basisbreite zu kontrollieren und Überbreiten zu vermeiden - hat heute jede DAW dabei.
Warum ist die "Phase" kein so wichtiger Aspekt?
Weil sie für jede Frequenz anders ist. Die Phasenverschiebung ist bei einem gegebenen Abstand nicht konstant, sondern ändert sich linear über den Frequenzbereich. Hier sind sehr ausführliche Infos dazu zu finden nebst einer kleinen Rechentabelle, mit der diese Zusammenhänge gut veranschaulicht werden können:
http://www.sengpielaudio.com/Rechner-LaufzeitPhase.htm

Nehmen wir als Beispiel 500 Hz (ein zu hoch intoniertes H1) und 20ms (rund 7m Abstand). Als Phasendifferenz errechnen sich 3600 Grad, also 10 x 360 Grad = dieser Sinus von 500 Hz wird sich also 1:1 decken, also das Signal am Hauptmikrofon und das der Stütze. Es sollte also zu einer Verstärkung kommen. Nun liegen die Pegel aber üblicherweise deutlich auseinander, der verstärkende Effekt wird also nur gering sein, praktisch kaum wahrnehmbar.
Das gilt nun aber nur für diese eine Frequenz sowie ihren (reinen!) Obertönen. Schon eine dazu gespielte (reine) Terz mit 625 Hz liegt mit 12,5 x 360 Grad in ihrer Phasenbeziehung Stütze-Hauptmikrofon ganz woanders. Und wenn das H1 sauber intoniert wird mit 493,89 Hz (bezogen auf A1=440 Hz und gleichstufige Temperatur), dann liegt die Phase mit 9,8778 x 360 Grad wieder daneben. Usw., usw., ...

Wenn man die Betrachtung nur auf ein A/B-Hauptmikrofonsystem beschränkt, dann wird es ebenfalls sehr komplex.
Eine Schallquelle, die genau mittig vor den beiden Mikros platziert ist, produziert keine Laufzeitunterschiede, also auch keine Phasendifferenz, da ihr Schall beide Mikros gleichzeitig erreicht. Schallquellen, die ganz seitlich platziert sind, würden den vollen Laufzeitunterschied zwischen den Mikros erreichen, bei 60cm Abstand wären das ca. 1,74ms (wobei es praktisch eher selten vorkommt, dass sich ein Ensemble im 180-Grad-Winkel um buw. zu den Mikros positioniert, die Laufzeitunterschiede werden daher meistens geringer sein).
Wenn nun ein Ensemble unisono ein und denselben Ton aushält, würde(n) diese Frequenz(en) am A/B-Hauptmikrosystem alle ihre je eigene Phasenlage produzieren, je nach Postion und Winkel des Spielers zum Hauptmikrofonsystem. Wohl gemerkt: ein und derselbe Ton und Dutzende verschiedene Phasenlagen. Schon bei einem Zweiklang kämen noch mal etliche Phasenlagen dazu.
Wie soll also die Betrachtung von "Phasen" im Bezug zum Hauptmikro-System irgendwie weiter helfen?***

Noch ein Wort zum "Grundton" weil davon weiter oben in einem Post die Rede war:
ELementar für die Tonalität ist ja der Grundton des Instrumentes. Das ist auch der lauteste Sinus nach einer Fourier Transformation
So generell stimmt das nicht. In dieser Quelle finden sich sehr detaillierte Infos mit Spektrogrammen dazu:
https://curdt.home.hdm-stuttgart.de/PDF/Klassische Orchesterinstrumente.pdf
Auf S. 50 findet sich eine anschauliche Tabelle, der man entnehmen kann, dass es viele Instrumente gibt, bei denen der Grundton im Pegel unter den Obertönen liegt (zum Teil auch abhängig vom Register). Es sind verblüffend viele, bei Glocken (nicht in der Tabelle) ist es sogar immer der Fall.

Das Superlux S502. Ich bin damit mega Zufrieden.
Zuguterletzt auch von mir eine Empfehlung zu diesem Mikro. Ich habe es selber und nutze es für einfache Aufnahmen, wo ich mich nicht mit Technik und langen Vorbereitungen herum schlagen will (z.B. Schülerkonzerte, rein dokumentarische Aufnahmen). Ein hervorragendes Preis-Leistungs-Verhältnis und man kann auch mit ORTF nicht allzuviel verkehrt machen, wenn man sich ein wenig mit Aufnahmewinkel und Schallereigniswinkel beschäftigt (siehe den weiter oben schon erwähnten Link: http://www.sengpielaudio.com/HejiaD.htm).

Gruß, Jürgen

*)
Genau das ist ja der Grund, warum XY-Systeme mitunter etwas sehr in Richtung Mono tendieren können, hier gibt es nur Pegel- und keine Laufzeitunterschiede. Wenn aus Gründen der Raumakustik und falscher/ungünstiger Aufstellung die Korrelation aufgrund zu geringer Pegelunterschiede zu groß wird, klingen die Aufnahmen leider zu "blass".

**)
Daher sollte der Abstand der Mikros zueinander bei A/B-Hauptmikrosystemen auch nicht zu groß gewählt werden. Sie wirken dann wie zwei Einzelmikros, die schlimmstenfalls keine vernünftige Korrelation mehr haben. Es gibt zwar einen Stereo-Effekt, aber hoffnungslos übertrieben: das gefürchtete "Loch in der Mitte" - die vom jeweiligen Mikro erfassten Ensemblebereiche werden sozusagen in den korrespondierenden Lautsprecher "gezogen", das Klangbild ist uneinheitlich und hat keine Geschlossenheit mehr sie für ein gutes Stereosignal nötig ist.

***)
Zu allem Überfluss kommt noch hinzu, dass sich die Schallgeschwindigkeit mit der Lufttemperatur ändert. Da die Frequenz und die Wellenlänge mit der Schallgeschwindigkeit in einem linearen Zusammenhang stehen, ändert sich die Wellenlänge bei konstanter Frequenz, wenn sich die Lufttemperatur ändert. Da auch der Abstand der Mikrofone in diesem Beispiel sich nicht ändern soll, ändern sich folglich die Phasenbeziehungen des Signals zwischen diesen beiden Mikros, wenn es kälter oder wärmer wird (es wird dabei auch angenommen, dass es den Musikern gelingt, bei sich ändernden Temperaturen immer gut die Stimmung zu halten, damit auch die Frequenz gleich bleibt :)).
Und schon wieder "Chaos", wo es doch so einfach sein sollte ... mit den "Phasen" und den Mikros.
 
Zuletzt bearbeitet:
Telefunky
Telefunky
Registrierter Benutzer
Zuletzt hier
01.12.21
Registriert
25.08.11
Beiträge
16.328
Kekse
48.794
Nicht zum, sondern gegen das Thema (Phasen etc)... :D
 
Basselch
Basselch
MOD Recording HCA Mikrofone
Moderator
HCA
Zuletzt hier
01.12.21
Registriert
30.10.06
Beiträge
12.515
Kekse
57.791
Ort
NRW
Hallo,
jetzt lass´ dich nicht verrückt machen wegen Phasen und Kammfilter.
...ein sehr guter Satz :great: @pasc_1984 : Wir haben Dich jetzt mit einer Menge Infos beinahe zugeschüttet, Du hast pro- und contra-Argumente gelesen - aber auch von mir die Bitte: Vergiß das beste Meßinstrument nicht, das sitzt nämlich zwischen Deinen Ohren :D Deine Idee mit einer Testaufnahme des Ensembles bei der Generalprobe ist genau richtig, vielleicht hast Du Zeit, nebst dem AB auch noch ein XY oder ORTF oder was Dir sonst "ins Auge springt" zu probieren, das ist immer die beste Möglichkeit, sich einen guten Eindruck zu verschaffen. Wenn ich halbwegs genügend Zeit habe, mache ich das auch immer so, ich habe nur oft das Problem, daß ich bei live-Mitschnitten selbst im Chor singe, und da kann ich nicht einfach mal bei einer Generalprobe aus dem Chor verschwinden und umbauen... :D
Nur ein Gedanke: Eine tolle Abrundung wäre es, wenn Du nach erledigter Aufnahme erzählen könntest, für was Du Dich entschieden hast und wie Dir das Ergebnis gefällt...

Viele Grüße
Klaus
 
  • Gefällt mir
Reaktionen: 2 Benutzer
LoboMix
LoboMix
Helpful & Friendly User
HFU
Zuletzt hier
01.12.21
Registriert
23.01.15
Beiträge
2.502
Kekse
36.611
Wir haben Dich jetzt mit einer Menge Infos beinahe zugeschüttet, Du hast pro- und contra-Argumente gelesen - aber auch von mir die Bitte: Vergiß das beste Meßinstrument nicht, das sitzt nämlich zwischen Deinen Ohren
... und grau ist alle Theorie, bunt ist die Praxis.
Auch wenn eine Aufnahme technisch nicht "vollendet" sein mag, kann man sich doch daran erfreuen, wenn schön musiziert wurde. Und allemal ist so eine "unvollkommene" Aufnahme als Erinnerung besser als - gar keine Aufnahme.
Nur ein Gedanke: Eine tolle Abrundung wäre es, wenn Du nach erledigter Aufnahme erzählen könntest, für was Du Dich entschieden hast und wie Dir das Ergebnis gefällt...
(y)
 
  • Gefällt mir
Reaktionen: 1 Benutzer

Ähnliche Themen


Neue Themen

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Oben