Raum nutzen, Panning und co

  • Ersteller BlueChaoz
  • Erstellt am
Stimmt! Warum sollte ein z.b. PAN-Regler aber mehr machen als nur Lautstärken-Änderungen Links/Rechts? Für Laufzeitunterschiede & "echte" Pegeldifferenzen (also das was eine richtig gute Ortbarkeit ausmacht) geht nichts über ein gutes Stereo-Mikrofonierungsverfahren und ein guter Raum. Da können alle Tricks nicht mithalten.

Ich meinte Stereo basiert allgemein auf psychoakustischen Tricks.
Ein Pan-Pot simuliert ja quasi eine Mikrofonaufstellung. Ein herkömmlicher Lautstärke-Pan-Pot simuliert aber nur ein XY-Mikrofon-System. In den allermeisten Fällen bevorzugen jedoch Alle bei weitem Äquivalenz-Systeme (meist halbrichtig ORTF genannt), die Lautstärke UND Pegeldifferenzen erzeugen. Deshalb wäre es heutzutage die logische Konsequenz, entsprechnde Panner zu integrieren, die auf analoger Ebene nicht möglich sind. Wir sprechen hier von Laufzeitunterschieden von unter 1ms. In den Studer Vista Konsolen, gibt es sinnigerweise XY-, AB-,Äquivalenz-Pan-Pots

Beispiel Schlagzeug:

Overheads sind meistens Äquivalenz- oder AB-Systeme. Wenn ich die direkt Mics nun herkömmlich panne, reduziere ich praktisch den "Beitrag der Laufzeitdifferenzen zur Lokalisation". Warum statte ich nicht z.B die direkt Mics der Toms mit den gleichen Pegel- UND Laufzeitunterschieden aus, die sie auf den Overheads auch haben?

Es ist einfach so, dass man althergebrachte Arbeitsweisen aus der Analogwelt unhinterfragt übernommen hat.



Und wenn Tricks notwendig oder gewollt sind möchte ich das selbst entscheiden und nicht dem PAN-Regler überlassen. Ich würe es hassen, wenn mein Digitalmischpult oder mein Plugin beim Pan-Regler anfängt, mir Phasenschweinereien reinzuhauen. Je weniger diese Dinger machen und je durchschaubarer das ist, desto besser.

Klar, aber ich hätte z.B. gern entsprechnde Angebote. Ein Panner, der genau die Lautstärke- und Laufzeitdifferenzen eines ORTF-Systems nachbildet. Klar kan man das in Zusammenspiel mit normalem Pan-Pot und Delay machen, aber das ist ECHT stressig, wenn du die Kurven genau abbilden willst. Jede Pan-Position hat ja ein anderes Verhältnis von Lautstärke- und Laufzeitdifferenzen.



True-Stereo: Gehört für mich in die Kiste der Marketing-Modewörter für Reverb-Algorithmen. Wenn ich Gitarre, Klavier oder egal was spiele, dann ist die Schallquelle fast/quasi punktförmig. Da reicht Mono-Input!
(Wenn du die Theorie bis zum Wahnsinn treibst bräuchtest du 3D Wellenfronten :D)

Nein, True-Stereo hat seinen Sinn. Das die Quelle Mono ist, ist relativ wurscht, ja. Ich meinte aber, das man in einer Raumsimulation diese Monoquelle auf dem Sendweg hin zum Plugin pannen kann und muss. DANN verwende ich nämlich das EINE Plugin um ALLE Instrumente per Send in einen virtuellen Raum zu stellen und richtig (alle unterschiedlich) zu platzieren! Sonst hört sich eben der Hall der Instrumente so an, als würde sie ALLE aufeinander in der Mitte stehen. Das ist der Sinn von True-Stereo. Und natürlich z.B. wenn ich einen Stereo-Mix oder ein Stereo-Mirkofonsystem (Overheads) "verräumlichen will"



Bei jedem besseren Hallgerät kann man die Early-Reflections so programmieren, dass eine Quelle z.b. hinten links simuliert wird. Das ist natürlich ab und zu notwendig.
Es ist auch meine Aufgabe als Tontechniker das Gerät einzustellen. Ich erwarte nicht, dass es das selbtst tut und will das auch nicht. Hab da den Vorteil, dass ich z.b. das Dry-Signal nach rechts panne und die Early-Reflections von einem links sitzenden Quelle berechnen lasse. Dadurch kann man abgefahrene Effekte erzielen. Klingt nicht echt, klingt aber interessant.

Bei der Methode brauchst du für jeden Kanal einen eigenen "Hall" und im Sinne einer authentischen Raumsimulation ist es unbedingt notwendig. Ob man diese nun zwingend für Rock & Pop-Produktionen braucht ist wieder eine andere Frage.

Mal ein Tip: Man orientiert sich gerne an den Klangbildern von sogenannten Top-Produktionen. Lasst das mal kurz weg und phantasiert einfach mal so im Kopf oder beim Anhören solcher Produktionen, wie Aufnahmen/Produktionen eingentlich idealerweise klingen könnten. Also einfach mal deren Schwächen ausfindig machen und die teils selbstauferlegten Einschränkungen der "angesagten" Technologien und Vorgehensweisen erkennen. Schwierige Übung!


Hier noch ein Bild von einem Nuendo-Kanalzug mit dem gut versteckten Send-Pan-Pot:
 

Anhänge

  • Nuendo Send Pan.JPG
    Nuendo Send Pan.JPG
    52,6 KB · Aufrufe: 149
Wo du es grade ansprichst: Drums wurden da wohl nur mit zwei Overheads aufgenommen oder?

Die Beatles haben 1 Overhead benutz mit Kugelcharakteristik (kommt auf den Song draufan) und 1 Bassdrum.. :)

grüsse

PS: Wir haben gestern mit DEMO-Aufnahmen begonnen.. Wir haben leider nur 3 Kanäle zur Verfügung.. wir versuchens mit den Drums folgendermassen: 1 Overhead (Grossmembraner) auf Kugelcharakteristik und 1 Bassdrum + 1 Snare.. Werden dann die Resultate hochladen wenns soweit ist..
 
da braucht man in der Zeit gar nicht so weit zurück, dreht mal bei den älteren Deep Purple Sachen (70er) den linken Kanal weg, fehlt fast komplett die Orgel, dreht man nach rechts, ist die Gitarre weg (oder umgekehrt) ;)


die letzte rhcp und the will to death von john frusciante arbeiten auch mit krassen panning und sind nach 2000 aufgenommen
 
Wir haben gestern mit DEMO-Aufnahmen begonnen.. Wir haben leider nur 3 Kanäle zur Verfügung.. wir versuchens mit den Drums folgendermassen: 1 Overhead (Grossmembraner) auf Kugelcharakteristik und 1 Bassdrum + 1 Snare.. Werden dann die Resultate hochladen wenns soweit ist..

Eher ungünstig! Egal wie du dann rumschraubst, das Ergebnis wird praktisch mono sein. Lieber Stereo-Overheads und ein Stützmikro. Tip: Google mal nach der Recorderman-Technik!
 
@UranusEXP:
Ich wette, dass du mit der Ahnung sicher Spezialist für klassische Aufnahmen oder Jazz bist.
Oder gerade irgendene theoretische Ausbildung hinter dir hast.*g

Ein Pan-Pot simuliert ja quasi eine Mikrofonaufstellung
Ein PanPot ist nichts anderes als ein Poti, dass mir das Signal auf die unterschiedlichen
Kanäle verleilt also Links und Rechts. Für mich nichts anderes wie ein AUX oder Monitor-Poti.
Sicher nicht nur um Links-Rechts zu simulieren. Man kann es u.a. dazu verwenden.

Bin nach wie vor gegen Panpots, die Phasen schieben oder was immer auch tun um Laufzeitdifferenzen zu "simulieren". Das ist einzig allein die Aufgabe einer richtigen Mikrofonierung.
Nur so klingts auch echt. Die Mirkofone bekommen ja nicht nur Signal mit unterschiedlicher Laufzeit und Pegel, sondern einfach "andere" Signale. Bei einer guten Produktion sollte man vorher schon die Vorstellung haben, wo was hinkommt und dementsprechend Mikrofonieren.

True-Stereo damit man nur einen Hall braucht:
1.) Bezweifle, dass ein Hallgerät wirklich aus einer Summe von Signalen "raushört" wo was hinkommt. Aus dem reinkommenden Stereo Signal werden nur so Standard-Werte wie Stereo-Breite und Position und ein paar andere Sachen ermittelt. Der Algorithmus an sich arbeitet dann sicher mit einem Mono Signal.
2.) Man braucht sowieso unterschiedliche Hall-Kanäle. Effekthall, kurzer Hall, langer Hall,....
Also unter 3 Instanzen kann man, meiner Meinung nach, eine Pop/Rockproduktion vergessen.
Da gehts dann auch nicht unbedingt darum, dass es echt klingt. Mit großen PreDelays und einem
kurzen Hall kann man z.b. fette wuchtige Drum-Sounds hinbekommen.
3.) Zum Thema Impuls-Anworten: Es gibt sehr wohl Impulsantworten, bei denen ein und der selbe Raum mit verschiedenen Schallquellen-Positionen aufgenommen wurde. Und das klingt Hammer-mässig (bei guten Impulsantworten).

Overheads sind meistens Äquivalenz- oder AB-Systeme
Die Overheads mit Groß-AB enthalten ja schon mehr als genug Laufzeitdifferenzen.
Das klingt in der Regel eh schon "zu breit". Wenn man das (mit irgendwelche Tricks) auf close Mikes von Toms z.b. dazurechnet, dann wandern die noch weiter nach außen. Speziell ein Standtom, dass ultra-weit links ist, klingt nicht gut (in der Regel, kann man natürlich als creatives Mittel trotzdem machen).

Wo ich dir aber recht gebe: Man kann die Ohren austricksen und z.b. über einfache Delays ein Signal breiter oder noch weiter nach außen (links/rechts) bringen.
 
@UranusEXP:
Ich wette, dass du mit der Ahnung sicher Spezialist für klassische Aufnahmen oder Jazz bist.
Oder gerade irgendene theoretische Ausbildung hinter dir hast.*g

Nein, weder noch...

Ich muss aber jetzt wirklich mal sagen, dass du Einges durcheinander bringst. Mir geht es nicht ums "Rechthaben", ich möchte nur vermeiden, dass Anfänger über Halbwissen stolpern.


Ein PanPot ist nichts anderes als ein Poti, dass mir das Signal auf die unterschiedlichen
Kanäle verleilt also Links und Rechts.

...und macht damit genau das gleiche, wie ein XY-Mikrofonsystem. Und: Man nutzt dabei die psychoakustische Erkenntnis, dass das Gehirn Pegelunterscheide zwischen den Ohren analysiert. Hinter einem normalen Panpot und dem XY-System steckt also exakt das gleiche Prinzip.

Bin nach wie vor gegen Panpots, die Phasen schieben oder was immer auch tun um Laufzeitdifferenzen zu "simulieren". Das ist einzig allein die Aufgabe einer richtigen Mikrofonierung.

Um Laufzeitdifferenzen zu erzeugen, nimmt man logischerweise ein simples ein Delay.
Einen Backgroundchor würden sicherlich die meisten mit einem Äquivalenz-System (Laufzeit- und Pegelunterschiede) aufnehmen. Gut. Was aber, wenn ich alle meine Chorsänger mono aufnehmen muss und DANN pannen möchte oder muss? Wenn trotzdem ich die "Stereocharakteristik" eines Äquivalenz-Systems haben möchte muss ich auch Laufzeitunterschiede beim pannen einsetzen. Genau so wie es das Mikrofonsystem auch "tun" würde. Es ist erstmal völlig egal ob das das Mikrofon macht oder ein entsprechender Panner. Mal abgesehen davon dass ein Mikrofonsystem natürlich noch erwünschten oder unerwünschten Raumanteil aufnimmt, aber um das geht es jetzt nicht sondern rein um Lokalisation. Ein Äquvalenzsystem nutzt auch die psychoakustische Tatsache, dass das Gehirn Laufzeitunterscheide zwischen den beiden Ohren analysiert. Ein entsprechender Panner würde das auch tun.

Bevor ich jetzt wieder vergeblich versuche, was zu erklären: Wie wär's, wenn du's einfach mal ausprobierst, auch wenn du jetzt schon "dagegen" bist?

Experiment für alle: Eine Mono-Spur auf eine Zweite kopieren. Eine davon mit dem Panner komplett nach links, die andere nach rechts. Laufen lassen und eine Spur nach vorne oder hinten verschieben (in Bereichen unter 1ms!!!), entweder mit der Spur-Verzögerung im Sequenzer oder von Hand bei (maximalem Zoom).


Die Mirkofone bekommen ja nicht nur Signal mit unterschiedlicher Laufzeit und Pegel, sondern einfach "andere" Signale. Bei einer guten Produktion sollte man vorher schon die Vorstellung haben, wo was hinkommt und dementsprechend Mikrofonieren.

Nicht zwingend! Ein XY-System soll sogar idealerweise auf beide Mikros exakt das gleiche Singal nur mit unterschiedlicher Lautstärke bekommen. Deshalb platziert man die so nah wie möglich aneinander. Ein Äquivalenzsystem, mit einem Abstand von 17-25 cm bekommt natürlich etwas unterschiedliche Signale, aber das hat hier rein gar nichts mit der Lokalisation zu tun. (Was anderes wäre es beim Kunstkopf für Kopfhörer-Aufnahmen.)



True-Stereo damit man nur einen Hall braucht:
1.) Bezweifle, dass ein Hallgerät wirklich aus einer Summe von Signalen "raushört" wo was hinkommt. Aus dem reinkommenden Stereo Signal werden nur so Standard-Werte wie Stereo-Breite und Position und ein paar andere Sachen ermittelt. Der Algorithmus an sich arbeitet dann sicher mit einem Mono Signal.

Wer sagt denn, dass das Gerät das "raushört"?! Ich weiss nicht, wie du zu deinen Schlüssen kommst. Was ist dann, wenn ich einen Stereomix "verhallen" möchte? Das geht nicht, weil alle Geräte ja nach dem Eingang mono draus machen?! Aber bevor ich jetzt wieder gross aushole, hast du's schon mal ausprobiert? Sendweg gepannt in ein True-Stereo-Reverb? Höchstwahrscheinlich nicht...

2.) Man braucht sowieso unterschiedliche Hall-Kanäle. Effekthall, kurzer Hall, langer Hall,....
Also unter 3 Instanzen kann man, meiner Meinung nach, eine Pop/Rockproduktion vergessen.
Da gehts dann auch nicht unbedingt darum, dass es echt klingt. Mit großen PreDelays und einem
kurzen Hall kann man z.b. fette wuchtige Drum-Sounds hinbekommen.

Naja ich rede aber von den Grundlagen einer möglichst authentischen Raumsimulation, ob man das braucht oder will soll natürlich jeder selbst entscheiden...
3.) Zum Thema Impuls-Anworten: Es gibt sehr wohl Impulsantworten, bei denen ein und der selbe Raum mit verschiedenen Schallquellen-Positionen aufgenommen wurde. Und das klingt Hammer-mässig (bei guten Impulsantworten).

Ja natürlich geht das! Allerdings brauch ich für jede Quelle eine eigene Impulsantwort und eine eigene Plugin-Instanz im INSERT.


Die Overheads mit Groß-AB enthalten ja schon mehr als genug Laufzeitdifferenzen.
Das klingt in der Regel eh schon "zu breit". Wenn man das (mit irgendwelche Tricks) auf close Mikes von Toms z.b. dazurechnet, dann wandern die noch weiter nach außen. Speziell ein Standtom, dass ultra-weit links ist, klingt nicht gut (in der Regel, kann man natürlich als creatives Mittel trotzdem machen).

Wo ich dir aber recht gebe: Man kann die Ohren austricksen und z.b. über einfache Delays ein Signal breiter oder noch weiter nach außen (links/rechts) bringen.

Nochmal es geht NICHT UM IRGENDWELCHE SPEZIELLEN "TRICKS". STEREOPHONIE an sich ist ein "TRICK". Es werden für die Lokalisation zwei "Tricks" angewandt: Pegeldifferenzen eines Signals auf den beiden Kanälen und/oder Laufzeitdifferenzen. Wer beim Recording meist lieber auf Systeme zurückgreift, die auch Laufzeitunterschiede mitnehmen (das sind fast alle Tontechniker) kann diese beim Panning von Monoquellen auch tun. Wer es - zumindest aus blossem Unverständnis der Grundlagen - nicht tut, ist selber schuld.
 
Hi,

Ich muss aber jetzt wirklich mal sagen, dass du Einges durcheinander bringst. Mir geht es nicht ums "Rechthaben", ich möchte nur vermeiden, dass Anfänger über Halbwissen stolpern.
Sorry, das sollt natürlich nicht so rüberkommen. Ganz im Gegenteil. Du hast wirklich Ahnung !!!

Um Laufzeitdifferenzen zu erzeugen, nimmt man logischerweise ein simples ein Delay
Yes, im Prinzip haut das hin. Hab das am Anfang gemacht. Gitarre eingespielt, selbe Spur um 1ms oder so verzögert. Eins davon hart rechts, das andere hart links gepannt. Ergebnis: Klingt saugeil im Kopfhörer, etwas seltsam in der Abhöre und von Kollegen hab ich schlimme Kritik einstecken müssen. Es hat mit der schon oft erwähnten "Mono-Kompatiblität" zu tun. Man haut sich ganz ekelhafte Phasenprobleme ein, die nicht nur das Mono-Signal dünn machen.
Ein Blick auf das Korrelationsmessgerät (bzw. Plugin) und du siehst was ich meine.

"Mono-Kompatiblität": Ja, ja wir sind doch alle schon längst "Stereo". Außer die, die sich das am PC mit den Bildschirmlautsprechernd anhören (die eventuell nebeneinander verbaut sind), oder vom Radio/Fernseher (so weit bin ich leider noch nicht gekommen),.....

Wenns hart auf hart kommt und ich nur eine Spur habe und die doppeln muss, nehme ich z.b. Waves Doubler. Da wird das auch so gemacht mit der Zeitverschiebung, das ganze aber phasenneutral und mit sich ändernden Verzögerungen und Pitch. Das klingt dann schon ein bisschen besser.

Oder man nimmt größere Werte (>15ms). Das klingt auch schön breit, verminder Phasenprobleme, klingt dafür eher wieder wie ein Slap-Echo.

XY-System: Nur wenn die Membran beider Mikros exakt am selben Ort sind (möcht sehen, wie du das machst) und die Mikros absolut gleich gebaut sind (=unmöglich) dann ist das Signal gleich. Klar, im Prinzip kann man den ca. 1cm das bei XY vernachlässigen, ich wollt nur wieder mal klugscheissen. *ggg

Sendweg gepannt in ein True-Stereo-Reverb? Höchstwahrscheinlich nicht...
Natürlich, das funktioniert natürlich. Hast recht. Wenn das True-Stereo Hallgerät beim Stereo-Input ein Signal bekommt, das stark auf eine Seite gepannt ist, kann es das:
-) Ah, Signal L ist leiserer als R ->Vorbelegen der Early-Reflections für eine simulierte Schallquelle an der rechten Seite des Raumes.
-) Aus Stereo-Input Mono Signal machen (L+R, oder nur L oder nur R)
-) Durch den eigentlichen Hall schicken.

Mittlerweile gibts sicher intelligentere Hall-Algorithmen, die das besser machen. Aber sicher nie aus einem kompletten Send von allen Instrumenten parallel alle einzelsignale mit den entsprechenden Early-Reflections ausstatten. Ist quasi unmöglich, wird auch nicht benötigt.

Naja ich rede aber von den Grundlagen einer möglichst authentischen Raumsimulation
Hast da auch sehr gute Ideen, die wahrscheinlich alle in besseren Hall-Algorithmen implementiert sind.
Am Besten einen High-End-Hall pro Kanal. Immer den selben Raum aber verschiedene Positionierungen bzw. Early-Reflection-Einstellungen. Da brauchst aber a guate Maschine !!! *g

Nochmal es geht NICHT UM IRGENDWELCHE SPEZIELLEN "TRICKS". STEREOPHONIE an sich ist ein "TRICK".
Richtg. Musst ja nicht gleich laut werden. *hihi

Wer es - zumindest aus blossem Unverständnis der Grundlagen - nicht tut, ist selber schuld
Na Na Na. Ts Ts Ts *g
Peace !
Wir sind doch alle auf der selben Seite. *hihi
 
Sorry, ich wollte nicht pampig klingen, mich nervt es nur, wenn die beabsichtigte Message nicht ankommt. Das liegt aber hier einfach am Medium "Forum", das halt bei komplexeren Themen schnell an seine Grenzen stösst. Ich würde gerne oft ausführlicher und genauer schreiben, aber das würde zu viel Zeit kosten.

Hi,

Yes, im Prinzip haut das hin. Hab das am Anfang gemacht. Gitarre eingespielt, selbe Spur um 1ms oder so verzögert. Eins davon hart rechts, das andere hart links gepannt. Ergebnis: Klingt saugeil im Kopfhörer, etwas seltsam in der Abhöre und von Kollegen hab ich schlimme Kritik einstecken müssen. Es hat mit der schon oft erwähnten "Mono-Kompatiblität" zu tun. Man haut sich ganz ekelhafte Phasenprobleme ein, die nicht nur das Mono-Signal dünn machen.
Ein Blick auf das Korrelationsmessgerät (bzw. Plugin) und du siehst was ich meine.

"Mono-Kompatiblität": Ja, ja wir sind doch alle schon längst "Stereo". Außer die, die sich das am PC mit den Bildschirmlautsprechernd anhören (die eventuell nebeneinander verbaut sind), oder vom Radio/Fernseher (so weit bin ich leider noch nicht gekommen),.....

Ich würde in der Praxis aber immer Laufzeit- und Lautstärkeunterschiede kombinieren, eben wie ein Äquivalenzsystem. 1ms ist für den Zweck des Pannings schon sehr viel, bei herkömmlichen Äquivalenzsystemen entsteht solch ein Unterscheid gar nicht, selbst wenn die Quelle in einem Winkel von 90° wäre. Unter ww.hauptmikrofon.de gibt's den Image Assistant, da kann man sich die Laufzeit- und Lautstärkeunterschiede verschiedenster Mikrofonsysteme und Quellenpositionen etc.,etc. anzeigen lassen.

Klar, Mono-Kompatibilität kann dann ein gewisses Problem sein. Allerdings gilt das in exakt gleichem Maße für die entsprechenden AB- oder Äquivalenz-Mikrofonsysteme. Ich möchte nochmal betonen: Es ist völlig egal, ob ich mit dem Panpot eine Monoquelle panne oder sie entsprechend mit einem XY-System aufnehme, es ist technisch exakt das gleiche. Es ist auch völlig das gleiche ob ich mit Delay + Panpot panne, oder mit einem Äquivalenz-System arbeite. (All das mal abgesehen davon, das noch entsprechende Stereo-Rauminformationen mit aufgenommen werden) Der Witz ist also, das die Meisten die "Räumlichkeit" von Äquivalenzsystemen bevorzugen und anwenden - aber beim Panning das Prinzip nicht konsequenterweise auch anwenden oder sogar sich dann plötzlich Sorgen um die prinzipbedingten Nachteile machen. Das ist dann entlarvend.

Was mir aber zum Thema "Kompatibilität" noch eingefallen ist: Reines Laufzeit-Panning würde auf der anderen Seite aber zu eine erhöhten Kompatibilität für all die im Alltag anzutreffenden unsinnigen Abhör-Situationen schaffen, denn, der Mix eines Kanales ist von den Lautstärkeverhältnissen dann exakt gleich dem anderen Kanal. Also wenn man einen Kanal einzeln anhört, hat man den kompletten Mix mit allen Elementen. Habe ich beispielsweise einen Mix, wo eine Akustikgitarre weit rechts ist, Gesang mittig und ein Piano weit links, kann es bei herkömmlichem Panning zu Problemen kommen. Beispiele: Wie oft sieht man Leute, mit nur einem Stöpsel im Ohr oder Boxen von Stereo anlagen, die in gegenüberliegenden Raumecken stehen, VIEL zu weit voneinander entfernt sind, oder sogar auf zwei Räume verteilt sind. Sprich in der Praxis gibt es zahlreiche Situationen, wo man im Endeffekt nur den Sound EINES Kanales bzw. einer Box hört. Phantomschalquellen (egal nach welchem Prinzip) brechen dann eh zusammen. Bei herkömmlichem Panning, sind die Mixe - wenn man nur eine Box hört - logischerweise völlig unausgeglichen. Bei unserem Beispiel habe ich dann "wahlweise" einen Song mit Piano oder Gitarrenbegleitung! Wäre alles nur mit Laufzeit gepannt, hätte man in beiden Boxen praktisch den exakt gleichen Mix mit den - hoffentlich - perfekten Lautstärkeverhältnissen des Stereo-Mixes. "Äquivalenzpanning" wäre klanglich wohl die bessere Wahl, und wäre bei diesem Problem auch immer noch besser als herkömmliches Panning.

Ich denke diese Art der "Kompatibilität" könnte heutzutage weitaus wichtiger sein, als eine herkömmliche Monokompatibilität. Des weiteren bewegen sich die entstehenden Kammfilter bei so kurzen Delays im Höhenbereich, und eine nicht stereo-fähige Abhöre (Kofferradio, etc.) gibt diese sowieso in den meisten Fällen gar nicht oder nicht so detailreich wieder.


Mittlerweile gibts sicher intelligentere Hall-Algorithmen, die das besser machen. Aber sicher nie aus einem kompletten Send von allen Instrumenten parallel alle einzelsignale mit den entsprechenden Early-Reflections ausstatten. Ist quasi unmöglich, wird auch nicht benötigt.

Übern Send gehts nicht klar. Ob's grundsätzlich benötigt wird ist natürlich eine andere Frage. Sound und Tontechnik etc, sollten sich aber doch auch weiterentwickeln oder? Früher haben bestimmt auch welche gefragt, ja brauchts denn Stereo, brauchts denn Surround, brauchts denn Wellenfeldsynthese? Es braucht eigentlich gar keinen Ton ;-) Aber was heute "unnötig" ist, ist morgen standard. Ausserdem denke ich auch schon noch an andere Anwendungen, als reine Musik, z.B. virtual reality- Anwendungen, z.B. die Computerspiele von morgen, die sind heute schon in vielen Bereichen weiter, als die reine Musikproduktion.

Hast da auch sehr gute Ideen, die wahrscheinlich alle in besseren Hall-Algorithmen implementiert sind.
Am Besten einen High-End-Hall pro Kanal. Immer den selben Raum aber verschiedene Positionierungen bzw. Early-Reflection-Einstellungen. Da brauchst aber a guate Maschine !!! *g

Ich habe in einem Post eine Methode vorgeschlagen, wie man das ganze mit FREEWARE bewerkstelligen könnte. Bei der heutigen Rechenpower steht der breiten Masse soviel zur Verfügung. Man muss nur gewillt sein, zu denken (v.a. über die sog. "Standards" hinaus)und anzuwenden. Die Ausrede, naja ein TC 6000 kann ich mir eh nicht leisten, also muss ich auch beim Sound Kompromisse machen, zählt heute nur noch bedingt.

Viele geben sich IMHO einfach mit viel zu wenig zufrieden, laufen anderen hinterher (die angesagten Produktionen sind durchaus auch fragwürdige Ideale) und wollen das Potential gar nicht ausschöpfen. Stereo so wie wir es kennen ist z.B. bei weitem nicht die einzige und vor allem sicherlich nicht die beste Methode für eine möglichst guten Sound mit zwei Kanälen und Boxen. Es wird noch schlimmer: Herkömmliches 5.1 Surround ist für Musik sogar ziemlich ungeeignet. Da gibt es soviel interessante und bessere Methoden. Es ist schade und ärgerlich, das es wenige, v.a. unter den Künstlern und Technikern interessiert. Als Künstler mit echter Intention muss ich doch ein Interesse haben, möglichst alles zu nutzen, was meiner Kunst mehr "Impact" verleiht. Aber das führt zu einer ganz anderen Diskussion...

Beste Grüße,

Uranus
 
...das halt bei komplexeren Themen schnell an seine Grenzen stösst...
Für Hardcore Details zum Thema Mikrofonierung, Äquvalenz-Stereophonie... kann ich folgende Internet-Seite empfehlen: http://www.sengpielaudio.com/
Klärt auch das mit den idiotischen (falschen) 17.5cm (richtig = 17cm) bei ORTF auf.

Viele geben sich IMHO einfach mit viel zu wenig zufrieden
Die meisten wissen/hören die Sachen einfach nicht. Schadet aber nicht, das auf die harte Tour zu lernen. Also learning by hearing. *g

Einen Kammfilter-Effekt (wegen schlechter Monokompatiblität z.b.) muss man einfach ein paar Mal gehört haben. Oder Phasenprobleme L/R: Wenn der Sound irgendwie im Kopf zu entstehen scheint.

Mono ist in den meisten Geräten L+R. Also klar bekommt man Kammfilter-Effekte.
Nochmals mit den <=1ms Verzögerung: Vergleiche Mal eine "echt" gedoppelte Gitarre
(2 Takes, einer L und einer R) und eine kopierte und verzögerte Gitarre (1 Take).
Ersteres klingt 1000 Mal besser.

Wenn man nur eine Spur hat, diese richtig weit nach außen (L oder R) bringen will, kann man
neben pannen natürlich auch noch ein Delay dazunehmen. Da ist es aber ratsam nicht (selten) eine Direkt-Signal Verzögerung (<=1-2ms) sondern eine Art "Wandreflexion" mit 10ms-30ms zu simulieren.
Damit vermindert man Phasenschweinereien (je > ms desto "weniger")
Das meschliche Gehör/Gehirn emfindet das auch als räumliche Information und das Signal wandert weiter nach außen.

Als Künstler mit echter Intention muss ich doch ein Interesse haben, möglichst alles zu nutzen, was meiner Kunst mehr "Impact" verleiht
Mooooment: Das will/macht ja jeder. Der liebe Herr Zuhörer ladet sich aber lieber das mp3 File mit 128kbit runter und hört es auf seinen PC-Lautsprechern mit Extra-Super-XXL-Bass-Krawumm-Ding.
Leider ist der Weg dahin nicht eine exakte physikalische Abbildung mit kompliziertesten dynamischen Hall-Algorithmen sondern drastische "Täuschungs"-Tricks, die mit allen Anlagen kompatibel sind.
Das muss man beim Mischen immer im Hinterkopf haben (Pop / Rock).
90% der Leute hören sich das auf einen Kack-Anlage an oder haben ihre Anlage Kacke eingestellt.
 
Für Hardcore Details zum Thema Mikrofonierung, Äquvalenz-Stereophonie... kann ich folgende Internet-Seite empfehlen: http://www.sengpielaudio.com/
Klärt auch das mit den idiotischen (falschen) 17.5cm (richtig = 17cm) bei ORTF auf.

Oh ja die Seite hat jede Menge sehr gute Infos zu bieten. DAS ist mal ein "Klugscheisser"...;) Aber Tonmeister-Ausbildung und Grammy Award gehen halt nicht spurlos an den Menschen vorbei...:D


Mono ist in den meisten Geräten L+R. Also klar bekommt man Kammfilter-Effekte.
Nochmals mit den <=1ms Verzögerung: Vergleiche Mal eine "echt" gedoppelte Gitarre
(2 Takes, einer L und einer R) und eine kopierte und verzögerte Gitarre (1 Take).
Ersteres klingt 1000 Mal besser.

Sorry, aber das hat nun überhaupt nichts (null!) mit dem Thema Panning zu tun. Das ist ein Vergleich zwischen Äpfel und Birnen. Das Doppeln von Gitarren, Vocals etc. ist ein VÖLLIG anderes Thema, ich verstehe nicht, wie du das hier in Zusammenhang bringen kannst. Im Sinne des "Doppelns" bringen Mikro-Delays etc. natürlich gar nichts, ausser eine Klangverfärbung durch Kammfilter (was manchmal (!) auch von Nutzen sein kann).

Wenn man nur eine Spur hat, diese richtig weit nach außen (L oder R) bringen will, kann man
neben pannen natürlich auch noch ein Delay dazunehmen. Da ist es aber ratsam nicht (selten) eine Direkt-Signal Verzögerung (<=1-2ms) sondern eine Art "Wandreflexion" mit 10ms-30ms zu simulieren.
Damit vermindert man Phasenschweinereien (je > ms desto "weniger")
Das meschliche Gehör/Gehirn emfindet das auch als räumliche Information und das Signal wandert weiter nach außen.

Das sind jetzt auch wieder zwei verschiedene Dinge, wenn auch nicht so offensichtlich:

Gedanken zur Laufzeit-Stereophonie

Bei der Laufzeit-Stereofonie führen überwiegend Laufzeitdifferenzen zwischen ansonsten identischen Signalen zweier Mikrofone bei der Lautsprecherwiedergabe (Interchannel-Signaldifferenzen) zu Phantomschallquellen zwischen den Lautsprechern. Für die Lokalisation einer Phantomschallquelle aus der 100%-Hörereignisrichtung (Richtung
eines Lautsprechers) wird eine Laufzeitdifferenz von 1 bis 2 ms benötigt, je nach der Impulszusammensetzung der Signale. Als Mittelwert für Signale von klassischer Musik kann ein Wert von &#916; t = 1,5 ms genommen werden. Der Schallweglänge von &#916; e = 1 m entspricht in Luft bei 20°C eine Laufzeit von fast genau &#916; t = 3 ms. Einem
Meter entspricht berechnet eine Laufzeit von &#916; t = &#916; e / c = 1 / 343 = 0,00292 s = 2,92 ms. Bis zu dieser Verzögerungszeit gilt das Gesetz der Summenlokalisation. Das heißt, wenn die Mikrofonbasis a kleiner als 1 m ist, müssen beide Mikrofone unbedingt als Mikrofonsystem betrachtet werden. Die Panpots haben dabei ganz links und ganz
rechts zu stehen, d. h. sie dürfen nicht in Funktion sein. Erst bei einem Abstand von Mikrofon zu Mikrofon von mehr als a = 2 m können die Mikrofone wie Einzelmikrofone behandelt werden, denn dabei gilt das Gesetz der 1. Wellenfront.
Die Stereorichtung darf jetzt mit Panpots wie bei unabhängigen Einzelmikrofonen eingestellt werden. Zwischen 1 und 2 m befindet sich ein Übergangsbereich, der je nach Aufstellung der Mikrofone und Art und Impulshaltigkeit
der Signale sorgfältig selbst zu bewerten ist.

Haas-Effekt und Präzedenz-Effekt (Gesetz der ersten Wellenfront)
Dieser Effekt ist bei der PA-Beschallung nutzbringend anzuwenden, aber nicht bei Stereoaufnahmen.

Der Name "Haas-Effekt" geht auf die grundlegenden Untersuchungen von Helmut Haas aus dem Jahre 1951 zurück: "Über den Einfluss eines Einfach-Echos auf die Hörsamkeit von Sprache", Acustica 1, 1951, S. 49. Es ist die Bezeichnung für bestimmte Gesetzmäßigkeiten bei der Lokalisation von Hörereignissen bei Einwirkung eines Direktsignals (Primärsignal) und einer einzelnen (!) Reflexion (zeitverzögertes Sekundärsignal). Er fand heraus, dass für Verzögerungszeiten zwischen 10 ms und 30 ms gilt, dass eindeutig der zuerst einfallende Schall für die Lokalisation des Schallsenders maßgeblich ist, und zwar völlig unabhängig davon, aus welcher Richtung der verzögerte Schall eintrifft. Man hört trotzdem nur eine Schallquelle. Bei Laufzeitdifferenzen &#916; t größer 40 ms wird langsam das Vorhandensein von getrennten Schallreflexionen bemerkt, doch lokalisiert man die Schall-
quelle nach wie vor aus der Richtung des zuerst einfallenden Schalls, wenn der Pegel der Reflexion = Pegel des Direktsignals ist.

[...]

Wie die vorstehende Abbildung erkennen lässt, bleibt der beschriebene Lokalisationsvorgang auch dann erhalten, wenn der Schallpegel der Reflexion den des Direktsignals in gewissen Grenzen überschreitet: bei Verzögerungszeiten zwischen etwa 10 ms und 30 ms kann beispielsweise der Pegel der Reflexion maximal bis zu 10 dB über
dem des Direktsignals liegen, ohne dass das lautere reflektierte Signal getrennt vom Direktsignal empfunden wird.


Quelle: www.sengpielaudio.com

Ich spreche in diesem Zusammenhang quasi vom Direktschall "gepanned" durch "Mikro"-Delays (unter 2ms) du sprichst von einer "künstlichen Reflexion" (10-30ms), die laut Haas eigentlich keinen Einfluss auf die Lokalisation haben dürfte.

Bis zu dieser Verzögerungszeit gilt das Gesetz der Summenlokalisation. Das heißt, wenn die Mikrofonbasis a kleiner als 1 m ist, müssen beide Mikrofone unbedingt als Mikrofonsystem betrachtet werden. Die Panpots haben dabei ganz links und ganz
rechts zu stehen, d. h. sie dürfen nicht in Funktion sein. Erst bei einem Abstand von Mikrofon zu Mikrofon von mehr als a = 2 m können die Mikrofone wie Einzelmikrofone behandelt werden, denn dabei gilt das Gesetz der 1. Wellenfront.
Die Stereorichtung darf jetzt mit Panpots wie bei unabhängigen Einzelmikrofonen eingestellt werden. Zwischen 1 und 2 m befindet sich ein Übergangsbereich, der je nach Aufstellung der Mikrofone und Art und Impulshaltigkeit
der Signale sorgfältig selbst zu bewerten ist.

Ich spreche quasi von der "Simulation" eines "Mikrofonsystems" (via "Delay-Panning") im obigen Sinne (mit Beitrag zur Lokalisation), du sprichst (bei Werten von 10-30ms) von der "Simulation" eines Gross-AB-Systems (ohne Beitrag zur Lokalisation, aber wohl mit einem "Räumlichkeitseffekt") mit einem Abstand von ca. 3-10m, dass Sengpiel wie "zwei Einzelmikrofone" behandelt! Wir reden also aneinander vorbei. Beides hat in der Praxis sicherlich Berechtigungen nur verwechseln dürfen wir es nicht.

Und noch:

In der Abbildung darunter sei das Mikrofon 1,72 cm von der Wand entfernt und man singt aus gleichem Abstand auf das Mikrofon. Dann erscheinen durch die Überlagerung mit der verzögerten Wandreflexion bei hohen Frequenzen
Einbrüche. Je weiter man nun mit dem Mikrofon von der Wand weggeht, desto mehr wandern die Minima (notches) zusammen mit den Maxima (peaks) in Richtung der tiefen Frequenzen, wobei die Frequenzabstände zwischen den Maxima und den Minima immer kleiner werden. Die Verzögerungszeit &#916; t zwischen Direktsignal und Reflexion berechnet sich aus der doppelten Entfernung a des Mikrofons

Quelle: http://www.sengpielaudio.com/KammfiltereffektBeiEntfernungVonWand.pdf

Das heisst, mit zunehmendem (in gewissen Grenzen) Abstand bzw. Delay breitet sich ein Kammfiltereffekt immer weiter nach unten aus, bei 5ms beeinträchtigt er bereits Frequenzen um 100Hz! Gerade bei exakt gleichen Signalen (= digitales Delay bzw. zwei exakt gleiche Aufnahmen mit gewisser Verzügerung) ist bei kurzen Reflexionen Vorsicht geboten.




Mooooment: Das will/macht ja jeder. Der liebe Herr Zuhörer ladet sich aber lieber das mp3 File mit 128kbit runter und hört es auf seinen PC-Lautsprechern mit Extra-Super-XXL-Bass-Krawumm-Ding.
Leider ist der Weg dahin nicht eine exakte physikalische Abbildung mit kompliziertesten dynamischen Hall-Algorithmen sondern drastische "Täuschungs"-Tricks, die mit allen Anlagen kompatibel sind.
Das muss man beim Mischen immer im Hinterkopf haben (Pop / Rock).
90% der Leute hören sich das auf einen Kack-Anlage an oder haben ihre Anlage Kacke eingestellt.

Stimmt! Auch deswegen mach ich mir ja all diese Gedanken. In eben diesem Zusammenhang habe ich auch die Frage in den Raum gestellt, ob es heutzutage nicht wichtiger bzw. sinnvoller wäre, z.B. kompatibel zu absurden Abhörsituationen zu sein, als zu (L+R) Monokompatibilität. Erstere sind wohl heute weitaus häufiger anzutreffen, als Situationen in denen Monokompatibilität gefordert ist...(Vinyl, Am-Radio, Monoanlagen)

Beispiel ist auch gerade die typische Radioanwendung im Auto, ich sitze doch da praktisch immer auf einem Platz, wo ich sowieso keine Stereo-Phantomschallquellen mehr höre, sondern im Endeffekt einen Kanal L oder R mit entsprechend strangem Mix...wäre es nicht evtl. besser, wenn ich in dem einen Kanal, den ich eben höre, dann einen vernünftigen Mix hätte, als einen monokompatiblen? Drückt da etwa irgendwer den Mono-Knopf...gibt's den überhaupt? Vielleicht müssen wir heute eher "Dummheits-, Faulheits-, Datenkompressions oder sonstwas"-kompatibel werden...:D

Ich weiss noch, wie sich in meiner Schulzeit, ein Freund über die "veraltete Aufnahmetechnik" von Lenny Kravitz beschwert hat, weil er eben z.B. immer nur mit einem Ohrstöpsel rumlief und einige Elemente dann gar nicht gehört hat. Naja damals wusste ich es nicht, aber diese "veraltete" Technik heisst "Stereo"...:D Und in diesem Fall herkömmliches "panpotted" Stereo. Mit Laufzeit oder Äquaivalenz-Panning, hätte er sich wohl nicht beschweren müssen...

Und je beschissener die Anlagen, desto besser müssen imho, die Produktionsmethoden sein...nicht umgekehrt oder nach dem Motto, is eh egal...

Gruß,

Uranus

Noch was zu dem Beatles-"Hard-Panning"-Beispiel. Es kann durchaus sein, dass man Folgendes im Sinn hatte (ich glaube nicht, dass die Leute zu doof waren, Stereo zu kapieren...): Wenn ich die wichtigsten Elemente, wie Lead-Gesang und Gitarre jeweils so lege, dass sie komplett jaus je einem Lautsprecher kommen, muss ich micht nicht mehr auf Phantomschallquellen verlassen, denn egal wo ich stehe oder die Boxen sich befinden, diese Elemente kommen dann immer exakt aus der Richtung des entsprechenden Lautsprechers.
 
Ich spreche in diesem Zusammenhang quasi vom Direktschall "gepanned" durch "Mikro"-Delays (unter 2ms) du sprichst von einer "künstlichen Reflexion" (10-30ms), die laut Haas eigentlich keinen Einfluss auf die Lokalisation haben dürfte.
Hab ich ja dazugeschrieben: Es geht mir um diese Verschiebung vom 1:1 selben Signal um < 2ms. Egal fürs Doppeln, fürs Pannen oder "Simulation" eines "Mikrofonsystems". Das klingt einfach nicht
gut. Wenn du mit A/B Verfahren (reine Laufzeitstereophonie) aufnimmst, bekommst du neben den
Laufzeitdifferenzen (je nach Schallquellen- und Mikroposition) einfach 2 verschiedene Signale. Mit verschiedenen.
1.) Sind die Reflexionen anders.
2.) Der Schall braucht nicht nur länger zu einem der Mikros (bei seitlichen Einfall) sondern verliert noch einen Tick mehr Höhen (durch die Luft)
3.) Die Mikros sind nicht 100% gleich
4.) Durch Raummoden kann es bei tieffrequenten Signalen große Pegeldifferenzen geben.
5.) .....

Das einzige das ich sage: 1:1 Kopie und Verzögerung klingt meiner Meinung nach immer unecht und schlecht. Es gibt Plugins, die diese zusätzlichen Ungleichheiten simulieren und so Laufzeitdifferenzen besser simulieren können.

Das mit den >10-15ms hab ich deswegen dazugeschrieben, weil hier die Phasenprobleme geringer werden. Das ist was anderes, klar, kann aber auch zur Pseudo-Stereo Ortung beitragen.

Vielleicht müssen wir heute eher "Dummheits-, Faulheits-, Datenkompressions oder sonstwas"-kompatibel werden
Ich selber wende diese Ausrede auch oft bei meiner eigenen Musik an. "Hör doch meine Musik
auf einer spitzen Anlage und extrem laut, dann klingts gut".
Haste schon mal Nickelback, Porcupine Tree, die neue Dreamtheater,... auf einem billigen Bildschirm Lautsprecher gehört? Ja genau: Klingt trotzdem super.

Gut aufgenommene, gemischte und gemasterte Arbeiten klingen immer überall gut. Und wenn alles unter 200Hz fehlt ists egal. Und wenns Mono ist, ists egal....
Für einen Laien steht der Song an sich und die Vocals im Vordergrund.
Ob da der Subbass-Bereich der Kickdrum dabei ist oder nicht.

...als Situationen in denen Monokompatibilität gefordert ist...(Vinyl, Am-Radio, Monoanlagen)
Monokompatiblität ist für mich nicht ein reines Kriterium für Mono. Es ist ein generelles Qualitäts-Kriterium. Speziell High-End-Hall ist dafür bekannt extrem weite und echte Räume mit hohem Grad an Mono-Kompatiblität zu erreichen. Einige Freeware-Reverbs arbeiten mit solchen 1:1 Signalverschiebungen und klingen dadurch unechter. Das selbe gilbt für gute Chorus, Flanger, Phaser,... Programme. Oder Pitch-Shifter. ....
Es geht nicht nur um Mono. Gebe dir recht, das ist heute nicht mehr so ein Thema.
Es geht um Qualität.
 
Hab ich ja dazugeschrieben: Es geht mir um diese Verschiebung vom 1:1 selben Signal um < 2ms. Egal fürs Doppeln, fürs Pannen oder "Simulation" eines "Mikrofonsystems". Das klingt einfach nicht

Ich hoffe du weisst, dass beim Delay-Panning das "Original"-Signal und das Verzögerte, unbedingt mit dem regülären Panpot hart links rechts gepanned sein müssen, eben genauso wie bei einem AB- oder Äquivalenzsystem. Dann gibt's keine Kammfilter. Wenn ich versuche Stereo-Signale mit Laufzeitunterschieden via Panpot "einzuengen", bekomme ich natürlich Kammfilter.

Aber egal, ich freue mich zwar, dass diese Diskussion entstanden ist, aber ich glaube nicht, dass sie hier noch weiterführt.

Ich möchte nur nochmal betonen, dass eine Firma wie Studer entsprechende Konzepte einsetzt, wie beispielsweise einen Panner der Laufzeit- und Levelunterschiede generiert oder das Virtual Surround Panning, das die Quellenposition festlegen lässt und die richtigen Early Reflections generiert.

Selbst Bob Katz wünschte sich in einem anderen Forum einen solchen Mixer - in einer kleineren Version, da die angebotenen "ziemlich teuer seien."
 
Kurze Ergänzung:

Aber auch wenn man ein True-Stereo-Reverb verwendet, die meisten Leute profitieren davon überhaupt nicht. Man dreht einfach den Sendregler des Mono-Kanales zum Reverb hin auf. Was passiert? Das Signal landet auf beiden Kanälen des Reverbs gleich laut. Also mittig. Ich weiss nicht wie andere DAWs das lösen, aber in Cubase und Nuendo hat der Sendweg einen EIGENEN PANNER, wenn auch sehr versteckt. Es gibt auch dummerweise keine Option, den automatisch an den Panner im Kanal zu koppeln, nein man muss ihn von Hand nachstellen...:screwy:

Seit Cubase 4 gibt es nun diesen Button, mit dem man den Panner des Sendweges an den des Kanales koppeln kann. Applaus! Allerdings ist er nicht "default"-mässig aktiviert...:rolleyes:
 
YESS !!
Tipp von mir: Nicht mit UranusEXP anlegen wenn es um Stereo Abbildung und dergleichen geht. Da geht man unter wie ein Stein, hab selbst die Erfahrung gemacht. :D :great:
(als Kompliment gemeint nachtürlich).

lg. JayT.
 
auch wenns schon ein wenig älter ist:

Seit Cubase 4 gibt es nun diesen Button, mit dem man den Panner des Sendweges an den des Kanales koppeln kann. Applaus! Allerdings ist er nicht "default"-mässig aktiviert...
hab das ganze grade in cubase 3sx probiert und bei mir wird der panner vom aux send auch automatisch mitgepannt. man kann ihn dann z.b. hart rechts pannen obwohl der kanal eigentlich links ist gibt ziemlich coole effekte
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben