Phasenumkehr gegen Übersprechung

Fastel
Fastel
Helpful & Friendly User
HFU
Zuletzt hier
26.04.24
Registriert
11.04.04
Beiträge
6.462
Kekse
20.700
Ort
Tranquility Base
Hi,
ich habe mal eine naive Frage. Kann ich die Phasenumkehr nutzen um Übersprechungseffekte auszulöschen?

Habe mal ein Bild angefügt. Da meine präsentatiosnskills von unerhörter Qualität sind - macht es mal nebenbei auf! :)



Es gibt zwei Soundquellen die gleichzeitig recorden. Jeder überspricht in das Mikro des anderen. Kann ich das Signal des einen nutzen, es "phasenumkehren, um die "übersprochenen" Signale in der anderen Spur herauszurechnen/-filtern?
Also im Bild: Das Gesamtsignal der Trompete (rot) wird phasenverkehrt geschaltet und würde dann in der Gesangsspur nicht mehr hörbar sein.
https://www.dropbox.com/s/i22hdy01bm9nywo/phasenumkehr.pdf?dl=0

So... ich weiß schon, dass es nicht geht (so einfach). :redface: ... aber mich würde doch interessieren, ob dieser technische Ansatz von den Unternehmen irgendwie verfolgt wird, ob es da schon "halb gute" Lösungen gibt. Wie ist der technische Stand?
 
Eigenschaft
 
Das ist auch weder einfach noch erfolgversprechend, weil die Signale nur ganz wenig miteinander gemeinsam haben.
Dazu kommt: bewegt sich eine Schallquelle auch nur um einen Zentimeter, kannste das schon wieder in die Tonne treten.
 
Naja ich meine nicht für den Livebetrieb ;)
 
Kann ich die Phasenumkehr nutzen um Übersprechungseffekte auszulöschen?
JA und NEIN.

JA: für eine bestimmte Frequenz, sowie deren (modifizierte) Vielfache.
NEIN: für alle anderen Frequenzen.

Das liegt daran, dass derselbe Weg in [m] oder dessen Laufzeit [ s ] in Phasen (also [deg] ) übersetzt fequenzabhängig immer unterschiedlich ist.

Fündig wirst Du im Bereich Noise Cancellation, z.B. hier: https://patents.google.com/?q=Noise+Cancellation&oq=Noise+Cancellation .

Nach sehr, sehr vielen Jahrzehnten theoretischer Konzepte sind heute offenbar halbwegs funktionierende Anwendungen zu kaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Laß mal schauen, was du an Signalen ins Mikro bekommst:
Trompetenmikro = Direktschall Trompete + verzögert etwas Raumklang Trompete + anders verzögert der Direktschall Gesang und der Raumklang Gesang
Gesangsmikro= Direktschall Gesang + verzögert etwas Raumklang Gesang + anders verzögert der Direktschall Trompete und der Raumklang Trompete.
In etwa also als ob du aus einem Liter Wasser einen Tropfen Tinte wieder raushaben willst.

Phasenauslöschung klappt besser, wenn die Signale "korrelieren" (Fachchinesisch für "ziemlich gleich" sind). Da im Gesangsmikro der Anteil von Trompete so ziemlich anders ankommt als er im Trompetenmikrofon aufgenommen wird, sind die Signale nicht gleich genug, um sich gegenseitig zu killen. Die Wahrscheinlichkeit ist, daß es eher crazy als verwertbar klingt.

Du könntest jetzt experimentieren wie du die beiden Mikros aufstellst. Mal angenommen du hast zwei Mikros die total gleich klingen. Und 2 Preamps, die exakt gleich verstärken. Du stellst die direkt nebeneinander und in eins singt der Gesang und in das andere trompetet der Peter. (billiger Wortwitz) Unter den Bedingungen könntest du, wenn du bei einem die Polarität umkehrst, das geweils andere in dem Grad auslöschen, wo es im eigenen Mikrofon lauter war. Es wird dem Gesang nicht gefallen, daß so quasi neben seinem Ohr die Trompete dröhnt. Und dann muß man noch aufpassen, daß keiner der beiden dem andern Signal im Weg steht, dh. einen "Schatten" wirft (als Schall) in Richtung Mikrofon.

Das Ergebnis wird meist ansonsten nur ein Stückchen besser sein, keine Offenbarung.

Hier ein alter Trick um ohne Kopfhörer Vocals oder einen Chor im Studio aufzunehmen: Playback auf den Boxen laufen lassen, Chor singt in das Mikrofon. Nachdem das Stück aufgenommen wurde steht der Chor, ganz, ganz, gaaaanz still an der selben Stelle im Studio und hatte ich schon erwähnt, daß sie ihre verdammteSCHEISSSCHNAUTZEHALTENSOLLEN. Dann läuft das Playback bei unveränderter Abspiel-Lautstärke und unveränderter Einstellung des Preamps nochmal komplett durch. Diese zweite Spur - die zwingend exakt synchron zum ersten Durchgang sein muß (dh. das Playback kommt bereits aus dem Rechner) wird dann bei umgekehrter Polarität und exakt gleichem Pegel mit der ersten Spur im Rechner abgespielt und das Ergebnis auf deine dritte Spur aufgenommen. So, da hast du deine etwa 6-9 dB oder so Auslöschung. Mehr gibt dieser Trick nicht her, weil die analoge Welt halt keine bit-identische Maschine ist. Aber hey, das ist ein Haufen dB im richtigen Leben und im Mix supi! Wenn du den Durchgang laufen läßt, wenn der Chor schon nicht mehr im Studio ist, dann wird die Auslöschung ne deutliche Ecke schlechter, weil die Schallantwort aus dem Raum dann eine zu sehr andere wird. Heul doch!

Noch ne Möglichkeit: mit dem Computer bescheissen!!! Es gibt ein Verfahren, das heißt "blind source separation" und das beschäftigt sich ungefähr damit, den Tropfen Tinte aus dem Wasserglas zu bekommen. Du zeigst der Software dein Wasserglas, zu zeigst ihr nen Tropfen Tinte und dann rödelt sich die CPU in den Rotbereich. Ergebnisse von supi bis ach lass mal, aber gern mal nen Versuch wert. Da gibt es sicher mehr, aber mir fällt spontan das Plugin DrumsSSX ein (fuse audio) oder Drumatom (Accusonus). Letzteres für den Erzfeind der Aufnahmetechnik: die todbringende Hihat. Naja, vielleicht übertreib ich hier ein bißchen. Schließlich ist die Hihat nur dann todbringend, wenn man sie benutzt.
Der Peter verkompliziert für diese Verfahren die Sache enorm, falls er verschiedene Noten spielt. Könnte man mit Melodyne im polyphonen Modus probieren, aber wir geraten langsam in den Bereich wo es billiger kommt, wenn Peter auf dem Weg zur Trompete einen bedauerlichen Unfall erleidet, sich beide Arme bricht und erst später spielen kann.

Der Königsweg wäre, wenn beide Kontrahenten so in ihr Mikrofon gurgeln, daß die beiden Spuren im Mix genau soo abliefern, wie das im Mix gebraucht wird. Also quasi als wie wenn der Schreiner das Brett in der Länge absägt, wie es nachher paßt. Das ist so ein bißchen wie KungFu/ShaolinMönche aber so hat man das früher gemacht. Erfordert viel Erfahrung und Üben.
 
Hi:hat:

Phasenverpolung um Bleedings zu entfernen funktioniert leider nicht so ganz, wurde bereits erläutert.

Aber dein Ansatz, quasi "des Bleeds Ursprung-Spur suchen" find ich gut.

Bsp:
Du hast eine Gitarrenspur, und im Hintergrund, hört man noch das Schlagzeug was da rein bleedet, und du weg haben möchtest.
Die Meisten würden vermutlich instinktiv zu einem Gate greifen. Aber worauf reagiert das Gate in der Gitarrenspur? Richtig, auf die lautesten Peaks, bzw auf die Gitarre selbst. Ich möchte aber eigentlich die Schlagzeugbleedings entfernen, was ja nicht direkt mit der Gitarre im Zusammenhang steht..
Daher muss das Gate mMn auf das Schlagzeug reagieren, nicht auf die Gitarre. Aber wie mach ich das? Das Schlagzeug ist zu leise in der Gitarrenspur als dass man das als Trigger verwenden könnte.
Also geh ich an den Ursprung des Bleedings zurück: Dem Schlagzeug. Auch das Schlagzeug hat seine eigene Spur, worauf wunderbare Trigger vorhanden sind. Dieses Signal kannst du nun an ein Sidechain-(multiband) kompressor in der Gitarrenspur senden. Oder ein SC-Dynamic-EQ. Damit erzielst du sowas Ähnliches wie ein Gate, aber das reagiert dann nicht auf die Gitarre, sondern gezielt auf die Bleedings die man entfernt haben möchte. (Nur bei Percussiven Bleedings (kurze Impulse) empfehlenswert (kurze Attack- und Releasezeiten), bei länger anhaltenden Signalen funktioniert das nicht. Würde man zB Bass-bleedings aus der Gitarre entfernen wollen, hmm naja dann wird immer wenn der Bass spielt die Gitarre leiser, das würde ich natürlich verhindern wollen. Aber bei kurzen Impulsen, bisschen mit Attack und Release rumspielen, kann das wunderbar funktionieren;)
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben