Was ist eine Phasenauslöschung???

  • Ersteller Johnny Buttler
  • Erstellt am
J
Johnny Buttler
Registrierter Benutzer
Zuletzt hier
03.07.14
Registriert
01.06.06
Beiträge
241
Kekse
63
In einem vorherigem Thread über die Rockson Box ist das Wort Phasenauslöschung gefallen.
Soviel ahnung hab ich dann doch nicht um mir die Frage selbst zu beantworten also bitte (Danke fürs) Posten

Gurß Johnny
 
Eigenschaft
 
Lösung
R
Phasenauslöschung ist dann gegeben, wenn sich zwei Wellen gleicher Frequenz, gleicher Wellenlänge und gleicher Amplitude mit einem Phasenunterschied von 180° bzw. Pi überlagern. Das kann bei allen Wellen vorkommen - egal ob optische (elektromagnetische), akkustische oder mechanische.

Bei einer Box kann es zB. dadurch passieren, dass einander die Welle, die vom Speaker ans Gehäuse trifft, und die Welle, die vom Gehäuse reflektiert wird so überlagern, wie oben beschrieben wurde.

Durch die Wahl bestimmter Gehäuseformen können derartige Überlagerungen und die damit verbundenen Interferenzerscheinungen vermieden oder gefördert werden. U.A. dadurch bekommt die Box bestimmte Klangeigenschaften.
Phasenauslöschung ist dann gegeben, wenn sich zwei Wellen gleicher Frequenz, gleicher Wellenlänge und gleicher Amplitude mit einem Phasenunterschied von 180° bzw. Pi überlagern. Das kann bei allen Wellen vorkommen - egal ob optische (elektromagnetische), akkustische oder mechanische.

Bei einer Box kann es zB. dadurch passieren, dass einander die Welle, die vom Speaker ans Gehäuse trifft, und die Welle, die vom Gehäuse reflektiert wird so überlagern, wie oben beschrieben wurde.

Durch die Wahl bestimmter Gehäuseformen können derartige Überlagerungen und die damit verbundenen Interferenzerscheinungen vermieden oder gefördert werden. U.A. dadurch bekommt die Box bestimmte Klangeigenschaften.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Lösung
Um's mal zu vereinfachen: Wenn ein Signal zeitversetzt zusammengemischt wird, kann das auch auftreten. Z.B., du nimmst eine Schallquelle mit mehreren Mikros ab, die unterschiedlich weit entfern sind, und mischst dann die Signale zusammen.
 
AHH, ok jetzt bin ich wieder ein stück schlauer geworden! Danke sehr
 
also ich habe auch diesen begriff erst kürzlich gehört als die fragestellung folgende war: "wie ist es eigentlich wenn ich nen stereosample nehme (selbst aufgenommen, oder von ner cd) und lege dieses auf ne monospur. ist dann der Druck weg, oder wird es automatisch druckvoll, obwohl ich es ja eigentlich in stereo aufgenommen habe???"

dort war die antwort auch etwas mit Phasenauslöschung. ich hab mal gar nichts kappiert. kann es mir jemand richtig einfach erklären ohne zu schwere begrifflichkeiten zu verwenden. wäre nett....
 
ich versuchs mal:
Ein Schall ist nichts anderes als eine Schwingung von Luftteilchen. Eine harmonische Schwingung ist z.b. ein Sinussignal (siehe Grafik). Treten jetzt zwei solcher Schwingungen am selben Ort, z.b. direkt vor einem Mikrofon, auf, löschen sich diese aus, wenn sie gegenphasig sind. Gegenphasig heißt, dass das Signal um seine halbe Wellenlänge verschoben ist. Da beide Schwingungen gleichzeitig am selben Ort auftreten, addieren sie sich, und ergeben oh wunder... 0. Also einfach einen geraden Strich.
 

Anhänge

  • Phasenausloeschung.jpg
    Phasenausloeschung.jpg
    54 KB · Aufrufe: 1.314
Bei Stereoaufnahmen wird viel mit Stereobasisverbreiterungen und Psychoakustikprozessoren gebastelt. Diese verändern das Signal so, dass du auf den Stereokanälen zwar das selbe Signal hast, wenn du eine Monospur in Stereo abmischst, aber die Phase wandert oft dynamisch. Wenn man das wieder auf Mono runtermischt, dann kommt da Murks raus, weil dann immer wieder Interferenz auftritt, eben je nach aktueller Phasenlage.
Viele heutige Aufnahmen sind aus diesem Grund nicht mehr monokompatibel.

http://de.wikipedia.org/wiki/Interferenz_(Physik)

MfG OneStone
 
Viele heutige Aufnahmen sind aus diesem Grund nicht mehr monokompatibel.

aber das kann mir bei worksation- und synthisounds net passieren, oder??? also net, dass ich die samples auf ne mono legen will um mehr "druck" zu haben und dann geht da auf einmal nichts mehr:confused:....

danke für eure verständlichen antworten. jetzt hab ich geblickt:)
 
Ein Synthi arbeitet verdammt viel mit Phasenverschiebungen, sobald der stereo ist. Das ist auch der Grund, warum ich bei sowas, wenn ich live nur einen Kanal für einen Synthi/elektronische Orgel oder sowas habe, auch nur den linken Kanal abnehme, weil man sonst das Problem bekommen kann, dass der Synthie auf einmal akustisch nicht mehr vorhanden ist.

edit: Mit dem Begriff "Workstation-Sound" kann ich nix anfangen :)

MfG OneStone
 
edit: Mit dem Begriff "Workstation-Sound" kann ich nix anfangen

ok. samples oder patches :)
_______________________

Ein Synthi arbeitet verdammt viel mit Phasenverschiebungen, sobald der stereo ist. Das ist auch der Grund, warum ich bei sowas, wenn ich live nur einen Kanal für einen Synthi/elektronische Orgel oder sowas habe, auch nur den linken Kanal abnehme, weil man sonst das Problem bekommen kann, dass der Synthie auf einmal akustisch nicht mehr vorhanden ist.

wenn mir aber beim arrangieren in cubase z.B. nichts auffällt, was mit phasenauslöschung zu tun hat, dann wird es nicht später unter anderen abhören etc. dazu kommen können....

ich kann ja mein basspatch;) obwohl der motif stereo ist ja auf ne monospur legen und es dürfte nichts passieren....
 
Zuletzt bearbeitet von einem Moderator:
Treten jetzt zwei solcher Schwingungen am selben Ort, z.b. direkt vor einem Mikrofon, auf, löschen sich diese aus, wenn sie gegenphasig sind. Gegenphasig heißt, dass das Signal um seine halbe Wellenlänge verschoben ist. Da beide Schwingungen gleichzeitig am selben Ort auftreten, addieren sie sich, und ergeben oh wunder... 0. Also einfach einen geraden Strich.

Tutorial_SoftSynth_welle.png


Diese Grafik [oben] erklärt die Begriffe "Amplitude" und "Periodenzeit". Die Periodenzeit T (der mit T gekennzeichnete Bereich ist ebenfalls die Wellenlänge, diese wird mit dem griechischen Buchstaben "Lambda" abgekürzt [siehe zweite Grafik]) sagt aus, wann sich der Zustand der Welle wiederholt (Periode).

"Lambda":
lambda.jpg


Die Amplitude A ist die maximale Auslenkung der Welle in y-Richtung (vertikale Richtung). Als Phase bezeichnet man die Auslenkung in y-Richtung an einem beliebigen Punkt auf der x-Achse (horizontale Achse).
Die Phase ist also die Auslenkung der Welle in y-Richtung an einem beliebigen Punkt x.

Den Rest hat ja Stifflers_mom bereits erklärt:
Trifft eine Welle nun auf eine andere Welle, bezeichnet man das - OneStone nannte den Begriff - als Interferenz. Sind diese Wellen nun gegensätzlich (Wellenberg trifft auf Wellental und umgekehrt), kommt es zur destruktiven Interferenz, das heißt, die Wellen verringert ihre Auslenkungen gegenseitig und im Extremfall - wenn beide Wellen genau entgegengesetzt zueinander laufen (siehe dritte Grafik) - kommt es zur Auslöschung.

interferenz-3.gif


Die konstruktive Interferenz ist übrigens das Gegenteil, hier verstärken sich die Wellen.

interferenz-1.gif



ich kann ja mein basspatch;) obwohl der motif stereo ist ja auf ne monospur legen und es dürfte nichts passieren....

Wenn sich die Phasen nicht schon vorm Erreichen der HD ausgelöscht haben, passiert nichts mehr.

MfG
 
Zuletzt bearbeitet:
Tutorial_SoftSynth_welle.png


Diese Grafik [oben] erklärt die Begriffe "Amplitude" und "Wellenlänge". Die Wellenlänge T (wird auch mit dem griechischen Buchstaben "Lambda" abgekürzt [siehe zweite Grafik]) sagt aus, wann sich der Zustand der Welle wiederholt (Periode).

T ist die Periodenzeit, das hat mit der Wellenlänge nur insofern was zu tun, dass:

Lambda = c/f
mit f = 1/T ergibt sich dann

Lambda = c*T

Die Wellenlänge Lambda ist eine akustische bzw. mechanische Größe; sie ist bei der Verarbeitung der Daten unwichtig, da sie abhängig von der Schallgeschwindigkeit im Medum (z.B. Luft) c ist.

Das sollte man ergänzend zu dem Beitrag von Dark Seven auseinanderhalten :)

Man kann übrigens auch mit Cubase und anderen schöne Interferenzen erzeugen, indem man einfach phasenverschobene Signale zusammenmischt. Im Falle einer Bassspur ist das aber eher unwahrscheinlich, da man diese Interferenz aufgrund des großen Lambda auch beim Hörer hätte, weshalb man das absolut vermeiden sollte, in diesem Frequenzbereich größere Phasenverschiebungen auf den Spuren zu haben.

MfG OneStone
 
wie hast du das mit cubase gemeint????

Du solltest mit Zitaten oder wenigstens Namensnennungen genauer definieren, wen Du jeweils mit "Du" meinst.
Meinst Du den Beitrag von OneStone?

Man kann übrigens auch mit Cubase und anderen schöne Interferenzen erzeugen, indem man einfach phasenverschobene Signale zusammenmischt. Im Falle einer Bassspur ist das aber eher unwahrscheinlich, da man diese Interferenz aufgrund des großen Lambda auch beim Hörer hätte, weshalb man das absolut vermeiden sollte, in diesem Frequenzbereich größere Phasenverschiebungen auf den Spuren zu haben.

Er meinte, dass man bei Cubase (und anderen Sequencern) Signale (Spuren) zusammenmischen kann, die nicht an den gleichen Stellen die gleichen Phasen haben. So enstehen Interferenzen.

Außerdem sagte er, dass man bei tieffrequenzigen Signalen (Bass) wegen der langen Wellenlänge Phasenverschiebungen so weit wie möglich vermeiden sollte, weil gerade das bei tiefen Frequenzen besonders auffällt.
 
Er meinte, dass man bei Cubase (und anderen Sequencern) Signale (Spuren) zusammenmischen kann, die nicht an den gleichen Stellen die gleichen Phasen haben. So enstehen Interferenzen.

hättest du ein praxisbsp was man damit schönes machen könnte???
 
hättest du ein praxisbsp was man damit schönes machen könnte???

Soweit ich weiß, ist das eine Möglichkeit, unangenehme Frequenzen aus einer Aufnahme zu filtern. Das ist aber eine ziemliche Fummelarbeit.
Vielleicht kann OneStone sogar sagen, welcher Ansatz zur Berechnung nötig ist.
 
Ich meinte damit eher, dass man Probleme bekommt, wenn man Phasenverschiebungen auf Bassspuren hat und diese zusammenmischt. Diese sollten aber normalerweise aufgrund der fehlenden Ortbarkeit des Basses sowieso nicht vorhanden sein.

Wie gesagt - Auslöschung durch Phasenverschiebungen werden immer ein Problem sein, da viele Stereosynthesizer und allgemeine Stereoeffekte (Leslies, Chorus...) mit eben diesen Phasenverschiebungen arbeiten und wenn man das zusammenmischt, dann kommt Murks raus.

Wirklich sinnvolle Anwendungen für destruktive Interferenz gibt es sicher auch in einem Sequencer, aber mir fällt spontan keine ein (habe Fieber, bitte das zu entschuldigen :) ).

Aber warum überhaupt auf Mono runtermischen?

MfG OneStone
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben