Gute Mischung für Kopfhörer erstellen? (auch seltsam scharfer Pianoklang bei Basisbreitenreduzierung)

  • Ersteller haurein
  • Erstellt am
H
haurein
Registrierter Benutzer
Zuletzt hier
02.01.24
Registriert
19.02.16
Beiträge
207
Kekse
0
Ich mache etwas Hausmusik mit Digitalpiano, Drummachine und zwei Synths.
Aus Rücksicht auf die Nachbarn und auch wegen des besseren Klangs spiele ich ausschliesslich über Kopfhörer.

Vor einiger Zeit stiess ich auf die Crossfeed Funktion des Kopfhörerverstärkers SPL Phonitor One, bei dem ein Übersprechen der Kanäle wie beim Hören über Lautsprecher eingestellt werden kann. Ich dachte erst, das wäre was für mich, als es mir wie Schuppen von den Augen fiel: ich muss ja nur mal an den Pan-Reglern am Mischpult drehen!

Die hatte ich bisher bei allen Geräten - weil Stereo - immer schön auf links/rechts Anschlag gestellt.

Also fange ich bei der Drummachine an. Auf extrem rechts/links klingts eher so, als wenn ich mitten im Schlagzeug sitze. Also drehe ich die Regler mal auf 10 und 2 Uhr und bin erstaunt, dass das Schlagzeug nun tatsächlich schön vor mir steht.

Den Synth für Bass drehe ich auf halb links, den für Lead/Poly auf 2 auf halb rechts.

Und im nu habe ich ein erheblich besseres, luftiges Klangbild.

Das Piano lasse ich sowieso auf voll rechts/links, so klingt es ja auch, wenn ich davor sitzen würde.

Seltsamer Effekt: wenn ich die Basisbreite des Pianos verringere, geht der Klang in eine unangenehm "scharfe" Richtung. Denselben Effekt hatte ich auch damals beim Test über Lautsprecher. In der Tat, schein die Basisbreiten-Reduzierung diesen - wenn auch unerwünschten - Lautsprechereffekt nachbilden zu können.

Nur woher kommt das? Bei den anderen Instrumenten, ist die "Verschärfung" nicht der Fall.

Das Piano ist übrigens ein Korg SV-1.
 
Eigenschaft
 
Hi :hat:

Der Unterschied zwischen Lautsprecher und Kopfhörer liegt nicht nur an der Kanaltrennung, sondern auch einer Latenz. Wenn ein Signal von links kommt, hört man es über Lautsprecher natürlich auch auf dem rechten Ohr, aber mit ca 2ms Verzögerung, weil für den Schall die zurückzulegende Strecke um ca 20cm grösser ist, je nach dem wie weit nach aussen gepannt wurde. (Laufzeitunterschied)
Wenn du also allein am Panoramaregler rum drehst, kannst du damit keine Lautsprecher nachahmen, sondern lediglich die Stereobreite reduziert sich.

Dass das Klangbild luftiger wird, wenn die Panoramas optimal eingestellt sind, liegt da dran, dass sich die Instrumente weniger überlagern, weil nicht alle an der selben Stelle im Mix sitzen. Das ist jedoch bei Lautsprechern als auch bei Kopfhörern der Fall.

Was du beim Piano festgestellt hast, dürfte eine Phasenauslöschung sein, die entsteht, wenn L+R summiert werden. Grund: die Phasenlagen zwischen R+L sind vermutlich teils gegenläufig, wegen den Laufzeitunterschieden der Mikrofonierung. Ein positiver plus ein negativer Wert addiert, hebt sich mathematisch gegenseitig auf. Auch das hat wenig Einfluss ob du mit Kopfhörer oder Lautsprecher hörst, passiert in beiden Fällen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Wenn ein Signal von links kommt, hört man es über Lautsprecher natürlich auch auf dem rechten Ohr, aber mit ca 2ms Verzögerung, weil für den Schall die zurückzulegende Strecke um ca 20cm grösser ist, je nach dem wie weit nach aussen gepannt wurde. (Laufzeitunterschied)

Also das hätte ich dann doch noch mal gerne etwas näher erläutert. Der Pan Regler als solcher macht keine Verzögerung. Wo sollen denn die 20 cm Strecke herkommen?

Richtig ist, bei Lautsprechern hört man natürlich immer beide Lautsprecher auf beiden Ohren. Das Stereobild entsteht aber nicht nur durch Laufzeitunterschiede. Da sind Frequenzen, Reflexionen und weitere Komponenten beteiligt.

Das fehlt natürlich beim Kopfhörer. Zumindest die geschlossene Variante macht eine knallharte Trennung zwischen Rechts und Links. Die einzelnen Ohren sind sozusagen voneinander Isoliert.

Einer der Gründe, warum man auf Kopfhörern das Stereobild nur ungenügend beurteilen kann. Besser ist es mit Halboffenen Kopfhörern. Sie trennen nicht so scharf, was dann schon mal deutlich anders klingt.

Effekte wie beim Phonitor wollen eben das mit technischen Mitteln erreichen. Es gibt auch verschiedene Plugins, die sowas machen. Also Anteile von Links auf Rechts und umgekehrt. Am besten noch mit Berücksichtigung psychoakustischer Effekte.

Andere Plugins treiben es auf die Spitze, wie zum Beispiel Nx – Virtual Mix Room over Headphones. Da wird gleich ein ganzer Studioraum mit Lautsprechern simuliert. Diese Technik gibt es unterdessen sogar eingebaut in Kopfhörer. Zum Beispiel VSX von Slate Digital.

Ob einem sowas zusagt oder nicht ist Geschmacksache. Theoretisch und auch praktisch ist es durchaus möglich mit Kopfhörern zu mischen. Das setzt aber einiges an Übung voraus und immer wieder Gegenhören mit Lautsprechern.

Zu dem Effekt mit dem Piano, keine Ahnung. Kann auch sein, dass Du das schon so sehr gewöhnt bist, dass jede Änderung irgendwie anders oder schlechter klingt.

Gegebenenfalls würde ich das mal komplett Mono stellen und dann einen Stereo Effekt drauf tun. Einfach so, um mal zu hören wie das klingt, wenn man den schon in den Gehörgang eingebrannten Sound etwas verändert..... (;
 
  • Gefällt mir
Reaktionen: 1 Benutzer
  • Gefällt mir
Reaktionen: 2 Benutzer
Einer der Gründe, warum man auf Kopfhörern das Stereobild nur ungenügend beurteilen kann. Besser ist es mit Halboffenen Kopfhörern. Sie trennen nicht so scharf, was dann schon mal deutlich anders klingt.
Zumindest für mich gesprochen und meiner Arbeitsweise, trifft jedoch genau das Gegenteil zu.
Über Kopfhörer ist die Panoramapositionierung sehr viel effektiver und gezielter zu setzen als dies über Lautsprecher zu beurteilen wäre.
Die Position des Hörers zum Lautsprecher im Dreieck kann noch so perfekt sein, aber trotzdem bleibt die Beurteilung einer punktgenauen Position über Monitore doch eher diffus und eine "ungefähre/in etwa Ortung" und verbleibt stets "fluktuierend" in Abhängigkeit von Abständen der Hörers zu Lautsprechern, Lautsprecher zu Lautsprecher, Ausrichtung/Neigung (Kopfhaltung) usw.
Selbst im perfekten Dreieck sitzt man nun auch nicht unbeweglich starr wie ein Stein vor den Monitoren.
Diesen Schwankungen ist man in einem Kopfhörer nicht ausgesetzt.

Ich selbst arbeite auch viel mit Orchesterinstrumentierung und begrenze über (Waves) Stereo-Imager bei vielen Instrumenten das Panorama für das Staging, so dass ein Instrument wie z.B. ein Teil der Violinen samt Hall auf z.B. der linken Seite, auch z.B. nur im Halbfeld bei 40-50° der linken Seite sitzt- und weder nach ganz links (90°) rüberlangt oder in die Mitte vordringt und auch keine Anteile zur rechten Seite hat.
Diese Präzision/Beurteilung, kann ich mit Lautsprechern allerdings nicht erreichen.
Es ist wiederum natürlich etwas ganz anderes zu beurteilen, wie sich dass dann (die Kopfhörer abgesetzt und den Mix über die Monitore beurteilend), tatsächlich im Sound abbildet und auswirkt, wenn der Raum in dem man sitzt, auch noch ein mehr oder minder "kleines" Wort mitzureden hat.

Halboffene Kopfhörer haben zumindest für mich auch vielmehr einen Sinn, Bassanteile im KH etwas entspannter zu hören und auch länger ermüdungsfrei zu bleiben... allerdings beurteile ich Bässe jedoch nie über Kopfhörer, sondern höre sie im Raum und mit einigem Abstand zu den Monitoren gegen, wenn sich der Bass auch erst wirklich entfalten kann. (Aus 5 Meter Entfernung klingt er nun einmal anders als im Nahfeld).
Dies klappt meiner meiner Meinung nach nicht so gut über Kopfhörer, selbst mit NX-Technologie... die ich ohnehin fraglich finde.

Ich selbst nutz(t)e hier Abbey Road 3 und muss mich dann immer fragen, was es mir bringt, wenn ich lediglich eine zusätzliche Färbung einer anderen (Psycho)Akustik habe, die ich wiederum irgendwo beurteilen muss... und selbst wenn mein Mix dann halt so im Abbey Road Studio klänge... was sagt mir das aber nun wirklich über den Mix... ob dieser gut oder nicht so toll sei... von daher bin ich kein Freund davon, weil es zumindest für mich lediglich eine färbende Komponente ist, die ich nicht wirklich beurteilen kann, weil ich mit der tatsächlichen Akustik der ARS nicht vertraut bin.

Das ist aber alles natürlich rein subjektiv und nur meine Arbeitsweise und ich keinen Anspruch auf allgemeine Gültigkeit erhebe und dir zustimme, dass sich bis zu einem gewissen Punkt auch sehr gut über KH abmischen lässt, das Gegenhören über Monitore im (eigenen/eingehörten) Raum aber dennoch auch für mich unerlässlich bleibt, um einen Mix final beurteilen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Tja nu, aber daraus zu schlissen dass es dann eine Verzögerung zwischen links und rechts von ca. 2 ms gibt ist immer noch nicht nachvollziehbar. Kommt ja auf die Aufstellung der Boxen an. Die kleben ja nicht direkt auf dem Ohr.
 
Kommt ja auf die Aufstellung der Boxen an. Die kleben ja nicht direkt auf dem Ohr.

Die Aufstellung der Boxen bzw. deren Abstand zum Kopf ist im Stereo-Dreieck nicht entscheidend, da der Abstand von linker Box zu linkem Ohr x ist und zu rechtem Ohr x + y. Das gilt im Idealfall ebenso für die rechte Box zu rechtem Ohr (x) und linkem Ohr (x + y). Auf einen fixen Wert von 2 ms sollte man sich allerdings auch nicht versteifen.

Die Auswirkung des minimalen Abstands und der minimalen Verzögerung ist ohnehin nahezu zu vernachlässigen. Entscheidender sind Faktoren Frequenzfilterung durch den Kopf und die Richtung der Ohrmuscheln sowie ggf. Reflexionen.
 
Entscheidender sind Faktoren Frequenzfilterung durch den Kopf und die Richtung der Ohrmuscheln sowie ggf. Reflexionen.

Nicht zu vergessen, Lautstärke. Selbst wenn der Kopf festgezurrt ist, das Stereo Dreieck ideal ist, Reflexionen symmetrisch und so weiter, man dann einfach mal in der Mitte ein Mono Signal abspielt, dann scheint das aus der Mitte zu kommen. Drehe ich es ein wenig nach Links, kommt es mehr von Links. Ganz ohne eine Spur der Änderung an der Laufzeit.....
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Stimmt, Pegel hatte ich ganz unter den Tisch fallen lassen aka vergessen. :sneaky:
 
Ich werfe noch in den Ring daß manche Digitalpianos eine Aufhübschung des Signals haben, damit es breiter klingt... ein Extremfall hatte schlicht nen kompletten Phasendreher auf einer Seite, weil es dann so schön stereo klingt. Ob das einer der Faktoren für anderen Klang bei Stereobasisbreiten-Verkleinerung sein könnte?
 
Nicht zu vergessen, Lautstärke. Selbst wenn der Kopf festgezurrt ist, das Stereo Dreieck ideal ist, Reflexionen symmetrisch und so weiter, man dann einfach mal in der Mitte ein Mono Signal abspielt, dann scheint das aus der Mitte zu kommen. Drehe ich es ein wenig nach Links, kommt es mehr von Links. Ganz ohne eine Spur der Änderung an der Laufzeit.....
Jain. Du hast wohl recht, dass sich keine Laufzeiten verändern, wenn man am Panorama rum dreht. Da lag ich oben falsch. Aber du vergisst, dass auch wenn ein Monosignal in der Panoramamitte abgespielt wird, man dies auf 2 Lautsprechern mit 2 Ohren hört. Selbst wenn was aus der Panoramamitte kommt, höre ich mit den linken Ohr den linken Lautsprecher etwas früher als den rechten, und mit dem rechten Ohr umgekehrt. Wenn ich nun das Signal leicht nach rechts drehe, verändert sich aber das Lautstärkeverhältnis zwischen dem linken und rechten Lautsprecher. Der rechte Lautsprecher überwiegt nun in der Lautstärke, die Latenz des rechten Lautsprechers ist also auf dem linken Ohr lauter, die Latenz des linken Lautsprechers auf dem rechten Ohr leiser.

Bei einem Kopfhörer fällt das weg.

Die Auswirkung des minimalen Abstands und der minimalen Verzögerung ist ohnehin nahezu zu vernachlässigen. Entscheidender sind Faktoren Frequenzfilterung durch den Kopf und die Richtung der Ohrmuscheln
Kommen denn Auslöschungen von spezifischen Frequenzen nicht von Laufzeitunterschieden? Und womit ortet unser Gehör eine Schallquelle? War da nicht was mit Laufzeitunterschieden? Klar, ich bestreite nicht dass menschliches Fleisch Frequenzen unterschiedlich filtert, und auch die Richtung der Ohrmuscheln eine Rolle spielt, aber genauso der Laufzeitunterschied.
Wäre mir neu, wenn bei einer Stereomikrofonierung der Abstand zwischen den Mikrofonen vernachlässigbar wäre. Und unser Gehör ist ja sowas wie eine Stereomikrofonierung. Ob ich nun eine XY Mikrofonierung habe, wo die Mikrofone an der selben Stelle sitzen, oder sie mit 20cm Abstand im selben Winkel aufstell, ist doch ein erheblicher Unterschied.
 
Zuletzt bearbeitet:
Die beste Möglichkeit mit einzelne Stimmen vollem panning zu fahren und trotzdem auf dem Kopfhörer keine Extremeffekte zu bekommen, ist die Phase zu benutzen. Reine AB-Aufnahmen, in denen alle Stimmen auf beiden Kanälen L+R ziemlich gleich laut sind, aber gemäß Eintreffen über die Phase einen Vorlauf oder Nachlauf haben, wirken am "luftigsten".

Wäre mir neu, wenn bei einer Stereomikrofonierung der Abstand zwischen den Mikrofonen vernachlässigbar wäre.
Ja, es wird immer wieder herausgestellt, dass das Stereohören mit dem Ohrabstand nichts zu tun habe. Das bestreite ich und belege es mit Erfahrungen mit Personen mit breiten und schmalen Köpfen. Auch in der Tierwelt gibt es diese Effekte, dass diese mit weitem Ohrabstand eine bessere Lokalisation hinbekommen. Den letzten Zweifel beseitigen dann Test mit Menschen, die die alten "Hörrohre" verwenden, die man früher hatte.

Ja, selbstverständlich hat das Stereohören etwas mit Ohrabständen zu tun, man darf eben nur nicht blind schlussfolgern, dass Mikrofone daher immer im Ohrabstand positioniert werden müssen. Das ist so nur bei Kunstkopfaufnahmen richtig.

Bei der konventionellen Abhöre mit Lautsprechern , kriegen beide Ohren beide Signale L+R aus beiden Lautsprechern, es gibt also ein akustisches "Übersprechen" und da überlagern sich eben mehrere Effekte der Pegel- und der Laufzeitdifferenzen. Deren Wirkung ist aber ziemlich erforscht und nicht ohne Grund kommt man mit sehr gebündelt arbeitenden Mikrofonen (ORTF mit Nieren) rein zufällig doch bei einem Ohrabstand raus, während es bei Laufzeitstereofonie mehr braucht.

die Latenz des linken Lautsprechers auf dem rechten Ohr leiser.

Was soll damit gemeint sein? Unter Latenz verstehen wir in der Technik die "Nichtsichtbarkeit" eines Ereignisses, hier eines Signals -was manche Leute dazu bewegt, "Latenz" mit "Delay" gleichzusetzen, was schon mal nicht mehr 100% stimmt. Was du gfs meinst ist, dass die Verzögerung der beiden Signale in einem rein gepannten Signal für das Ohr aus beiden L+R dieselbe ist, aber durch den Lautstärkevorteil des einen dominiert wird. Das ist nämlich der Fall. Beide Effekte wirken gleichzeitig auf das Ohr.

Das Ganze kann im übrigen auch gegeneinander arbeiten, indem man Signale die leiser sind, früher kommen lässt, um sie "lauter" zu machen. Bei Stützmikros passiert das: Signale über Stützen gelangen früher in den Mix und damit ans Ohr und benötigen nur geringe Lautstärken, um zu wirken.


Bei einem Kopfhörer fällt das weg.

Wie bekannt ist, braucht man dann aber auch kopfhörertaugliche Signale und die sind nicht so einfach zu erzeugen - auch mit Kunstköpfen nicht. Was bei KH nämlich vor allem erst man wegfällt, ist das Hören, das über den Schädel und die Stirn funktioniert. Diese Anteile werden ebenfalls zur Lokalisation herangezogen - z.B. oben und unten und die wirken auch bei Lautsprechern.

Einen Punkt noch zu den Ohrabständen:

Wo man etwas hört, ist am Ende Ergebnis des Lernens. Das Hirn ordnet im Laufe der frühkindlichen Entwicklung - angeblich in den ersten 4 Jahren - das Gesehene dem Gefühlten und Gehörten zu - damit wird sozusagen, das eigene Gehör eintrainiert. Man kann daher davon ausgehen, dass auch bei sehr unterschiedlichen Ohren, Ohrmuscheln und Kopfgrößen die Menschen ungefähr die gleiche Richtung heraushören - wenn sie ein gewisses Signalgemisch bekommen. Dieses Signalgemisch ist bei jedem etwas anders, das Hirn dekodiert aber dann die richtige Richtung. Insofern könnte man konstatieren, dass die individuelle Ohrposition egal ist, und manche Wissenschaftler tun das auch.(?)

Ich denke aber einen Schritt weiter:

Man kann das, was man lokalisiert, sehr leicht beeinflussen und das Hirn täuschen, wenn man sich die Hände vor die Ohren hält, einen Trichter bildet, diesen bewegt und so den Schall etwas ablenkt. Das Hirn wird getäuscht und die Schallwelle wandert. Und sie wandert massiv! Kleine Änderungen in der Lautstärke oder der Phase für die Höhen (Schall muss um die Hand) erzeugen ein anderes Muster und der Fernseher seht 1m weiter rechts! Da auch die bekannten Tests für die Lokalisationskurven zeigen, dass die Menschen durchaus unterschiedlich hören und es sich deshalb nicht ganz genau festlegen lässt, wieviel Lautstärkeunterschied und Phasenvorlauf ein Signal exakt braucht, um voll L oder R zu sein, gibt es also immer nur einen Mittelweg für uns Mix-Ingenieure, wenn wir Klänge für Kopfhörer oder Lautsprecher verteilen. Streng genommen, bräuchte jeder Mensch sein eigenes optimales Mikrofonsystem - weil eben die individuelle Geometrie sehr wohl eine Rolle spielt. Das gilt für Kunstköpfe und besonders auch für die Mikrofonsysteme. Da der Hauptaspekt der Ohrabstand ist, bleibe ich also dabei, dass der Ohrabstand (des Durchschnittsmenschen) die Ergebnisse der o.g. Messungen bestimmt hat und damit die Mikrofonsysteme bedingt, die wir gefunden haben und die wir heute verwenden.
 
Zuletzt bearbeitet:

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben