Stereo Wedges halte ich für Luxus, bzw. befürchte ich, dass sie eher zu einem matschigen Sound beitragen. Natürlich gibt es Ausnahmen. Stereo bei In-Ears halte ich für großartig.
Ich hatte den Luxus, von traditionellem Monitoring mit Wedges direkt auf Stereo-In-Ears umzusteigen. Dazwischen hatte ich nur eine Erfahrung mit Mono-In-Ears, und die war furchtbar. Da das nur ein einzelner Gig war, kann ich daraus nicht schließen, dass es
nur am Mono lag, vielleicht war es nur schlecht umgesetzt. Ich habe aber Freunde, die konstant mit ihrem Mono-In-Ear kämpfen, so dass ich doch ganz froh mit meiner Situation bin.
Bei Monitoranwendungen ist es in der Regel sinnfrei, denn das was der Musiker braucht ist die reine Toninformation ohne jegliche Ortung. Also Ton direkt auf die Fr... äh ins Ohr.
Ja, wir brauchen eigentlich nur Toninformation, und keine Ortung. Aber das System, das wir dafür benutzen, sind nunmal unsere Ohren, und die sind es nicht gewohnt, Toninformation
ohne eine dazugehörige Ortung zu verarbeiten. Das komplett zu trennen ist deswegen meiner Meinung nach nicht möglich.
Das herkömmliche Stereo ist nicht perfekt, da gebe ich dir Recht. Was eigentlich
natürlich wäre, ist ein System, das die Position und Ausrichtung des Kopfes trackt, und den Sound dementsprechend berechnet. Und zwar nicht nur mit Lautstärkeanpassung, sondern auch Berechnung der Laufzeiten und der Klangänderung, die sich daraus ergibt, wie sich der Klang am menschlichen Kopf bricht. Und idealerweise nicht der Durchschnittskopf, sondern ein Modell des Kopfes des Hörers. An diesen Dingen wird geforscht, gerade im Zusammenhang mit VR. Wann so etwas marktreif ist, und was für ein System sich durchsetzt, ist eine super spannende Frage.
In der Zwischenzeit Stereo als komplett nutzlos zu erklären, weil es nicht das Optimum ist, geht an der Realität vorbei. Mir hilft Stereo jetzt schon. Ich weiß nicht, was eure Erfahrungen sind, und welche Instrumente bei euch im Mix sind, aber für mich funktioniert es super. Ja, die Anordnung im Stereomix stimmt nicht mit der Anordnung auf der Bühne überein. Da gewöhnt man sich aber sehr schnell dran. Und so extrem panne ich auch gar nicht. Das Schlagzeug ist bei mir etwas um die Mitte herum drapiert, Bass und Stimme sind in der Mitte, Backingtrack und Keyboards sind komplett Stereo, d.h. deren jeweiliger Stereocharakter wird 1:1 reproduziert. Der Klicktrack ist komplett nach rechts gepannt, weil er nicht Teil der Musik ist. So kann ich ihn gedanklich ausblenden, wenn ich ihn nicht brauche (weil er nichts zum Feeling beiträgt), aber wenn ich ihn brauche, ist er schon da, easy.
Es ist immer sehr dumm, wenn das Auge etwas anderes Wahrnimmt als die Ohren.
Die Kritik klingt logisch. Aber ist euch schon mal aufgefallen, dass jeden Tag Leute mit Kopfhörern durch die Stadt laufen und Stereomusik hören? Sie drehen sogar den Kopf und sind nicht vollkommen vom Blitz erschlagen und desorientiert, weil sich die Musik plötzlich "mitdreht". ...wir Menschen sind offensichtlich durchaus in der Lage, das zu abstrahieren.
Was brächte denn der Mehraufwand und - wie erstellt Ihr einen Stereomix für den Monitorweg, e.g. mit dem X32?
Der Vorteil bei In-Ear ist ein natürlicheres Hören. Man kann durch die Ortung die verschiedenen Instrumente besser gedanklich trennen. Das Menschliche Hirn übernimmt quasi einen Teil der Arbeit, die sonst der Mix leisten muss. Es ist auch insgesamt ein angenehmeres Hören. Ich sehe Leute mit Mono-In-Ears immer, wie sie einen Stöpsel rausnehmen. Das liegt unter anderem daran, dass dauerhaftes Mono-Hören sehr ermüdend ist. Das Hirn kämpft gegen die Unnatürlichkeit an.
Zur Umsetzung hat noch keiner was geschrieben. Ich bin kein Tontechniker, und weiß nicht wie man das Routing am besten umsetzt. Immer zwei Regler schieben zu müssen, ist sicher keine gute Lösung. Ich denke mal in die Richtung zielt deine Frage?
Bei meiner Band nutzen wir einen Rackmixer von Behringer (weiß nicht welcher, sorry). Vom Mixer gehen LAN-Kabel zu jedem Musiker, und wir haben jeder ein Powerplay P16. Das LAN-Kabel hat nichts mit eigentlichem LAN zu tun, es führt 16 digitale Signale, die sich jeder Musiker selbst so mischen kann wie er will. Übrigens fällt für uns damit der Monitorsoundcheck inzwischen weg, weil die P16s die Einstellungen intern speichern. Ganz selten braucht man kleine Anpassungen, die man locker zwischendurch machen kann. Aber wenn wir aufgebaut haben, steht unser Monitorsound.
Dieses Video beschreibt, wie man X32 und P16 zusammen verwendet. Darin wir der P16-D erwähnt, der das Signal für mehrere P16s aufsplittet. Das braucht man nicht unbedingt, da die P16s sich auch daisychainen lassen.
https://www.youtube.com/watch?time_continue=50&v=iRe7ASYZ5pg