Behringer ddx16 32 und allgemeine Fragen (insbesondere: internes Delay Problem)

  • Ersteller knotenpunkt
  • Erstellt am
K
knotenpunkt
Registrierter Benutzer
Zuletzt hier
09.06.20
Registriert
15.11.15
Beiträge
21
Kekse
0
Hey,

ich habe ein paar Allgemeine Frage zum Thema Mischpult. Ich werde zwar das Behringer ddx16 32 referenzieren und teilweise sogar wirklich nicht übertragbare Fragen zu diesem Pult stellen.
Das meiste wird aber generisch übertragbar für alle "Mixer" stehen.

Das Manual vom DDX1632: https://drive.google.com/file/d/0B6bQnKB7VzeoNGt2ZnhXaF94NlE/view Auf Seite 5 ist ein Blockschaltbild zu sehen.....


Die 1. Frage:
Wie berechne ich den Zielwert an db, wenn ich zwei channel merge, also die Summe davon? (kann dies sogar von mischpult zu mischpult anders sein, summe, mittelwert, etc?)
Wie berechne ich den Zielwert an db, wenn ich X channel merge?


Wo in der Verarbeitungskette den EQ, Comp, etc schalten?, Ich könnte ja jetzt direkt auf jeden Channel den EQ, etc schalten, oder aber channel in einem Bus zusammenfassen und auf den dann durch "nen Trick" beim DDX1632 auch EQ, etc darauf schalten.

Macht des einen Unterschied, wenn ich auf CH1 und CH2 einen EQ mit identischen Einstellungen schalte, oder ob ich auf die Summe den EQ mit identischen Einstellungen gebe?
Was spricht technisch, musikalisch für den einen bzw. für den anderen Weg?


Und nun eine konkrete Frage zu ddx1632:
Das Mischpult hat ja Busse. Welchen Sinn verfolgte Behringer, dass man bspw. CH1. auf verschiedene Busse routen kann, ABER nur einmal den Fader, bzw. gain hierfür einstellen kann?
Bspw. möchte ich CH1 auf Bus1 und Bus5 legen, aber mit unterschiedlichem Verhältnis, da ich unterschiedliche Summen auf Bus1 und Bus5 haben möchte (also wenn ich jetzt noch weitere CH darauf route)
Geht aber wohl nicht? Warum? (zuviel Rechenzeit um ein bisschen die pegel unterschiedlich anzupassen, oder ist das ddx1632 nicht wirklich digital?)
So kann ich mit den Bussen eigentlich nicht viel anfangen....
Ich kann mehrere Master-Busse generieren, aber nicht gleichzeitig ein anderes Bus-System aufbauen, das auf nen digitalen out geht oder etc.
Also was ich nicht wirklich verstehe ist, dass ich zwar nen CH auf unterschiedliche Busse legen kann, aber nicht unterschiedliche eingangspegel definieren kann. So macht für mich die Funktionalität, dass ich auf unterschiedliche busse routen kann auch nicht mehr wirklich Sinn, also warum?

Bzw. konkret gefragt, was bringt mir die Funktionalität, dass ich auf unterschiedliche busse routen kann, ohne verhältniseinstellungen?, was kann ich damit anfangen? Worin besteht der Mehrwert, dass ich nur den einen Teil dieser Funktionalität habe.

Nächste Frage.... interne Delay-Zeiten:

Ich habe vorhin von einem Trick gesprochen. Ich kann die Busse zurück auf die Inputs 17-32 legen.
Damit kann ich EQ und etc auch nochmal für die Summe der Busse einstellen.

Jetzt hat mich aber jemand davor gewarnt. Wenn ich jetzt von CH1 auf master out gehe und CH1 auf einen Bus route, diesen dann bspw. auf input 17 zeigen lasse und hierauf bspw. wieder nen EQ definiere und anschließend auch auf master out gehe, dass ich dann eventuell unterschiedliche laufzeiten habe.

Aber auch generell AUX wege, send-effekte.... wie garantiere ich dass ich am ende mit gleichen laufzeiten die digitalen, aber auch physikalischen outputs mit dem entsprechenden siginal verlasse. Garantiert mir das das mischpult selber, oder muss ich da selber Hand anlegen, oder ist es normal, dass ich auf den aux-wegen andere outs habe wie auf den master-outs (auf die laufzeit bezogen)

Außerdem kann ich ja bei dem pult bspw. die dynamics je CHannel anschalten oder by-passen.... kann es auch hier schon zwischen den channeln ohne komplexes routing zu laufzeitdifferenzen kommen?

Auf was muss man da alles achten, muss ich sowas mit den delay-funktionenen angleichen?
Falls ich sowas angleichen müsste, muss ich ja erstmal wissen, welche Delay-Zeiten intern entstehen, wo wir auch schon beim nächstem Thema sind.



Software:

Mit welcher Software, kann ich zumindest die Differenz zwischen Eingang und Ausgang des Pults messen (Linux, Windows)
- relativ Laufzeitunterschiede zwischen verschiedenen inputs und outputs und mischungsszenarien
-absolute Differnez.... heisst ich muss vorher die Rechner, Soundkartelaufzeit von meinem PC irgendwie herausrechnen

gibts da irgendwelche gute Software und best practise anwendungen
Wieviel geamt delay ist noch angemessen?


Software-Einmessen:
Hab mir mal näher die Software http://www.voxengo.com/product/span/ als Cubase-Plugin angesehen.
Was denkt ihr dazu?
Wie misst man damit am besten ein. Pink Noise Signal vom PC aufs Pult geben und mit Mess Mikro einfangen.
Und dann am EQ vom Pult rumschrauben
Jetzt muss ich aber wieder auf Laufzeiten achten. Delay anpassen oder?

Wie kann ich des Tool einsetzen um einzelnen Channel zu analysieren, was bringt mir die Analyse und etc?

Gibts da bessere Tools, Features?

Welche weitere Analysesoftware würdet ihr empfehlen?




Ein weiteres Szenario:

Das ddx1632 hat leider keinen 32 Band EQ.... ich hab mir gedacht naja ich pushe des ganze via adat in ein focusrite interface (leider nur usb und kein firewire zum pc), dann in cubase dann in EQ (eventuell auch noch multiband-comp) und dann das ganze wieder zurück, oder am besten gleich über out von focusrite, da hier ja die DA-Wandler einiges besser sind^^
Problemfeld hier ist mal wieder der Delay^^
Naja allgemein wie seht ihr des, dass man heutzutage eher mit dem PC mixed?, also wirklich alles in den Computer hineinroutet und hier dann mixed?

Wie könnte ich den Delay in Griff bekommen, bzw. ist er sogar vertretbar?
Wie kann ich den Delay weiter reduzieren? Cubase meiden?,einen Linuxechtzeitkernel verwenden, andere USB-Driver, firewire?, etc.....

Was ist wenn ich Delay X akzeptieren kann und nur partiell Dinge über den Computer verarbeiten möchte, bspw. den Multiband-Comp auf eine bestimmte Bus-Spur,
dann muss ich doch den delay von ALLEN anderem anpassen, da ich ja keinen negativ-Delay einstellen kann....


Das Pult selber hat zwar keinen 32 Band-Eq aber neben der dynamic-section (beinhaltet einen 4eq je spur) noch einen 8band eq in der effekt-section.
Ich würde jetzt das endsignal (vermutlich von einem buss, dass ich wieder zurückgeroutet auf bspw. ch17 habe) auschließlich als send-route in FX4 (das den 8 eq beinhaltet) routen und diesen dann schließlich als einzigsten auf den Output legen. Ist das ne gute practise so? Ich habe generell irgendwie das mulmige Gefühl je anspruchsvoller ich das Routing gestalte und Funktionen (hier als Effekt der 8 Band eq) reinhaue, desto schlechter wird das singal, desto größer die Delay Zeiten und desto unberechenbarer das ganze....

Ein Fallbeispiel, wie ich eine möglichst flexibel das Mischpult einstellen würde

Naja ich würde bspw. wenn ich nur 16 channel benötigen würde, diese auf 8 Busse mischen, also vom Verhältnis her (und eventuell auch schon etwas von der Dynamic-Section her)
Diese 8 Busse würde ich auf Channel 17-25 zurückrouten. Hier kann ich dann nochmal mit der Dynmic-Section, Effekt-Section, Aux-Section arbeiten. Auch könnte ich hier das ganze (den gruppierten Mix) nochmal auf ein Bus-System legen (nicht auf die gleichen Busse, da sonst interne Rückkopplungen entstehen würden^^)

Auf CH17-25 würde ich dann die eigentliche Arbeit an Dynamic-Sektion machen, bspw. den gesamten Gesang auf einmal mit nem EQ bearbeiten.... also bspw. CH1-8 ist gesang -> 1-4 lege ich auf BUS1 und 5-8 auf BUS2 (entspricht dann CH17 +CH18).... CH17+CH18 würde ich dann auf BUS3 legen (entspricht dann CH19) Jetzt kann ich in allen 3 Hirachiestufen die Dynamics und Effekte anpassen. Hierachiestufe1: CH1-8.... Hierachiestufe2: CH17+CH18.... Hierachiestufe3 CH19. Auch kann ich aus allen hierachiestufen aux abzweigen.

Problem hierbei ist mal wieder, dass ich vermutlich innerhalb einer Hirachiestufe kleine Verzögerungen habe, bedingt durch die Anzahl der in dieser Hirachiestufe arbeitende Funktionen (EQ, Comp, etc) und vermutlich habe ich DRASTISCHE Unterschiede zwischen den Hirachiestufen????!!??.... stimmt das so?



Ok wenn ich jetzt auf dem Main-Out nur die letzte Hirachiestufe abgreife und die gesamtverzögerung in kauf nehmen kann, dann passt des (wie aber berechnet sich der gesamtdelay?)
Aber möchte ich jetzt bspw. die Monitor-Boxen via Aux-Wege versorgen und bspw. gefallen mir die Männerstimmen gesamt -> hirachiestufe2: CH18, wobei CH18 dann den männergesang repräsentiert -> AUX1
Die Frauen möchte ich aber nicht genauso wie ich se im Bus1 bzw. CH17 zusammengefasst habe so auf den monitor geben, also gehe ich in die hirachiestufe1: und mach mir aus den CH1-4 nen eigenen mix und lege alle direkt auf AUX1
Und Bähm ich habe unterschiedliche Laufzeiten

Jetzt könnte ich alle Frauenstimmen CH1-4 mit nem output delay auf AUX1 belegen. Aber das ist - glaube ich - gar nicht möglich, also funktioniert das so schon mal gar nicht.
Ich könnte auch nen weiteren Bus dafür verschwenden, geht aber auch nicht, da ich ja hier keine unterschiedlichen pegel einstellen kann, funktioniert also auch nicht

Ein weiteres Problem ist eine zusätzliche Aufnahme.

Ich könnte jetzt bspw. Hirachiestufe 2 gleichzeitig digital abnehmen, das geht!
Aber möchte ich jetzt für die Aufnahme ein anderes Mischungsverhältnis, dann geht das nur eingeschränkt bis gar nicht.
ich könnte die Busse 9-16 noch dafür verwenden. Da kann ich die Spuren auch drauf routen, ABER wie man ja oben gesehen hat kann ich hier keine anderen pegeleinstellungen wählen, wie ich schon für die ersten 8 Busspuren verwendet habe..... Bähm geht also auch nicht wirklich!


Naja mal abgesehen von der Aufnahme, eigentlich ist es schon so, dass man Spuren gruppieren möchte und dann auf die Gruppierung einen Effekt haut, oder?
Wie aber realisiert man das gescheit, auf was muss man da alles achten, oder sollte ich das mit dem Gruppieren lassen und doch wieder nur auf einer Hirachiestufe arbeiten?
Welche Zeitgarantien muss das Mischpult liefern? Wieviel delay ist zwischen zwei signalen vertretbar?
Wie kann ich des abschätzen/ausrechnen, was konkret passiert, wenn ich so oder so route?
wie kann ich das dann auch konkret messen via pc?

Was ist best-pracise, das ganze aufzuziehen?
Wo muss ich richtig aufpassen?

Man sagt ja weniger ist mehr.... dann bräuchte ich aber kein Digi-Mischpult mit Bussen und etc....




Abschließend gehe ich mal aus dem diskreten Bereich heraus und komme noch zu was kontinuirlichem

Das mischpult hat ja unterschiedliche line-pegel..... muss ich aufpassen, wenn ich nen main-out auf ein line-in eines anderen pults lege, oder reicht es aus den fader ziemlich weit unten zu lassen, oder kann auch schon das gefährlich sein?
Kann ich das Mischpult irgendwie mit meiner HeimStereoanlage (sind Cinch-eingänge) verbinden bspw. um die monitorbeschallung weiter auszubauen.... muss ich da auf was konkretes achten? Oder ist auch das ziemlich gefährlich, also für die Heimstereoanlage?^^



Naja das wars erst mal an Fragen, vermutlich hab ich ziemlich viel vergessen zu fragen, aber das schiebe ich bei gelegenheit nach^^
Zusammenfassend geht es darum, wie man Dinge ausrechnet, was passiert wenn ich so oder so route, wie da die Delay-Zeiten sind, ob man wirklich so kompliziert routen sollte bzw. überhaupt darf, wegen delay....
Welche Software ist gut zum Einmessen, analysieren, delay-zeiten messen
Was sind so die best-pracisen beim routen und etc....


Noch kurz etwas offtopic:
Noch ne andere Frage, hat zufällig noch jemand ein aktuelles Firmware update vom ddx1632 herumliegen.
gibts zufällig eine source-code veröffentlichung bzw. ist es erlaubt via reverse-engineering in der firmware herumzuspielen (wobei der sourcode wäre mir lieber^^)
Weiß jemand wie man die Channel-Meter(also die LED anzeige) via midi sysex übertragen lassen kann?





lg knotenpunkt
 
Eigenschaft
 
Wie berechne ich den Zielwert an db, wenn ich zwei channel merge
Das ist wohl eine mehr theoretische Frage. An sich, wenn man zwei idente Signale zusammen mischt erhöht sich der Pegel um 3 dB. Also jede Verdoppelung des Pegels sind drei dB mehr. Praktisch hat das noch etwas Bedeutung bei älteren Digitalpulten wo man aufpassen musste, die Busse nicht zu übersteuern. Moderne Pulte haben intern eine andere Verarbeitungsmethode was das 'Übersteuern' der Busse praktisch eliminiert. Man muss also nur mehr beim Wandeln und auf alle nachgeschalteten Komponenten (inkl. Ohren der Zuhörer) aufpassen dass die nicht überlastet werden.

Wo in der Verarbeitungskette den EQ, Comp, etc schalten?
Das hängt davon ab was du erreichen willst. Willst du die einzelnen Signale bearbeiten dann solltest du das im Kanal machen, willst du die Gesamtsumme bearbeiten dann in der Summe. Es kann auch durchaus sein, dass du beides machst. Oft ist auch wichtig zu wissen wo das Signal weiter verwendet wird. ein Stimmenkompressor auf dem Monitor kann problematisch sein, deshalb kannst Du das auch in einer Subgruppe machen.
In einem Digitalpult sollte es jedoch egal sein wenn du genau ein Signal über einen Bus schickst ob du die Bearbeitung im Kanal oder im Bus machst. Sofern beide Bearbeitungen vollkommen identisch sein können (sprich gleicher Filter, gleicher Kompressor).

Was spricht technisch, musikalisch für den einen bzw. für den anderen Weg?
Rein technisch muss es überhaupt einmal die Wahlmöglich geben. ansonsten gibt es so viele kleine entscheidungsprozesse die bestimmen, welchen Weg man letztendlich genau verfolgt, das ist pauschal nur insofern zu beantworten, dass es am Ende gut klingen soll.

Das Mischpult hat ja Busse. Welchen Sinn verfolgte Behringer, dass man bspw. CH1. auf verschiedene Busse routen kann, ABER nur einmal den Fader, bzw. gain hierfür einstellen kann?
Busse im DDX32 sind Subgruppen. Sie funktionieren genau so wie die an einem analogen Pult. Das muss man aus der Geschichte sehen. Zu der Zeit, als das Pult konzipiert wurde, war es gängige Praxis, die Eingänge von Multitrack-Recorder, Adat, Fostex usw., an den Subgruppen-Ausgängen eines Pultes zu betreiben, da man oft kein flexibles Steckfeld, gerade im digitalen Bereich, hatte. Bei Aufnahmen mit einem Mikro wollte man schnell das Eingangsignal auf die gewünschte Spur des Recorders legen können. Da waren Subgruppen das geeignete mittel. Subgruppen machen auch in anderen Fällen Sinn. z.B. wenn man wie oben besprochen das zusammengemischte Signal gemeinsam bearbeiten will.

Bspw. möchte ich CH1 auf Bus1 und Bus5 legen, aber mit unterschiedlichem Verhältnis, da ich unterschiedliche Summen auf Bus1 und Bus5 haben möchte (also wenn ich jetzt noch weitere CH darauf route)
Dafür hat das Pult vier Auxwege. Da kannst Du( wenn sie auf pre geschaltet sind) komplet unabhänge Mixes machen. Subgruppen bzw. hier Busse sind nich geeignet.

Aber auch generell AUX wege, send-effekte.... wie garantiere ich dass ich am ende mit gleichen laufzeiten die digitalen, aber auch physikalischen outputs mit dem entsprechenden siginal verlasse. Garantiert mir das das mischpult selber, oder muss ich da selber Hand anlegen, oder ist es normal, dass ich auf den aux-wegen andere outs habe wie auf den master-outs (auf die laufzeit bezogen)

Latenzen aufgrund von internem Routing usw. wird das Pult nicht abfangen. Da ist aber nur dann ein Problem wenn du z.B. Kanal 1 auf Bus 1 und dann wieder zurück auf Kanal 17 sendest und dann Kanal 1 und 17 gleichzeitig auf die Stereo-Summe mixt. Wenn ein Eingangs-Signal aber genau einen Pfad durchs Pult geht und keine Abzweigungen wieder irgendwann zusammenlaufen so sollten diese Latenzen kein Problem darstellen. Bei Inear und generell Monitoring können Latenzen von mehreren Millisekunden ein Problem darstellen. Das Pult hat 1,6 ms Latenz von Ein- zu Ausgang bei 48 kHz. Damit liegt es noch im Rahmen. wie viel da bei einem internen Loop dazukommt? Keine Ahnung. Software zum Messen kenn ich keine. Solange es nicht in den Ohren flangt wie Sau, ist mir das eigentlich egal. Und das habe ich bisher nur durch gezieltes Provozieren erreicht.

Welche weitere Analysesoftware würdet ihr empfehlen?
http://www.rationalacoustics.de/Home.html
http://systune.afmg.eu/
nur um zwei Exemplare zu nennen.

Wie könnte ich den Delay in Griff bekommen, bzw. ist er sogar vertretbar?
Über ein Audiointerface zu gehen kann zu deutlich mehr Latenzen als die obigen 1.6 ms führen. Es sit zwar so, dass man heute Anlagen durchaus mit fixen Delays betreibt. da sind dann auch 10-20ms. nichts außergewöhnliches. Nur ob das mit einem Rechner so gut ist. Es gibt zwar Systeme wie SAC die mit Audio-Hardware mit niedriger Latenz (RME Raydat z.B) das Mixen am PC möglich machen. Aber das geht eben nicht mit jeder Wald und Wiesen Hardware. Da ist schon etwas an Hardware und Erfahrung notwendig um sowas stabil und performant ans Laufen zu bringen.

Ein Fallbeispiel, wie ich eine möglichst flexibel das Mischpult einstellen würde
Sowas kann man nur im Bereich des Möglichen machen, wenn das POult das nicht hergibt, muss man entweder ein anderes Pult nehmen oder sein Herangehensweise ans Pult anpassen. Sorry. Bei den 'Hierarchiestufen' die dir da vorschweben können sich für meinen Geschmack zu viele Fehlkonfigurationen einschleichen. Bei 16 Kanäle ist das alles sowieso fraglich, da so wenige an sich leicht überblickt werden können. Überlege dir auch ob nicht eine Channel Group die bessere Variante wäre. Die Hierarchiestufen können vom Delay, wie oben gesagt nur dann ein Problem werden, wenn du Signale auch gleich direkt auf den Mainmix schickst oder du die Submixes in Inear-Monitorenn verwenden willst.

Ein weiteres Problem ist eine zusätzliche Aufnahme.
aufnehmen würde ich die unbearbeiteten Eingangssignale, wenns geht, alles andere ist nicht so sinnvoll.


Das mischpult hat ja unterschiedliche line-pegel..... muss ich aufpassen, wenn ich nen main-out auf ein line-in eines anderen pults lege, oder reicht es aus den fader ziemlich weit unten zu lassen, oder kann auch schon das gefährlich sein?
Bei Pegeln muss man generell aufpassen. Nicht zu laut und nicht zu leise ist die Devise.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Hey Mfk danke schon mal für die super Antworten.
Es wäre toll, wenn noch jemand meine im Eingangsbeitrag geschriebene andere Fragen beantworten könnte.


Ansonsten hätte ich ergänzend noch folgende Fragen.


Phantomspeisung:
Wird diese auch auf die Line-Inputs gegeben, oder sind die definitiv frei von der Phantomspeisung.
Kann ich alles anschließen, auch wenn Phantomspeisung angeschalten ist.
Beispielsweise ein Keyboard mit balanced out
Falls nicht, blockt eine DI-Box das sicher ab?
Was sind Indikatoren dafür, dass etwas an eine Quelle anschließen darf, die Phantomspeisung liefert?
Wann wirds kritisch, wann gehts definitiv kaputt?


Computer als Mixer:
Ein Pc wird definitiv Latenzen verursachen
Das ganze wird fürs Monitoring ungeignet sein, oder?
Wie sieht es aber mit dem Hauptmix aus?, Wieviel ms an Delay sind da ok?

Würde für den Hauptmix mir die Endsumme via Focusrite -> USB -> Cubase in einen 32-Band-EQ und Multibandkompressor geben
das ganze zruück aufs focusrite und dann über den output vom focusrite auf den Verstärker

taugt des was?

würde ich des ganze noch erheblich verschnellern können (auf die delay-zeit gerechnet) wenn ich es über einen Linux-Echtzeitkernel + Jack machen würde?
Dann das ganze in Ardour oder Rosegarden und da in einen Multibandcomp + eq (wobei ich mich bei diesen tools jetzt nicht so auskenne, was die qualität angeht)
?


Allgemein hier an der Stelle nochmal ne Frage zum Mixing

In einem Digitalpult sollte es jedoch egal sein wenn du genau ein Signal über einen Bus schickst ob du die Bearbeitung im Kanal oder im Bus machst. Sofern beide Bearbeitungen vollkommen identisch sein können (sprich gleicher Filter, gleicher Kompressor).

Gemeint ist nicht ein signal, sondern eben die summe an signal.
Und dazu die Frage ob es identisch ist, ob ich die Einzelsignale bearbeite und dann aufsummiere, oder ob ich nur ein einziges mal das aufsummierte Singal einmalig ändere
(bezogen auf eq, comp und etc)


Software

Ich habe an der Stelle nicht sinnfrei voxengo (http://www.voxengo.com/product/span/) gennannt^^
Es ist nämlich freie Ware^^.

Worin ist bspw. Smaart besser als Voxengo Span. Worin begründet sich außerdem dann noch der hohe Preis?


Neben Span habe ich noch folgende Mess-Programme gefunden

http://www.roomeqwizard.com/
https://apps.ubuntu.com/cat/applications/precise/jaaa/

gefunden.
Kennt die Programme jemand und hat Erfahrungen damit?
Wie sind die Programme im Vergleich zueinander zu bewerteten?



Software zum Messen kenn ich keine

Jack (io) delay (http://manpages.ubuntu.com/manpages/precise/man1/jack_iodelay.1.html)
Hat jemand damit erfahrungen gemacht?
Bzw. kennt jemand noch eine andere "delay-mess"-Software?


Ansonsten hätte ich noch die Fragen:

Wie berechne ich den Zielwert an db, wenn ich X channel merge?



Abschließend gehe ich mal aus dem diskreten Bereich heraus und komme noch zu was kontinuirlichem

Das mischpult hat ja unterschiedliche line-pegel..... muss ich aufpassen, wenn ich nen main-out auf ein line-in eines anderen pults lege, oder reicht es aus den fader ziemlich weit unten zu lassen, oder kann auch schon das gefährlich sein?
Kann ich das Mischpult irgendwie mit meiner HeimStereoanlage (sind Cinch-eingänge) verbinden bspw. um die monitorbeschallung weiter auszubauen.... muss ich da auf was konkretes achten? Oder ist auch das ziemlich gefährlich, also für die Heimstereoanlage?^^



Hoffe die Fragen kann mir jemand beantworten


lg knotenpunkt
 
Wird diese auch auf die Line-Inputs gegeben, oder sind die definitiv frei von der Phantomspeisung.
Nein, Phantomspeisung geht nur auf die XLR-Eingänge
Kann ich alles anschließen, auch wenn Phantomspeisung angeschalten ist.
Nein. Manche Geräte, auch wenn sie symmetrische Ausgänge haben wollen keine Phantomspeisung, beispielsweise einuige Mackie-Kleinmixer, ich hab selbst einen 20 Jahre alten 1202er und der mag das gar nicht. Unsymmetrisches Zeug darf man auch nicht an den XLR-Buchsen anschließen. Auch bei Bändchen-Mikrofonen kann man die ganz schnell ins Jenseits schicken, wenn für diese nicht ausdrücklich Phantomspeisung erlaubt ist.
Falls nicht, blockt eine DI-Box das sicher ab?
Ja, und aktive DI Boxen kann man meist auch gleich mit der Phantomspeisung mit Strom versorgen.
Was sind Indikatoren dafür, dass etwas an eine Quelle anschließen darf, die Phantomspeisung liefert?
In erster Linie das Handbuch. Im Zweifelsfall eher ohne phantomspeisung betreiben.
Wann wirds kritisch, wann gehts definitiv kaputt?
Sobald du im Zweifel bist wirds kritisch, ab dem Anschluß des zweifelhaften Geräts kann beides, das Gerät und das Pult Schaden nehmen, der bis zum Totalschaden gehen kann. Pauschal kann man nicht genaueres sagen, da hilft nur äußerste Vorsicht vor allem wenn man keine oder wenig Erfahrung hat.

Ein Pc wird definitiv Latenzen verursachen
Das ganze wird fürs Monitoring ungeignet sein, oder?
Das kommt auf die Latenzen an, ich sag mal für konventionelles Monitoring mit Bodenboxen (Wedges) sollten bis zu 3 ms kein Problem darstellen. Das kann für Inear, gerade bei SängeInnen schon ein Problem sein. Ab 8-10ms ist sowieso Schluß beim Moniroring, da kann man kein vernünftiges Timing erreichen.
Wie sieht es aber mit dem Hauptmix aus?, Wieviel ms an Delay sind da ok?
Das hängt wieder von der Location ab. je kleiner desto weniger kannst Du am Hauptmix vertragen. Manch einer verzögert die FOH-Anlage auch schon bei relativ kleinen Geschichten gegenüber dem lautesten Signal auf der Bühne, meist das Drumset. Man misst die Tiefe von der Boxenfront aus zum Drumset und verwendet das als Delay für die PA (3 ms pro Meter), eventuell nich ein paar ms dazu. Mehr als das würde dann zu start verzögern was in schlechtem Sound resultiert.

Würde für den Hauptmix mir die Endsumme via Focusrite -> USB -> Cubase in einen 32-Band-EQ und Multibandkompressor geben
das ganze zruück aufs focusrite und dann über den output vom focusrite auf den Verstärker

taugt des was?
Ich sag mal das wird dann wahrscheinlich schon zu viel Latenz sein. Zumal die Geräte darauf schließen lassen dass du das nicht für 10.000er Hallen verwenden willst;-)
würde ich des ganze noch erheblich verschnellern können (auf die delay-zeit gerechnet) wenn ich es über einen Linux-Echtzeitkernel + Jack machen würde?
Dann das ganze in Ardour oder Rosegarden und da in einen Multibandcomp + eq (wobei ich mich bei diesen tools jetzt nicht so auskenne, was die qualität angeht)
?
Das weiss ich nicht, ich habe nur gehört dass viele die Mit SAC arbeiten die RaydDAT von RME einsetzen da die viel IO anbietet und auch von der Latenz her exzellent sein soll (min 0,7ms). was andere Hardware kann weiss ich nicht. Moderne Digitalpulte liegen bei 0,8-2,4 ms. Bevor ich mir so eine SAC bastel nehm ich lieber einen der digitalen Rackmixer, .....Moment, achja das hab ich schopn getan;-)

Gemeint ist nicht ein signal, sondern eben die summe an signal.
Und dazu die Frage ob es identisch ist, ob ich die Einzelsignale bearbeite und dann aufsummiere, oder ob ich nur ein einziges mal das aufsummierte Singal einmalig ändere
(bezogen auf eq, comp und etc)

Mir persönlich ist das zu theoretisch, ich mach den Job jetzt schon einige Zeit und bin über so eien Fragestellung noch nicht gestoßen. Ich sag mal so, es wird ein einen Unterschied geben wenn du in den Kanälen bzw. im Bus die exakt selben Einstellungen verwendest. Grund: Durch das Summieren wird der Pegel ansteigen und daher die Dynamics anders arbeiten, da der Threshold früher erreicht wird. Aber wie gesagt, das ist reine Theorie, praktisch haben für mich solche Überlegungen keinen Nutzen.

Worin ist bspw. Smaart besser als Voxengo Span. Worin begründet sich außerdem dann noch der hohe Preis?
Ich kenne keines der Programme wirklich, ich weiss nur dass SMAART ein absolutes Profi-Tool ist, der Hersteller sogar regelmäßig Workshops anbietet um den geneigten Benutzern die ganzen Funktionen und Möglichkeiten näher zu bringen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Danke Mfk für deine Antworten.

Hab das Teil jetzt mal durchgemessen, bei nem Bus-routing und dann zurück auf nen Channelinput hab ich einen Delay-Zuwachs von 0,1 msec (entsprechen ja ca. 3,3 cm Weg)
Bei nem dazuschalten von nem ChannelEq und "grobe" Parametereinstellungen bekommt das ganze nen Zeitzuwachs von ca. 0,5 msec.

Ich denke mit diesen Zeiten kann ich sogar aus den "Hierachiestufen" mischen^^

Weißt du wie es zu erklären ist, dass wenn ich ganz normal vorne bspw. an nem line-eingang das Signal hineinpushe es ne Laufzeit von ca. 1,6 msec hat, aber bei nem routing über den "fast" gleichen Signalweg nur einen Zuwachs von 0,1 msec.... macht das preAmp und AD-Wandlung soviel aus? (ist ein bisschen komisch finde ich....)


So jetzt hätte ich noch ein paar weitere Fragen, diesmal aber auschließlich zum Herrn Bell bzw. zu nem 10tel von Herrn Bell^^
Teilweise enthält das auch einfach ne Aussage/Meinung von mir, die ihr gerne verifizieren bzw. falsifizieren dürft^^ (bin mir da selbst extremst unsicher)

Was ich komisch finde, ist dass auf dem Main-Pegelanzeige die db nicht mit dem eines einzigen Kanalszugs übereinstimmt, wenn nur dieser Kanalzug ein Signal an Main liefert (ddx 1632)
Warum ist das so?, Kann das damit zusammenhängen, dass das DDX eine anders genormte Ausgangsspannung hat und man hier schon in der Anzeige konvertiert hat?

Problem bei der Sache wäre, dass ich in der Hauptsumme ja dann mehr Pegel haben könnte, aber in bspw. Bus-Summen nur den maximal 0db auf was weis ich genormten logarithmus haben kann?
Das finde ich auch irgendwie seltsam.



Angenommen der interne Referenzpegel ist bei faktischen 0,775V definiert. Und es wird behauptet, dass der Ausgang +4db hat -> Ausgangsspannung bei Pegel x : y=0,774 * 10^ ((x+4db) / 20)
stimmt das so? Und das ergebnis y entspricht dann dem neuen Referenzwert V-Strich und ist dann bei der Verstärkeranlage wieder mit 0db definiert, oder?
Und eventuell beim DDX bei der Main-pegelanzeige auch?
Oder spielen da auch noch andere Effekte mit rein?

Jetzt habe ich ja beim DDX auch noch digitale Abtastwerte statt Spannungen, wie sieht das ganze hier dann aus.
Falls der Zahlenbereich beschränkt ist, ist bei 0db schluss, oder?
Wenn ich jetzt aber bspw. statt int Zahlen 32 bit float-Zahlen nehme (abzählbar unendlich), dann kann ich theorethisch ja über 0db drüber gehen, wie sehen diese db-Werte dann kodiert aus und wie spiegelt es sich mit der Maschinenungenauigkeit dann im höheren bereich wieder?


Das ist wohl eine mehr theoretische Frage. An sich, wenn man zwei idente Signale zusammen mischt erhöht sich der Pegel um 3 dB
Bist du dir mit den 3db sicher?

2idente Signale unterscheiden sich ja nicht, also würde ich sagen 6db, oder?

Bei inkohärenten Signalen kommt man auf 3db.


Wie ist der Pegel definiert? Amplitudenspitze, Effektivwert (liegt ja unter der Amplitudenspitze), oder wie?

Und dann habe ich ja net nur eine Frequenz, sondern ja ganz viele.... Ist der Pegel, dann die Amplitude der höchsten Frequenz?

angenommen ich mische eine SinusFrequenz von 1kHz und eine bei 5kHz (sind ja in Collobaration zwei inkohoränte Signale oder?), wie komme ich da auf x+3db Zuwachs?
Ich würde sagen, da komme ich auf max(Amplitude(1kHz), Amplitude(5kHz))=x, ohne +3db, oder?

Oder vlt. doch nicht, weil auch zwei verschiedene Signal interferieren?, aber wie kommt man dann trotzdem auf die 3db? (villeicht weil man hier maximal die Amplitudenmitten, der Einzelfrequenzen addiert?)


Wie sieht es beim Fader aus, wenn ich den runterziehe um, sagen wir mal 20db, dann würde sich der pegel, der bei 0steht auf -20db veringeren, oder?
Ist das auch so wenn der Pegelbei -15 db steht, dass dieser sich dann auf -35db verringern würde, oder muss ich das anders rechnen?

Wie addiere ich allgemein zwei Pegel bzw. Signale, wenn ich die dazugehörigen Frequenzspektren kenne?


Wie muss ich mir das allgemein vorstellen, ich habe ganz viele Frequenzen in Form von Sinus-Schwingungen. Die Überlagerung dieser Sinus-Schwingungen ergibt dann bspw. die Musik.


FTT: wenn ich ne fast fourier-transformation dann darauf anwende, bekomme ich die Sinus-Signale zurück und kann mir die Amplituden bspw. in einem Histogramm anzeigen lassen.

Stimmt das, wenn ich vorher ne Sägezahnschwinungen statt Sinusschwingungen hatte, dass ich diese via ftt dann unbewusst zu Sinusschwingungen verarbeite?



Jetzt kann es ja sein, dass durch die Interferenz die GesamtSchwingung und davon die Amplitude einen höheren Ausschlag hat, wie die deomponierten EinzelFrequenzen
stimmt das?

Falls ja, was ist dann mein maximal Pegel, das zusammengesetzte Signal (davon die Amplitude), oder max(Amplitude(von Einzelsignalen))
???




Noch zuletzt eine DDx 1632 Frage.

wenn ich die Busse verwende, dann kann ich diese ja nur stereo verwenden, aber panen!

Wie funktioniert das mit dem panen, ich kann bspw. -30 (ganz nach links, also nur bus1) | 0 (stereo, also bus1+bus2) | +30 (ganz nach rechts, also nur bus2) einstellen
Wenn ich bei 0 bleibe, nehme ich mal an bekommt bus1 und bus 2 jeweils den gleichen Pegel wie vom Quellchannel, stimmt das so?

Was passiert wenn ich -30db nach links panne (maximum nach links), dann bekommt bus2 0 pegel und was bekommt bus 1?
Und wie bekomme ich es hin, dass Bus1 = Pegel von Quellchannel und Bus2 = 0 Pegel bekommt ?
Läuft das mit dem Main-Mix Pan genauso ab?





Allgemein nochmal die Frage, ich habe ja Line-Signale, Mic-Singale, Output-Signale, HochVolSignale (VerstärkerSignale)
Sind die alle auf 0,775 (=0db) geiecht, oder wie sieht des da aus??


hoffe dass mir jemand diese mathematischen Fragen beantworten kann
wäre echt super von euch


lg knotenpunkt
 
Bist du dir mit den 3db sicher?

2idente Signale unterscheiden sich ja nicht, also würde ich sagen 6db, oder?
Jain. Ich sag nur Leistung vs. Spannung.
Beim Rest bin ich raus. Mir hat das leider zu wenig mit dem eigentlichen Grund ein Mischpult zu benutzen zu tun. Ich möchte damit Musik mit einem möglichst guten Sound übertragen und nicht den ganzen theoretischen Kram bis ins letzte Eck ausloten. Damit bin ich die letzten 35 Jahre ganz gut über die Runden gekommen;-)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ok^^,

Naja es dürfen auch ruhig noch ein paar andere Leute antworten^^
Was zeigt der peakmeter an leistung oder spannung?

vergessen habe ich noch zusätzlich zu Fragen:

Warum pegelt man überhaupt ein.
Warum kann man nicht einfach ziemlich weit unter der 0db Grenze bleiben
Ändert sich dadurch die Qualität der Musik, Feedbackgefahr etc.... vlt. kannst du mir ja das noch beantworten Mfk^



lg knotenpunkt
 
Also jetzt stell ich doch nochmal ne Frage

Es geht um folgendes Fallbeispiel:

Es gibt einen mehrstimmigen Chor und ne Band dazu:

bspw. würde ich gerne jede Stimme (kann jeweils von mehren mics abgenommen werden) auf einen eigenen Bus (NICHT ZWEI BUSSE) schicken.
also route ich bspw. Kanal 1 auf Bus 1-2 und panne nach links Kanal zwei auch auf Bus1-2 und auch nach links gepannt..... usw.

(Erstes Problem hier ist, wenn ich nach links panne, dass sich dann der Pegel um X vergrößert und dieses X würde ich gerne wissen, dass ich es wieder verkleinern kann und mich würde auch interessieren warum X überhaupt >0 ist und nicht =0.... ich will keine vergrößerung die ich wieder verkleinern muss..... ist aber leider so, aber WARUM?)

Naja nacher hab ich für 4 Stimmen 4 Busse verwendet und dann noch instrumental bus 5

Hier würde es sogar sinn machen Bus 5-6 nicht gepannt zu betreiben, dass ich das panning aus Hierachiestufe 0 beibehalten kann, also dass ich die Instrumente pannen kann.

Naja nun würde ich alle 8 Busse bspw. zurück auf den Input 25-32 legen und hier dann schön auf die jweilige Stimme Dynamics anwenden und etc., ich kann hier die Stimmen dann später auch schön muten und soweiter
Die korrespondierenden Channel 29 und 30 (Bus 5-6) würde ich dann pannen, also CH29 auf links und CH30 auf rechts...um das Instrumentalpanning zu übernehmen.


Soweit so gut

Jetzt habe ich noch ungeübtere Sänger und geübtere Sänger, diese würde ich dann in Hirachiestufe 0 (also die direkten Kanäle) noch entsprechend gruppieren.
So kann ich diese (ungeübteren Sänger und geübteren) getrennt voneinander muten und faden.


Also ich kann nun im Endeffekt die Chorstimmen (die 4-stück) getrennt voneinander in sich auf einmal muten oder in der lautstärke ändern
Und das gleiche kann ich dank virtuellem gruppieren auch mit den ungeübteren und geübteren Leuten machen.
(also habe ich eine vertikale und horizontale gewaltenteilung, falls ihr versteht was ich meine^^..... schön wärs wenn noch ein paar Dimensionen mehr gehen würden)



Was haltet ihr von diesem Ansatz..... ist der problematisch, würdet ihrs anders machen oder was muss ich dabei alles beachten.
Wie gesagt mit dem impliziten Gain beim pannen von bspw. BUS 1-2 auf links bin ich nicht wirklich ganz zufrieden bzw. ich weiß nicht was das soll


wenn ich die Busse verwende, dann kann ich diese ja nur stereo verwenden, aber panen!

Wie funktioniert das mit dem panen, ich kann bspw. -30 (ganz nach links, also nur bus1) | 0 (stereo, also bus1+bus2) | +30 (ganz nach rechts, also nur bus2) einstellen
Wenn ich bei 0 bleibe, nehme ich mal an bekommt bus1 und bus 2 jeweils den gleichen Pegel wie vom Quellchannel, stimmt das so?

Was passiert wenn ich -30db nach links panne (maximum nach links), dann bekommt bus2 0 pegel und was bekommt bus 1?
Und wie bekomme ich es hin, dass Bus1 = Pegel von Quellchannel und Bus2 = 0 Pegel bekommt ?
Läuft das mit dem Main-Mix Pan genauso ab?

l


Noch kurz ne andere Frage

wenn ich ein virtuelles Mischpult am Computer programmiere und dieses virtuelle Gruppieren nachstellen möchte, wie ist da die mathematische Funktion untereinander

Also bspw. habe ich 4 Kanäle gruppieret, alle von -80db bis 12db Range also von 0% bis 100%

Alle sind unterschiedlich eingestellt.

Wie bekomme ich daraus einen 5ten Fader einen sogenannten Representanten errechnnet?
Und wie ändern sich die anderen Fader wenn ich an dem representaten ziehe?


Oder ich habe gar keinen repräsentanten (so ists beim ddx32-16)

und ich bewege einen Fader von diesen 4en, wie haben sich da die anderen zu bewegen?


Würde mich über eure Antworten freuen



lg knotenpunkt
 
Erstes Problem hier ist, wenn ich nach links panne, dass sich dann der Pegel um X vergrößert und dieses X würde ich gerne wissen, dass ich es wieder verkleinern kann und mich würde auch interessieren warum X überhaupt >0 ist und nicht =0.... ich will keine vergrößerung die ich wieder verkleinern muss..... ist aber leider so, aber WARUM?)
Ein Marktbegleiter hat dieses Verhalten mal mit "Constant Loudness" bezeichnet. Es geht darum dass ich ein Signal dynamisch im Stereobild verschieben kann ohne dass sich dessen Pegelverhältnis zum Rest verändert. Es bleibt also quasi immer gleich laut. Wenn das nicht gemacht wird dann hätte das Signal in der Mitte den doppelten Pegel da es ja gleichzeitig auf Links und Rechts ausgegeben wird. Wie viel das diese Pegelanhebung ist kann man schätzen, wenn es nicht im Handbuch steht.
Aber da sind wir wieder bei dem obigen Thema. Wenn kümmerts. Wenn ich das, was du vorhast, machen würde, würde ich am Ende die Lautstärke der Stimmen und der Instrumente in ein gutes Verhältnis bringen, ich mach also meinen Job als Tontechniker. Dazu brauche ich keine Theorie mehr sonder nur meine Ohren. Alles andere ist Papperlapapp. Die Pegel interessieren mich nur wenn ich irgendwo zu heiss oder zu kalt bin, sprich es zerrt oder ist nicht da.

Das Wort "Repräsentant" habe ich im Zusammenhang mit Tontechnik noch nie gehört. Was meinst du damit genau?
 
Jain. Ich sag nur Leistung vs. Spannung.
Beim Rest bin ich raus. Mir hat das leider zu wenig mit dem eigentlichen Grund ein Mischpult zu benutzen zu tun. Ich möchte damit Musik mit einem möglichst guten Sound übertragen und nicht den ganzen theoretischen Kram bis ins letzte Eck ausloten. Damit bin ich die letzten 35 Jahre ganz gut über die Runden gekommen;-)
... Nein 6dB mehr... addiere ich zwei identische Signale, addiere ich "Spannungsverläufe" bzw. "Amplituden"... ich erhalte doppelte Amplitude, also 4-fache Leistung und damit 6dB mehr
Addiere ich zwei verschiede Signale erhalte ich im Mittel ca. 3dB mehr, wenn diese unkorelliert sind (vereinfacht gesagt: nix miteinander zu tun haben). In der Realität liegt man dann zwischen 3 und 6dB je nach "Ähnlichkeit" der Signale...

* "Ähnlichkeit" will an dieser Stelle als der zeitliche Mittelwert der Multiplikation des einen mit dem anderen Signal verstanden werden... Warum dem so ist kann ich ich gern erklären, endet aber in Mathematik und bei Skalarprodukten und Projektion von Vektoren :D
--- Beiträge wurden zusammengefasst ---
Ok^^,

Naja es dürfen auch ruhig noch ein paar andere Leute antworten^^
Was zeigt der peakmeter an leistung oder spannung?

vergessen habe ich noch zusätzlich zu Fragen:

Warum pegelt man überhaupt ein.
Warum kann man nicht einfach ziemlich weit unter der 0db Grenze bleiben
Ändert sich dadurch die Qualität der Musik, Feedbackgefahr etc.... vlt. kannst du mir ja das noch beantworten Mfk^
lg knotenpunkt
Man pegelt ein um maximalen Rauschabstand zu erhalten....

Man kann weit unter 0dB bleiben und im Live-Fall ist in den meisten Fällen der Bereich um -20dBfs noch durchaus brauchbarer Arbeitsbereich....

Qualität ändert sich: Stichworte: Quantisierungsverzerrung (in der Literatur meist als QuantisierungsRAUSCHEN bezeichnet, was eigentlich falsch ist)


(Erstes Problem hier ist, wenn ich nach links panne, dass sich dann der Pegel um X vergrößert und dieses X würde ich gerne wissen, dass ich es wieder verkleinern kann und mich würde auch interessieren warum X überhaupt >0 ist und nicht =0.... ich will keine vergrößerung die ich wieder verkleinern muss..... ist aber leider so, aber WARUM?)

bei unkompensierten Pulten wirds nicht lauter. Wird kompensiert sinds 6dB
Das kompensiert den Lautstärkeverlust durch panning, eigentlich nicht unpfiffig das so zu machen....


... den restlichen Ideen zu folgen ist mir gerade zu anstrengend....


... was mich gerade doch ärgert, weil du deine fragen teils recht "mathematisch" stellst, und ich sie daher umso lieber beantworten würde...
können wir das vielleicht nochmal sortieren, und du stellst die fragen nochmal nacheinander mit Zwischenantworten?! So erschlägt das irgendwie....


Ich versuch mal den Gruppenfader....

Zunächst: Du hast Eingangssignale x1....xN (also N Stück). Diese durchlaufen Fader. Das sind nichts anderes als Multiplikatoren. Deine Ausgangssignale setzen sich dann als yn=an*xn zusammen (wobei * ne Multiplikation ist) der Faktor mit dem multipliziert wird wird zwar in der Anwendung in "dB" angegeben aber ist nichts anderes als ne Zahl mit der multipliziert wird. dabei entspricht 0dB der "1" und -oodB der "0"... Berechnet über: an in dB = 20 lg(an)

Wenn du nun Fader gruppierst und über einen Fader steuerst, dann fungiert dieser fader als zusätzlicher Multiplikator. die Faktoren an werden dann mittels cn= an*bn modifiziert.
Stells dir so vor, dass das Signal einfach zwei Fader durchläuft und der Gruppenfader quasi ein "N-facher-Fader" ist.

Das Ausgangssignal ergibt sich dann zu: yn= cn*xn=an*bn*xn
Wobei an die Faderstellung im Kanal und bn die Faderstellung des Gruppenfaders repräsentiert.
Entsprechend in dB dann wieder mit 20lg(an) bzw. 20lg(bn) als Skalierung an den beiden Fadern....


Irgendwie verständlich?
 
Zuletzt bearbeitet:
... Nein 6dB mehr... addiere ich zwei identische Signale, addiere ich "Spannungsverläufe" bzw. "Amplituden"... ich erhalte doppelte Amplitude, also 4-fache Leistung und damit 6dB mehr
Addiere ich zwei verschiede Signale erhalte ich im Mittel ca. 3dB mehr, wenn diese unkorelliert sind (vereinfacht gesagt: nix miteinander zu tun haben). In der Realität liegt man dann zwischen 3 und 6dB je nach "Ähnlichkeit" der Signale...

* "Ähnlichkeit" will an dieser Stelle als der zeitliche Mittelwert der Multiplikation des einen mit dem anderen Signal verstanden werden... Warum dem so ist kann ich ich gern erklären, endet aber in Mathematik und bei Skalarprodukten und Projektion von Vektoren :D
--- Beiträge wurden zusammengefasst ---

Man pegelt ein um maximalen Rauschabstand zu erhalten....

Man kann weit unter 0dB bleiben und im Live-Fall ist in den meisten Fällen der Bereich um -20dBfs noch durchaus brauchbarer Arbeitsbereich....

Qualität ändert sich: Stichworte: Quantisierungsverzerrung (in der Literatur meist als QuantisierungsRAUSCHEN bezeichnet, was eigentlich falsch ist)
1) da stimme ich zu
2)Ich wäre gerne an dem mathematischen Ansatz interessiert.
Mich würde auch noch interessieren wie man aus dem Frequenzspektrum (fft) die Dezibel bekommt, wie ich das ausrechnen muss, Mittelwert? Effektivwert, Amplitudenspitze der höchsten Histogrammlinie etc....???
3)Kann man damit auch die Feedbackgefahr negativ beeinflussen, indem ich das ganze höher oder niedriger gegained betreibe, indem ich so "abtastratenbedingt" (im digitalen sinne) oder schlecht bzw. gut konditionierungsbedingt (im mathematischen analogen sinne) Rauschen hinzufüge?




bei unkompensierten Pulten wirds nicht lauter. Wird kompensiert sinds 6dB
Das kompensiert den Lautstärkeverlust durch panning, eigentlich nicht unpfiffig das so zu machen....
Dem stmme ich nicht ganz zu:

Als Quellen hab ich des: (1) http://www.sengpielaudio.com/RechnerSpannungLeistung.htm

und das hier: (2) http://www.sengpielaudio.com/RegelunterschiedeBeiPanpots.pdf

Mir hat jemand erklärt, dass wenn ich den signal physikalisch ausgebe sich nicht die spannungen addieren, sondern die Leistung (aber warum?)
Anders wäre es wenn ichs im pult intern summiere, dann hätte ich 2* Spannung und damit 4* Leistung

und extern woh nurl:
2 * Leistung => 3db

so ganz hab ich das aber nicht verstanden, warum ist das so?


Aus Quelle 2 und dem Bild Panoramaregiestellung entnehme ich, dass das Signal bei C künstlich immer um 3db veringert wird und nur bei L oder R stellung das Originalsignal weitergegeben wird..... ist das wirklich immer so, oder kann es auch mal sein bei C original und bei L und R 3db künstlich vergrößert wird?


Ich versuch mal den Gruppenfader....

Zunächst: Du hast Eingangssignale x1....xN (also N Stück). Diese durchlaufen Fader. Das sind nichts anderes als Multiplikatoren. Deine Ausgangssignale setzen sich dann als yn=an*xn zusammen (wobei * ne Multiplikation ist) der Faktor mit dem multipliziert wird wird zwar in der Anwendung in "dB" angegeben aber ist nichts anderes als ne Zahl mit der multipliziert wird. dabei entspricht 0dB der "1" und -oodB der "0"... Berechnet über: an in dB = 20 lg(an)

Wenn du nun Fader gruppierst und über einen Fader steuerst, dann fungiert dieser fader als zusätzlicher Multiplikator. die Faktoren an werden dann mittels cn= an*bn modifiziert.
Stells dir so vor, dass das Signal einfach zwei Fader durchläuft und der Gruppenfader quasi ein "N-facher-Fader" ist.

Das Ausgangssignal ergibt sich dann zu: yn= cn*xn=an*bn*xn
Wobei an die Faderstellung im Kanal und bn die Faderstellung des Gruppenfaders repräsentiert.
Entsprechend in dB dann wieder mit 20lg(an) bzw. 20lg(bn) als Skalierung an den beiden Fadern....


Irgendwie verständlich?
Ja das hab ich so verstanden
Da db ja logarithmisch sind, kann ich eigentlich auch direkt den VCA-Fader additiv in die Rechnung einfließen lassen

sagen wir mal Fader A steht auf -6db und VCA (bei 0db definiert) (für A) steht auf 7db, dann hab ich 1db im Resultat.
Interessant sind die Grenzfälle -infinity db => deine multiplikation mit 0 => resultat kein signal bzw. -infinity db

Was passiert in der Gegenrichtung alle Fader sind nach oben beschränkt bei sagen wir mal 12db.... was passiert dann bei 5db A und 8db VCA -> nicht erlaubt oder?



lg knotenpunkt

PS: also wenns dir spass macht, dann darfste auch gerne noch meine anderen Fragen beantworten^^
 
Mich würde auch noch interessieren wie man aus dem Frequenzspektrum (fft) die Dezibel bekommt, wie ich das ausrechnen muss, Mittelwert? Effektivwert, Amplitudenspitze der höchsten Histogrammlinie etc....???

Der Pegel ist:
20*log10(Effektivwerte/Bezugspunkt)

Mir hat jemand erklärt, dass wenn ich den signal physikalisch ausgebe sich nicht die spannungen addieren, sondern die Leistung (aber warum?)
Anders wäre es wenn ichs im pult intern summiere, dann hätte ich 2* Spannung und damit 4* Leistung

Stell dir zwei Taschenlampen und zwei Batterien vor. Wir nehmen an, dass die Helligkeit der Leuchten linear zur Leistung und der Widerstand konstant ist.
Nimmst du jetzt beide Lampen mit jeweils einer Batterie und leuchtest auf die selbe Fläche ergibt das mit dem Widerstand R der Leuchte und der Spannung U der Batterien folgende Leistung:
2*(U²)/R
Nimmst du jetzt aber nur eine Leuchte und schaltest beide Batterien in Reihe (2U) ergibt das:
(2*U)²/R = 4*U²/ R
Damit ist die eine Leuchte mit zwei Batterien in Reihe doppelt so hell, wie zwei Leuchten mit jeweils einer Batterie.

Genau das gleiche gilt bei Schallquellen, weil Schallquellen Leistungsquellen sind und keine Spannungsquellen. Audiotechnik (Endstufen, Mischpulte, etc.) sind aber Spannungsquellen. Daher die Diskrepanz.
Komplizierter wird die Sache aber in der Realität dadurch, dass zwei Schallquellen die doppelte Membranfläche haben und damit der Wirkungsgrad verdoppelt wird (+3dB). Das gilt allerdings nur bei kohärenten Schallquellen, die so nahe zusammen sitzen, dass sich keine Interferenz bildet.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Der Pegel ist:
20*log10(Effektivwerte/Bezugspunkt)
.

Meinst du jetzt den Pegel je Histogrammlinie oder den GesamtPegel?
Effektivwerte bezogen auf was?
Bezugspunkte bezogen auf was?

Stell dir zwei Taschenlampen und zwei Batterien vor. Wir nehmen an, dass die Helligkeit der Leuchten linear zur Leistung und der Widerstand konstant ist.
Nimmst du jetzt beide Lampen mit jeweils einer Batterie und leuchtest auf die selbe Fläche ergibt das mit dem Widerstand R der Leuchte und der Spannung U der Batterien folgende Leistung:
2*(U²)/R
Nimmst du jetzt aber nur eine Leuchte und schaltest beide Batterien in Reihe (2U) ergibt das:
(2*U)²/R = 4*U²/ R
Damit ist die eine Leuchte mit zwei Batterien in Reihe doppelt so hell, wie zwei Leuchten mit jeweils einer Batterie.

Genau das gleiche gilt bei Schallquellen, weil Schallquellen Leistungsquellen sind und keine Spannungsquellen. Audiotechnik (Endstufen, Mischpulte, etc.) sind aber Spannungsquellen. Daher die Diskrepanz.
Komplizierter wird die Sache aber in der Realität dadurch, dass zwei Schallquellen die doppelte Membranfläche haben und damit der Wirkungsgrad verdoppelt wird (+3dB). Das gilt allerdings nur bei kohärenten Schallquellen, die so nahe zusammen sitzen, dass sich keine Interferenz bildet.
Ok das leuchtet mir ein, also stimmt das mit den 3db das das Pult künstlich verrechnet und nicht deine vorigen 6 oder?

lg knotenpunkt
 
2)Ich wäre gerne an dem mathematischen Ansatz interessiert.

Ob das wohl mit Forumsmitteln geht? Ich denke nicht....
Ich versuch mal was....

Wir haben ein zeitdiskretes Signal (machen wir mal abgetastet). Wir haben zunächst zwei Möglichkeiten: Sagen wir, wir haben ein zeitlich beschränktes oder unbeschränktes Signal? Ich nehme mal exemplarisch den ersten Fall (näher an der Praxis: Musik fängt mal an und hört (hoffentlich) mal auf):

Wir definieren die "Energie" eine solchen Signals wie folgt:
8x9w.png

Das kann man sich so vorstellen, dass man eine Art "U^2/R" für jeden Zeitpunkt bildet, wobei man R als "Normierungsfaktor" einfach mal weglässt. Die Summe entspricht einer zeitlichen Integration... so kann man das auf die Elektrotechnik und umgesetzte Energie an nem Widerstand zurückführen, wenn man will.

Wir gehen jetzt hin und addieren zwei verschiedene Signale und wollen wissen: Wie groß ist denn die Energie des entstehenden Signals? Wird bilden:

8xa4.png


und suchen nun die Energie des Signals y und es ergibt sich:

8xb6.png


Der Ausdruck "Korr(x_1,x_2)" ist dann eine Art "Maß für die Ähnlichkeit" von x_1 und x_2. Das hängt relativ starkt mit den statistischen Begriffen "Korrellation" und "Kovarianz" zusammen, ist aber hier etwas anders definiert. Die Aussagen bleiben die gleichen.
Man kann mit statistischen Mitteln (also einfach mal Testsamples nehmen und rechnen) ganz gut zeigen, dass "Korr(x_1,x_2)" bei zwei Signalen die "nichts miteinander zu tun haben" tendenziell sehr klein wird. Man spricht jetzt von "unkorellierten Signalen", wenn eben 0 raus kommt. In diesem Falle (und nur in diesem Falle) ist dann die Gesamtenergie des Signals y: E_y = E_x1 + E_x2. Man darf also dann Energien addieren. Haben beide Signale die gleiche Energie, habe ich also doppelte Energie und damit 3dB mehr. Setze ich x1=x2, also addiere zwei GLEICHE Signale habe ich vierfache Energie (also +6dB). In der Praxis liegt man wie gesagt dann irgendwo, da Korr(x1,x2) üblicherweise nicht 0 ist, ja sogar negativ werden kann. Hier kann man auch schön sehen, was passiert wenn man phasenverschobene Sinusschwingungen addiert... aber das nur nebenbei.



Mich würde auch noch interessieren wie man aus dem Frequenzspektrum (fft) die Dezibel bekommt, wie ich das ausrechnen muss, Mittelwert? Effektivwert, Amplitudenspitze der höchsten Histogrammlinie etc....???

Moment. Jetzt nix durcheinander schmeißen. Die FFT ist einfach nur eine Transformation. Signal rein, Signal raus (nennt man in der Mathematik dann auch gern Operator, eine Funktion, die Funktionen verdaut und Funktionen ausspuckt.

Die FFT ist dabei ein spezieller Operator, der ein zeitlich beschränktes, zeitdiskretes Signal (Definitionsbereich aus den ganzen Zahlen, beschränkt) auf ein eben solches Signal abbildet. Das "Spektrum", so wie es die FFT ausspuckt ist ja zunächt ebenfalls ein Signal mit gleichem Definitionsbereich, aber eben in der Interpretation von "Frequenzstützpunkten" und nicht mehr von "Zeitpunkten"

Wenn du jetzt "dB" haben willst (was soll das heißen?) heißt das zunächst mal: Für jeden Frequenzstützpunkt wir statt X(k) hingegen "20*lg(|X(k)|)" ausgerechnet. Mehr passiert erstmal nicht! Das wars schon.
Hierbei soll "X" die FFT von "x" sein (also Kleinbuchstabe: Zeitsignal, Großbuchstabe Spektrum).

Was meinst du jetzt mit "Dezibel bekommen"?

3)Kann man damit auch die Feedbackgefahr negativ beeinflussen, indem ich das ganze höher oder niedriger gegained betreibe, indem ich so "abtastratenbedingt" (im digitalen sinne) oder schlecht bzw. gut konditionierungsbedingt (im mathematischen analogen sinne) Rauschen hinzufüge?

Klares Jain. Kann, muss aber nicht. Die Analyse eines solchen Systems ist nicht geschlossen möglich und Bedarf numerischer Simulation. Eine allgemeine Aussage kann eigentlich nicht getroffen werden! Aber deine Intuition scheint falsch zu sein. Also nur weil du an den Eingängen wenig verstärkst und hinten lauter machst anstatt umgekehrt verändert sich nicht "allgemein gültig" das Stabiliätsverhalten. Die Feedbackgefahr steigt nicht per se. Sie KANN steigen, muss sie aber nicht! Hängt wirklich vom Einzelfall ab und hat eher "chaotische" Regeln ;)



Dem stmme ich nicht ganz zu:

Als Quellen hab ich des: (1) http://www.sengpielaudio.com/RechnerSpannungLeistung.htm

und das hier: (2) http://www.sengpielaudio.com/RegelunterschiedeBeiPanpots.pdf

Mir hat jemand erklärt, dass wenn ich den signal physikalisch ausgebe sich nicht die spannungen addieren, sondern die Leistung (aber warum?)
Anders wäre es wenn ichs im pult intern summiere, dann hätte ich 2* Spannung und damit 4* Leistung

Ich muss zugeben, dass ich nach überfliegen insbesondere Teil 2 nicht raffe.
Also ich versteh nicht ganz was mir das sagen soll...
Ich habe eine Interpretation, aber wenn ich das wirklich SO verstehen sollte, wäre die Quelle falsch... das kann ich auch gerne nochmal belegen... ich vermute ich verstehe Sengpiel (wie so oft) da falsch.... Bei Sengpiel ist aber auch nicht alles Gold....

Dröseln wir es mal auf:

Angenommen ist sitze im Stereodreieck und habe ideale Lautsprecher, dann erreicht mich (in hinreichend guter Näherung) linke und rechte Wellenfront gleichzeitig. Ich addiere damit im Bereich Ohr die Größe "Druck". Diese ist das "akustische Pendant" zur Spannung. Also: doppelter Druck = vierfache akustische Leistung. (ist ähnlich wie U^2/R... hier ists p^2/Z_ak, wobei Z_ak die akustische Freifeldimpedanz sein soll... egal ist jedenfalls äquivalent).

Ich gehe mal vom Urzustand aus: Signal in der Mitte. Sagen wir, an meinem Ohr kommen 0dBref (irgendein Referenzwert) an. Wenn ich jetzt nach links panne, und zwar in der Form, dass ist einfach das rechte Signal abschalte, also links nicht lauter mache sondern nur rechts leiser (das wäre unkompensiert), dann kommt an meinem Ohr nur noch halber Druck an (Druck ist wie Spannung additiv). halber Druck heißt ein viertel der Leistung also -6dB. Wenn ich aber gleichen Druck, also gleiche Leistung haben will, muss ich eben um "+6dB" kompensieren.

Die Sengpielquelle dreht das Spiel erstmal rum: Wir gehen davon aus, nur nach links gepannt zu haben. Linke Box an, rechte Box aus. Ich erhalte am Ohr meine 0dBref. Jetzt panne ich das Signal in die Mitte, indem ich den Pegel links gleich lasse, und nur die rechte Box lauter mache, bis sie gleichen Pegel hat. In Diesem Falle habe ich dann am Ohr doppelten Druck, also 6dB mehr. Ich muss also 6dB abziehen um wieder 0dBref zu erhalten!

Ich GLAUBE (wie gesagt, ganz raff ich das Bild nicht) den Fehler in der Quelle zu sehen, nämlich bei der Leistungsbilanz... Hier wird sowas wie "L^2 + R^2" ausrechnet! Das ist Unsinn!

DENN: Haha, fantastisch! Wir landen beim ersten Teil meines posts: Hier wird angenommen, dass die Leistungen von linken und rechtem Signal addiert werden dürfen. Dies gilt aber nur, wenn Korr(L,R) (wie oben definiert) 0 wäre. Das ist es aber nicht, da L und R ja gerade das gleiche Signal ist, wenn wir von nem Monosignal ausgehen!


EDIT: Ich habs echt nochmal angeguckt, kann nochmal wer über die Sengpielquelle gucken?
Das ist doch wirklich Quatsch was da steht?!? Wo kommt das her?!?




Ja das hab ich so verstanden
Da db ja logarithmisch sind, kann ich eigentlich auch direkt den VCA-Fader additiv in die Rechnung einfließen lassen
Si Si senor!

sagen wir mal Fader A steht auf -6db und VCA (bei 0db definiert) (für A) steht auf 7db, dann hab ich 1db im Resultat.
Ebenfalls: RIchtig!
Interessant sind die Grenzfälle -infinity db => deine multiplikation mit 0 => resultat kein signal bzw. -infinity db

Richtig! Steht einer der Fader auf -oo, ist mindestens einer der Faktoren 0, und es kommt nichts!


Was passiert in der Gegenrichtung alle Fader sind nach oben beschränkt bei sagen wir mal 12db.... was passiert dann bei 5db A und 8db VCA -> nicht erlaubt oder?

Ich versteh nicht ganz? Angenommen du hast Kanalfader, die bis +12dB gehen (nicht unüblich) und einen VCA-Gruppenfader der AUCH bis +12dB geht.... stellst du beide auf +12dB, dann haste eben +24dB gain erzeugt?!?

oder in deinem Rechenbeispiel +13dB.

Das geht! üblicherweise sind (zumindest heutzutage) Digipulte gegen interne Übersteuerung (und ich vermute darauf willst du hinaus?) recht immun, Stichwort: Fließkomma-Arithmetik und damit gigantische Dynamikbereiche...

EDIT: Wenn wir das Thema panning,"fft dB" und Gruppenfader durch haben, können wir ja die anderen Fragen abgrasen, aber 3 offene Themen reicht glaub ich erstmal, sonst gibts Chaos!
 
Zuletzt bearbeitet:
DIT: Ich habs echt nochmal angeguckt, kann nochmal wer über die Sengpielquelle gucken?

Kannst du das etwas genauer ausdrücken? Ich finde keinen Fehler.

Wir reden doch vom PDF, bei dem auf die Paning-Unterschiede eingegangen wird?
--- Beiträge wurden zusammengefasst ---
Meinst du jetzt den Pegel je Histogrammlinie oder den GesamtPegel?
Effektivwerte bezogen auf was?
Bezugspunkte bezogen auf was?

Der Effektivwert ist eine Möglichkeit für eine Wechselspannung eine äquivalente Gleichspannung anzugeben.
https://de.wikipedia.org/wiki/Effektivwert

0bab9c95889d517d76a2b403db23c46f.png

An dieser Gleichung sieht man gut, wie man das in der digitalen Domäne macht: Man addiert die Quadrate der einzelnen Messpunkte, teilt sie durch die Anzahl der Messpunkte und zieht daraus die Wurzel.

Der Bezugspunkt kann jetzt ein Spannungspegel sein (wie bei dBu 0,775 V, bei dBV 1V) sein, oder eben einfach der Vollausschlag (dBFS (full scale)).



Um das noch einmal etwas eindeutiger auszudrücken, was ich bereits angesprochen hatte und auch EDE-Wolf noch einmal angesprochen hat:
Sollten zwei Signale nicht korrelieren (also in keiner Abhängigkeit zueinander stehen) aber den gleichen Pegel haben, bspw. zwei Geigen, dann ist die Pegeladdition der beiden Signale die Leistungsaddition und damit +3 dB.
Sollten zwei Signale korrelieren und kohärent sein (zwei Lautsprecher), so ist die Pegeladdition +6 dB. Bei korrelierenden und inkohärenten Signalen kann alles mögliche passieren (Interferenz).
 
Kannst du das etwas genauer ausdrücken? Ich finde keinen Fehler.

Wir reden doch vom PDF, bei dem auf die Paning-Unterschiede eingegangen wird?
.

Habs gerade nochmal gelesen... Es geht ums Pan-Poti-PDF... linkes Bild!
Ich hab jetzt glaub ich gerafft was gemeint ist.

Was ich pesönlich sehr eigenartig finde ist die Summebildung. Da steht erstmal "Spannungssumme (Mono) 3dB", das sehe ich ein, wenn man eben wenn man eben (Achtung: nicht wörtlich nehmen) "-3dB" und "-3dB" von linkem und rechtem Kanal (Box) addiert, man erhält also +3dB in Mittelstellung, wenn das Pan-Poti in Mittelstellung beide Seiten um 3dB dämpft, abgesehen davon dass mir "0dB" lieber wären, und ich folglich in Mittelstellung beide Seiten um 6dB und nicht 3dB dämpfen würde.

Was ich nicht raffe: Was soll die "Leistungssumm(Stereo) 0dB"?!? Die Rechnung dahinter kann doch nur darauf basieren, zwei unkorrellierte Signale anzunehmen. Das halte ich in diesem Kontext für völlig unsinnig?!?!

Variante 1 wäre doch klassisches Pan-Poti: Also ich lege einen Monokanal irgendwie nach links oder rechts, in dem Falle sind aber beide Signale VOLL korrelliert (Korrelationskoeffizient = 1) in dem Falle macht die Leistungsbilanz keinen Sinn, denn es gilt (was ja zu erwarten wäre: +3dB).

Variante 2, wir reden nicht von Pan-Potis sondern von Balance-Potis, wo wir einen Stereokanal haben und legen den Stereokanal nach links/rechts, indem wir eine der Seiten leiser machen und die andere Seite lauter. In diesem Falle sind die Signale aber immernoch stark korrelliert, zumindest eher "voll korrelliert" als "unkorrelliert", also ergibt hier die Rechnung: "L^2+R^2" eigentlich auch keinen Sinn.... außerdem wäre das (wie gesagt) der Fall eines Balance-Potis nicht eines Pan-Potis?!?


Variante 1 wäre falsch, Variante 2 am Thema vorbei :D :D was kann sonst gemeint sein?!



EDIT: In dem Kontext würde mich mal interessieren, wie eigentlich zwei geigen korrellieren. Wenn sie in Time das gleiche spielen, glaub ich, dass sie ggf. sogar stark korrelliert sein können....
 
Was ich nicht raffe: Was soll die "Leistungssumm(Stereo) 0dB"?!? Die Rechnung dahinter kann doch nur darauf basieren, zwei unkorrellierte Signale anzunehmen. Das halte ich in diesem Kontext für völlig unsinnig?!?!

Nein, das ist richtig im PDF. Ich verweise da auf mein schlechtes Beispiel mit den Lampen. :D

Hinter der Spannungssummer steht das Wörtchen Mono. Hinter der Leistungssumme steht das Wörtchen - na? - Stereo. Die Leistung des linken und es rechten Kanals addiert ist hier also abgebildet, nicht die Leistung der Spannungssumme in Mono der beiden Kanäle.
In der Praxis sollte das eigentlich auch stimmen. Gibt man ein Signal mit - 3 dB auf den einen Lautsprecher und mit - 3 dB auf den anderen Lautsprecher hat dies im Stereodreieck den Effekt, dass das Signal mit 0 dB wahrgenommen wird.

EDIT: In dem Kontext würde mich mal interessieren, wie eigentlich zwei geigen korrellieren. Wenn sie in Time das gleiche spielen, glaub ich, dass sie ggf. sogar stark korrelliert sein können....

Die Korrelation wäre wahrscheinlich sehr gering, ähnlich wie bei einem Chor. Der einfache Grund: Kein Instrument (außer elektronische Instrumente) trifft genau den Ton. Eine Abweichung von wenigen Hz (inkl. dem abweichendem Obertonspektrum) ist normal und wird nicht wahrgenommen.
Gleiches passiert ja auch im Flügel (bei dem höhere Saiten häufig doppelt oder dreifach ausgeführt sind) oder auch bei einer Gitarre, wenn man Akkorde spielt.
An der Gitarre sollte man das auch gut ausprobieren können: E-Saite im 5. Bund und A-Saite zusammen sollte ziemlich genau 3 dB gegenüber der reinen A-Saite ergeben.
Alternativ könnte man ja mal bei einem Klavier zwei oder eine der Saiten dämpfen und dann schauen, wie das ganze aussieht.
 
Nein, das ist richtig im PDF. Ich verweise da auf mein schlechtes Beispiel mit den Lampen. :D

Hinter der Spannungssummer steht das Wörtchen Mono. Hinter der Leistungssumme steht das Wörtchen - na? - Stereo. Die Leistung des linken und es rechten Kanals addiert ist hier also abgebildet, nicht die Leistung der Spannungssumme in Mono der beiden Kanäle.

Wie gesagt... das setzt voraus, dass "L und R" unkorrelliert sind! Das soll man ja gerade im Mix tunlichst vermeiden! Dafür gibts doch extra in jeder DAW Korrelationsgradmesser man soll ja eher über 0,5 bleiben... das würde heißen, dass ich eher bei L^2+R^2+LR ankommen (für 0,5V) und wahrscheinlich in der Praxis eher noch mehr....
also ich raff die Annahme der Unkorrelliertheit von L- und R- Signal nicht!?!?




Die Korrelation wäre wahrscheinlich sehr gering, ähnlich wie bei einem Chor. Der einfache Grund: Kein Instrument (außer elektronische Instrumente) trifft genau den Ton. Eine Abweichung von wenigen Hz (inkl. dem abweichendem Obertonspektrum) ist normal und wird nicht wahrgenommen.

Stimmt, danke! Erklärung plausibel! Kleinste Abweichungen führen ja auch sofort zu "unkorrelliert"
 
Zuletzt bearbeitet:
Es spielt doch keine Rolle, ob die Signale korrelieren oder nicht. Die einzige Sache, die dieses PDF doch aussagt, ist, dass die Leistung des rechten Kanals (R²) und die des linken Kanals (L²) addiert konstant ist - eben durch die - 3 dB in Mittelstellung. Stell dir das so vor, dass ein Widerstand für den rechten Kanal vorhanden ist an dem die Leistung des rechten Kanals anfällt und ein gesonderter aber identischer Widerstand an Kanal L hängt, an dem die Leistung des linken Kanals anfällt. Die Addition dieser Leistungen ist unabhängig von der Stellung der Potis konstant.
Um das ganze mal in die Realität zu setzen: Wir haben eine Stereoendstufe mit zwei identischen Lautsprechern. Unabhängig von der Stellung des Pan-Potis liefert diese Endstufe die gleiche Leistung mit veränderlichen Anteilen auf linken und rechten Kanal. Auf Grund der Wirkungsgradänderung bei zwei Lautsprechern entspricht der Pegel allerdings dann am Hörpunkt +3 dB bei Mittelstellung. Allerdings sind linkes und rechtes Ohr auch wieder zwei Punkte (vor allem unter einem Kopfhörer). Wahrscheinlich - und da spekuliere ich jetzt - hört es sich deswegen nicht so an, als würde das Signal aus der Mitte lauter sein, als ein gepantes Signal.
 
Es spielt doch keine Rolle, ob die Signale korrelieren oder nicht. Die einzige Sache, die dieses PDF doch aussagt, ist, dass die Leistung des rechten Kanals (R²)

Naja wo addieren ist die Frage :D wenn ich sie am Ohr (unter Vernachlässigung irgendwelcher Phasenunterschiede zwischen linken und rechten Ohr, quasi "Mono-Ohr" addiere stimmts ja nicht... und ich verstehe nicht an "welchem Punkt" (in der Schaltung oder wo auch immer) diese "Leistungssumme" irgendwie plausibel wird?!?


und die des linken Kanals (L²) addiert konstant ist - eben durch die - 3 dB in Mittelstellung. Stell dir das so vor, dass ein Widerstand für den rechten Kanal vorhanden ist an dem die Leistung des rechten Kanals anfällt und ein gesonderter aber identischer Widerstand an Kanal L hängt, an dem die Leistung des linken Kanals anfällt. Die Addition dieser Leistungen ist unabhängig von der Stellung der Potis konstant.

In der Tat wäre das so eine Art "Leistungssumme", wenn man wirklich sagt, die beiden Signale L und R werden sich "nie mehr sehen". Dann Ok.... aber das ergibt ja im Kontext "Richtungshören", worum es ja eigentlich geht keinen Sinn mehr. Es geht ja gerade um das akustische Ergebnis in diesem PDF....

Um das ganze mal in die Realität zu setzen: Wir haben eine Stereoendstufe mit zwei identischen Lautsprechern. Unabhängig von der Stellung des Pan-Potis liefert diese Endstufe die gleiche Leistung mit veränderlichen Anteilen auf linken und rechten Kanal.
Ja, aber nur weil die Wechselwirkung zwischen den Lautsprechern auf akustischer ebene für die elektrisch abgegebene Leistung der Endstufe vernachlässigbar ist.
Am Ohr kommt - trotz "konstanter" abgegebener elektrischer Leistung - eben nicht konstante Leistung an. Wenn ich mit -3dB Mitte messe, dann erhalt ich eben +3dB Leistung im vergleich zu 0dB ganz rechts...
Das ist völlig unabhängig von irgendwelchen wirkungsgradveränderungen.


Auf Grund der Wirkungsgradänderung bei zwei Lautsprechern entspricht der Pegel allerdings dann am Hörpunkt +3 dB bei Mittelstellung.

Beziehst du dich dich auf diese These "2 Lautsprecher haben gegenüber einem doppelten Wirkungsgrad"?
Woher kommt diese These. Kannst du dafür mal ne verlässliche Quelle angeben? Mir scheint das son "Forumsgeist" zu sein. Ich sag nicht dass es falsch ist, aber dass ich gern mal fundiert lesen würde, warum das so sein soll...
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben