Abtasttheorem vs. Abtastrate 48 vs. 96 kHz - technischer Hintergrund?

  • Ersteller PeaveyUltra120
  • Erstellt am
Wedge und IEM sind völlig andere Dinge, das Argument ist irrelevant. Ein Wedge verzeiht viel mehr, weil das Hirn hier ein Delay sogar erwartet, auch vermischt sich da ja alles sowieso im Raum.

IEMs sind abgeschlossene Systeme. 9ms am Wedge können unproblematisch sein, im IEM ist es eher unspielbar. Bei Gesang können 2-3ms schon zuviel sein, im Wedge kein Problem. Mehr als 5ms möchte ich nicht haben als Roundtrip.

Hier ein feines Video von Dave Rat bez. Gesang im IEM.


View: https://youtu.be/APj0ZaMy4Xw?si=bXuRDvE6FpTBZHWC
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Das ist etwas individuell, aber so ab 1,5-2 ms kann das echt ein Problem für Sänger werden. ...
Steck dir am Besten gut dichtende IEM Hörer in die Ohren (oder nimm einen gut dämmenden, geschlossenen Kopfhörer), dann ein Mikro in das du rein singst. Gib dir das Mikrosignal aufs Ohr und erhöhe schrittweise die Verzögerung deines Mikrofonsignals auf Ohr.
Danke,
das werde ich interessehalber mal ausprobieren.

Grüße
 
9ms am Wedge können unproblematisch sein, im IEM ist es eher unspielbar. Bei Gesang können 2-3ms schon zuviel sein, im Wedge kein Problem. Mehr als 5ms möchte ich nicht haben als Roundtrip.
Ist extrem individuell das ganze.
Unsere Signalkette:
Funkmikro/Gitarrenfunk: 1,9ms
Bei Gitarre: 2-3ms für Kemper
Wing-Durchlauf: 1,2ms
Dante Latenz: 0,25ms
Klangfabrik: 3ms
Dante Latenz: 0,25ms
Wing-Durchlauf: 1,2ms

Gesamt: 7,8ms. Ohne Klangfabrik warens immerhin 3,1ms. Bei den Gitarristen sind wir bei ca. 10ms.
Alle sind total happy mit dem System und dem Inearsound, und bisher sind alle der Meinung, dass wir (trotz der deutlich erhöhten Latenz) seit Einführung der Fabrik (3D-Monitoring) die IEM-Qualität ein gutes Stück verbessert haben.
Warum das trotz der Latenz so gut klappt? Keine Ahnung, könnte vielleicht sein, dass durch das 3D-Prozessing die Latenz vom Gehirn „natürlicher“ wahrgenommen wird, ähnlich wie bei einem klassischen Wedge.
Jedenfalls scheint es auch bei einigen Touringbands, Hans Zimmer und vergleichbaren mit erfahrenen Monitormischern im Einsatz zu sein, und auch da sehr gut zu funktionieren trotz vergleichsweise hoher Latenz.
Bei dem Teil ist die Latenz übrigens unabhängig von der eingestellten Abtastrate (48 oder 96 kHz).

Generell sind vielleicht auch Kammfiltereffekte Gewöhnungssache.
 
Zuletzt bearbeitet:
Total individuell, bei mehr als 5ms empfinde ich es als störend, ab 10 wird es für mich unspielbar. Vor allem perkussives wie Clavinet.

Dass Gitarristen das nicht hören, wundert mich nicht. 😜🫣
 
  • Haha
Reaktionen: 3 Benutzer
-Es ist glaube ich klar dargestellt worden, dass es bei der reinen Übertragung nicht nur praktisch, sondern auch theoretisch egal ist, ob die Abtastrate 48 oder 96 kHz beträgt.
-Ebensowenig spielt es eine Rolle für die zeitliche Auflösung der Signale (Ortung)
-Ganz klar eine Rolle spielt es bei nichtlinearer Signalbearbeitung (Kompressor, Verzerrer,…)

Was mich jetzt noch interessieren würde: Wie verhindern die Pulthersteller, bzw. die Hersteller der DSP-Engines, dass es bei der Signalbearbeitung zu Aliasing kommt?

Arbeiten Behringer, A&H und co. mit internem Oversampling bei den entsprechenden Plugins/Signalbearbeitungen mit anschließendem Lopass vor der Rückwandlung in 48 oder 96 kHz, oder wird Aliasing hier in Kauf genommen?

Ich konnte bisher jedenfalls noch keine Aliasingeffekte wahrnehmen.
 
Um ehrlich zu sein, habe ich mir über diese ganzen Dinge nicht wirklich Gedanken gemacht. Mein Ansatz ist, das Pult mal zu testen, schauen ob ich damit gute Ergebnisse erstellen kann, und wenn ja, dann ist das für mich alles ok. Wenn es eigenartig klingt, dann eher nicht. Aber ich muss sagen, dass ich mit den mir bekannten, aktuellen Exemplaren eigentlich keine Probleme habe. Es gibt welche, die ich weniger bis gar nicht mag, aber das hat andere Gründe als die Samplerate.
 
Muss sagen, dass ich bei den Wing Kompressoren in ganz schnellen Einstellungen (zb 1176 A+R ganz rechts) öfter mal Gezischel und gefühlte Artefakte höre. Bin dem aber dann nie weiter auf den Grund gegangen.
 
Was mich jetzt noch interessieren würde: Wie verhindern die Pulthersteller, bzw. die Hersteller der DSP-Engines, dass es bei der Signalbearbeitung zu Aliasing kommt?

Arbeiten Behringer, A&H und co. mit internem Oversampling bei den entsprechenden Plugins/Signalbearbeitungen mit anschließendem Lopass vor der Rückwandlung in 48 oder 96 kHz, oder wird Aliasing hier in Kauf genommen?
Das sollte doch mit den Experimenten aus dem Dan Worrell/FabFilter Video relativ einfach herauszufinden sein? Ich gehe davon aus dass alle Digitalpulte einen Sinustongenerator und einen Analyzer an Bord haben?

Ich hab das gerade in Cubase mit dem Waves CLA-2A Kompressor ausprobiert.

Zuerst mal ohne den Kompressor einen Sinuston erzeugt. Dabei habe ich gleich mal "Hörtest" gespielt und bemerkt dass dieser Ton bei 15.4 kHz bei mir gerade noch so im hörbaren Bereich liegt. Ich kann ihn bewusst nicht mehr wahrnehmen, stelle aber einen Unterschied fest wenn ich den Kanal mute:

Waves CLA-2A Bybass.png


Dann im nächsten Schritt bei einer Sample Rate von 48 KhZ den Waves Kompressor in der Effektkette aktiviert - holla die Waldfee, da ist aber das Signal bei ca. 1.8 kHz sehr sehr deutlich wahrzunehmen:

Waves CLA-2A 48 kHz.png


Dann das Projekt auf 88.2 khZ Samplerate umgestellt. Eigentlich hätte ich vermutet ich müsste den Ton bei 11.2 kHz hören, aber ich nehm den nicht bewusst war. Der geht im Grundrauschen unter und ähnlich wie schon beim reinen Sinuston nur erahnbar in dem ich den Kanal mute und wieder entmute:

Waves CLA-2A 88.2 kHz.png


Dann hab ich mal kurz nach den Waves Plugins in Bezug auf Anti-Aliasing gegooglet, da ich eigentlich nicht glauben kann dass die da gar nix machen, aber die Google KI Antwort passt zu meinem Testergebnis:

1762082476722.png


Spannend und eigentlich einzig relevant wäre dann noch die Frage in wie weit das dann in einem Gesamtmix noch auffällt. Ok, wenn man auf jeder Spur mehrere nicht-lineare Plugins verwendet wird sich das irgendwie summieren und in bestimmten Frequenzbereichen Matsch erzeugen. Aber ich glaube in Live-Situationen gibt es dann andere Parameter, die diesen Effekt dann minimalst erscheinen lassen. Abgenudelte Saiten oder ein krachendes kaputtes Kabel irgendwo auf nem Effekt-Board sind in der Praxis wesentlich nervigere Probleme :whistle:

So und ich versuch jetzt mal ein Plugin zu finden das Anti-Aliasing beherrscht und mach dann nochmal einen Versuch :)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Was zur Zeitauflösung in dem verlinkten Dokument steht, stimmt aber nicht so ganz.
Grüße
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Hmm, mir fällt auf dass du des öfteren zwar schreibst das etwas nicht richtig ist, ohne jedoch konkret zu sagen welche Aussage genau deiner Meinung nach nicht stimmt und wie es eigentlich richtig wäre. Das macht solche Statements für mich wertlos. Vielleicht magst du da etwas nachschärfen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich frage mich, inwieweit sich die Vorgehensweise bei Effekten in Digitalpulten und DAWs auf PCs im Detail vergleichen lassen. Ich komme auf diese Frage, weil anders als in Rechnern in den Pulten keine Desktop-CPUs werkeln, sondern FPGA-Chips [FPGA].
Am Rechner muss alles komplett in Software dargestellt werden damit die CPU z.B. die Effekte berechnen kann. Die Desktop-CPUs sind bekanntlich nicht spezialisiert, sondern quasi "Generalisten", die sozusagen alles und nichts können, sich zudem auch noch immer ´nebenbei´ um alles mögliche Weitere kümmern müssen.
Hingegen werden FPGAs gezielt auf ihre Aufgaben hin fest programmiert und sie können diese dann höchst effizient und typischerweise sehr schnell erledigen.
Inwiefern sich das von der Programmierung her im Detail unterscheidet, kann ich nicht sagen, darin habe ich keinen näheren Einblick.

Aber vielleicht gibt es hier Fachmenschen, die dazu Konkretes beitragen können.
Nicht, dass wir hier die sprichwörtlichen Äpfel mit Birnen vergleichen.
 
Naja, das sind ja beides im Endeffekt nur Transistoren. Die Sprache, mit welcher diese Dinger programmiert werden, ist maximal eine andere.
Aber ja, Desktop-CPUs müssen wie du sagst viele Sachen gleichzeitig im Normalfall erledigen, für sowas haben die heutzutage auch unterschiedliche Kerne.
Von dem her lässt sich das nicht direkt vergleichen, aber ich glaube (sofern ich mich erinnern kann :D) geht es in diesem Thread um die Frage ob eine höhere Abtastrate zu geringerer Latenz führt.
Was ich für Digitalpulte nicht beantworten kann, aber beim ASIO Treiber meines Interfaces kann man die umstellen und führt im Endeffekt zu weniger.
 
aber ich glaube (sofern ich mich erinnern kann :D) geht es in diesem Thread um die Frage ob eine höhere Abtastrate zu geringerer Latenz führt.
Nein. Also nicht nur. Eigentlich ging es mir darum, ob es für Livemischpulte/Recordingmischpulte überhaupt WIRKLICH beweisbar einen Sinn hat, 96 kHz zu verwenden bzw. es überhaupt Vorteile ggü. 48 kHz gibt.
 
Okay, aber ist es nicht so dass so Mischpulte auch eine gewisse Buffersize haben und wenn man die Abtastrate verdoppelt, die Samples im Buffer doppelt so schnell verarbeitet werden?
 
Ja, das hatten wir schon
 
Naja, das sind ja beides im Endeffekt nur Transistoren.
Schon, aber die Ressourcen eines FPGAs werden anwendungsspezifisch konfiguriert/verschaltet und erlaube eine hohe Parallelität der Operationen, die selbst eine optimierte CPU mit vielen Cores/Threads so nicht erreichen kann. Vermutlich werden z.B. in Pulten Typen mit dedizierten DSP Blöcken für bessere Performace dieses Usecases eingesetzt.
Über fertig reingeladene IP-Cores lassen sich Funktionen wie Std. Interfaces oder CPU Funktionalität einfach zukaufen.
Aber ja, zurück zum Topic...
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Bissl offtopic zu deiner Signatur "I don't trust anyone who doesn't like the eighties"
Falco sagte: "Wer sich an die 80er erinnern kann, hat sie nicht miterlebt...."
:D :D
 
  • Haha
Reaktionen: 1 Benutzer
Zum Thema Desktop-CPU vs FPGA denke ich dass von der Qualität der Programmierung her kein Unterschied sein muss. Also dass, sofern der Programmierer eines Effekts/Plugins die nötige Sorgfalt aufgewendet hat, das Ergebnis gleich gut sein wird. Ich kann mir aber vorstellen, dass es mit einem FPGA möglich ist, diese Programmierung so zu gestalten, dass die Effektberechnung in kürzerer Zeit erfolgt, also weniger Latenz verursacht.

Bei einer DAW ist im Mix die Latenz der Plugins meiner Meinung nach eher von geringer Bedeutung, so lange man mit einer DAW arbeitet die über einen guten Latenzausgleich verfügt, da ja Echtzeit hier dann kein Thema mehr ist. Ob ich da zwischen der rohen Audiospur und dem Ausgang 0, 1 oder 100 ms Latenz habe, ist egal, wie ich finde. Das kriegt man maximal mit, wenn man den Mix erst minimal nach dem Starten wirklich hört.

Live ist das eine komplett andere Baustelle, da geht es um quasi Echtzeitverarbeitung. Je weniger Latenz desto besser. Und wir haben hier ja schon ausführlich darüber geredet, dass aktuell ein Pult idealerweise so um die 1 ms (plusminus) Gesamt Latenz haben darf um noch zeitgemäß und für IEM geeignet zu sein. Daher hier auch die super schnellen Rechnenknechte in Form von FPGAs
 
Hmm, mir fällt auf dass du des öfteren zwar schreibst das etwas nicht richtig ist, ohne jedoch konkret zu sagen welche Aussage genau deiner Meinung nach nicht stimmt und wie es eigentlich richtig wäre. Das macht solche Statements für mich wertlos. Vielleicht magst du da etwas nachschärfen.
Das hatten wir doch schon im Thread.
Im verlinkten Dokument steht, die Zeitauflösung entspräche dem zeitlichen Abstand der Samples zueinander, also dem Kehrwert der Samplerate/Samplefrequenz.

Das ebenfalls hier im Thread verlinkte Video von Monty führt genau vor, dass das nicht stimmt. Er führt in seinem Video vor, dass eine "Transiente", der Start einer Transiente eben auch zwischen den Samplezeitpunkten aufgenommen und exakt so reproduziert wird.

Das Gute in dem verlinkten Yamaha-Dokument sind die Angaben zu Latenzen von Digitalpulten, und in welchen Situationen oder Anwendungsszenarien sie sich wie groß als störend erweisen.
Etwa, die Latenz für IEM.

Grüße

Die "schärfste" Transiente dürfte ein Sprung von Null Amplitude zu voller Amplitude sein.
In einem Diagramm mit Amplitude auf der vertikalen Achse und der Zeit auf der horizontalen Achse, wäre das eine Stufe. Die Amplitude geht am besagen Zeitpunkt senkrecht nach oben, senkrecht von Null auf Hundert Prozent.

Ein Stufe setzt sich (im Spektrum) zusammen aus sehr vielen Sinuswellen (mit Phasenverschiebung) und vielen hohen Frequenzen.
Als Menschen hören wir bestenfalls bis 20 kHz.

Wenn wir alle Sinuswellen oberhalb 20 kHz abschneiden, sehen die schärfsten Transienten so aus wie im Video von Monty gezeigt: Es "wackelt" vor der Transiente schon etwas, sie geht nicht senkrecht, sondern schräg nach oben, und "wackelt" danach auch wieder etwas.
Allerdings, die zeitliche Lage dieser Transiente, wo sie eben auf der Zeitachse beginnt, so schräg nach oben zu gehen, kann an beliebigen Zeitpunkten auch zwischen Samples aufgenommen und reproduziert werden.
Das führt Monty in seinem Video vor.

Dass eine Transiente, die wir Menschen hören können, bei 20 kHz "abgeregelt" ist, hat nichts mit der Samplerate zu tun, sondern mit unserem Hörvermögen.


Die Samplezeitpunkte bei der niedrigsten vernünftigen Samplerate von 44,1 kHz ("CD-Qualität") haben einen zeitlichen Abstand von 0,023 Millisekunden.
Das entspricht einer Beats-per-Minute-Rate (BpM) von 2.608.696 BpM. (Rund 2 1/2 Millionen Schläge pro Minute.)
Die schnellsten Songs in 4/4 haben wohl etwas um die 260 BpM (großzügig geschätzt), die 128tel in so einem Song haben also eine Rate von rund 8400 Schlägen pro Minute, 140 Schlägen pro Sekunde, also 140 Hertz.
Das ist immer noch um den Faktor rund 320 langsamer als der Abstand der Samplezeitpunkte.

Nur um das mal ins Verhältnis zu setzen mit dem schnellsten Speed-Metall, den ich mir vorstellen könnte. 128tel sind immerhin 32 Noten auf ein Viertel gespielt, oder dort mit so einer Timinggenauigkeit angeordnet. (Wenn man etwa nur jeweils das 5te oder 29te 128tel auf einem Viertel spielen würde.)

Selbst wenn man daran glaubt, die Zeitauflösung wäre der zeitliche Abstand der Samplezeitpunkte voneinander, ist selbst nach diesem Glauben die Zeitauflösung selbst der geringsten Samplerate sehr viel besser als selbst super-schnellste Musik jemals verlangen würde.

Zum Thema "nichtlineare Verarbeitung"....

Nyquist gilt für bandpassbegrenzte Signale, die abgestastet und rekonstruiert werden. Wie die Abtastung und die Rekonstruktion (Stichwort "Rekonstruktionsfilter") zu erfolgen hat, ist in der Literatur bekannt. Für Audio heißt das, Signale, die ab etwa 20 kHz "abgeregelt" sind.

Irgendwelche nichtlineare Verarbeitung muss dafür sorgen, dass ihre Ausgangssignale solche sind, die bandpassbgrenzten bei 20 kHz "abgeregelten" Signalen entsprechen. Wenn sie das nicht tun, ergeben sich u.U. Aliasing und gespiegelte Frequenzen im Hörbereich.
Das liegt dann letztlich daran, dass die Konstrukteure der nichtlinearen Verarbeitung, der Plugins ihren Nyquist nicht verstanden oder einfach ignoriert haben. Eigentlich ein klarer Designfehler.

Oder eine bewusste Entscheidung, digitale Artefakte als Mittel zur Soundgestaltung bewusst hörbar zu machen.
(Etwa analog dazu, wie etwa Übersteuerung und damit einhergehende Verzerrungen - eigentlich ein Konstruktions- oder Designfehler im Sinne der Nachrichtentechnik - bei Gitarrenverstärkern als bewusstes Mittel zur Soundgestaltung eingesetzt werden.)

Grüße
 
  • Gefällt mir
Reaktionen: 2 Benutzer

Ähnliche Themen

XaserIII
Antworten
0
Aufrufe
13K
XaserIII
XaserIII

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben