Abtasttheorem vs. Abtastrate 48 vs. 96 kHz - technischer Hintergrund?

  • um ein Signal der Frequenz f (zB 20 kHz) abzutasten
  • brauche ich wenigstens 2 Werte (also f_tast >= 2 f = 40 kHz)
  • idealerweise treffe ich dabei das Maximum UND Minimum, mit Pech nur die Nulldurchgängen
  • eine höhere Abtastfrequenz trifft dann mehr relevante Punkte, reproduziert das Originalsignal also etwas besser
Leider falsch, wenn Nyquist erfüllt ist, wird das Originalsignal perfekt reproduziert.

Siehe Montys Erklärungen, besonders ab Minute 17.

Grüße
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 3 Benutzer
Siehe Montys Erklärungen, besonders ab Minute 17.
Er zeigt es für einen niederfrequenten Rechteckpuls. Ich beziehe mich, selbstredend, auf einen hochfrequenten Sinus.

Schön sieht man, wenn man es versteht, die Bandbegrenzung jener unendlichen Reihe ;):cool:

Leider falsch, wenn Nyquist erfüllt ist, wird das Originalsignal perfekt reproduziert
Gerne noch einmal lesen: meine Aussage gilt für die höchste zu reproduzierende Frequenz.
 
Und dann ist da sowieso noch die Frage der Preamps/Wandler zu beachten. Bei A&H gibt es ja einige Kollegen da draußen, die sehr differenzierte Meinungen zu den Preamps haben . Die Stock Preamps/Wandler vom SQ sind da verpönt, es geht dann los mit den DX/GX Preamps/Wandler. Und einige meinen dass man sowieso nur die Premium Preamps benutzen darf. Alles andere ist unprofessionell.
Ist ja ähnlich bei der Diskussion Behringer S16 vs Midas DL16 vs Wing Preamps.
Ich glaube oft ist auch eine Portion Voodoo und das Wissen über die Preise mit dabei.

Ich kann mir vorstellen dass es da wohl einen messtechnischen Unterschied gibt, wenn man rein nur das Wandeln an sich durchmisst. Auch ein Argument pro 96 kHz könnte sein, dass sich bei der internen Bearbeitung weniger Artefakte im hörbaren Bereich geben kann. Ein Mischpult ist halt nicht nur ein AD/DA Wandler alleine. In einem Pult passieren so viele andere Dinge die den Klang beeinflussen.
Da ist die Frage die ich hier beleuchten wollte. Bei der Wandlung (insb. bei den von @chris_kah beschriebenen Delta-Sigma-Wandlern mit extremen Oversampling, Behringer Wing sampelt mit 6 MHz) würde ich nicht mitgehen, dass ein Unterschied messbar ist zwischen 48 oder 96 kHz am Ausgang.

Bei der Bearbeitung im Pult gehe ich mit, dass da Intermodulationen im hörbaren Bereich entstehen können, insofern dann weniger mit 96 oder gar 192 kHz. Weiß jemand ob die gängigen Pulte da mit internem Oversampling an einigen Stellen/FX arbeiten?

Ich hab zu dem Thema schon vor ein paar Jahren dieses Video gefunden:

View: https://youtu.be/-jCwIsT0X8M?si=ktOO9bKHp5KSIaK9

Der zeigt sehr schön die Unterschiede auf und am Schluss gibts noch ein paar Vergleiche mit Gesamtmixen.

Zwar alles auf DAW und Plugins bezogen, aber die Rückschlüsse für ein Digital-Pult sind ja die gleichen.

Seine Conclusion am Ende: „Don‘t stress about it too much“ ;)
Trotzdem interessant mal in diese Detailtiefe hinabzusteigen….

Sehr starkes Video. Ich denke, das macht viele Diskussionsansätze zu dem Thema obsolet.

  • mit Pech nur die Nulldurchgängen
  • eine höhere Abtastfrequenz trifft dann mehr relevante Punkte, reproduziert das Originalsignal also etwas besser
Das dürfte egal sein, solange auch nicht wirklich NUR die Nulldurchgänge getroffen werden. Die Punkte werden ja nicht sturr linear interpoliert sondern durch Sinc-Interpolation-Filter rekonstruiert. Wenn man immer die Nulldurchgänge treffen würde, wäre das dann im unhörbaren Bereich bei genau 1/2 Nyquist. Selbst dann könnte das Signal konstruiert werden, allerdings mit 50:50-Chance, was die Phasenlage angeht, also nicht mehr fehlerfrei —> Nyquistkriterium nicht mehr erfüllt. Solange fmax kleiner ist (und sei es nur minimal), ist Nyquist erfüllt, und das Signal wird fehlerfrei erfasst.
Es ist auch nicht so, dass das Signal mit höherem Oversampling besser oder schlechter rekonstruiert werden kann, solange die Nyquistbedingung erfüllt ist. Es kann FEHLERFREI rekonstruiert werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich hab mal gehört das klassische Musik, wegen der benutzten Instrumente und deren Klangfarbe, Oberwellen >24kHz hat und man deswegen diese höher abtastet/mischt.
Kann aber auch ein Gerücht sein
In der Tat gibt es Instrumente, die unter gewissen Umständen Obertöne bis über 20 kHz hinaus produzieren können, etwa eine Trompete, die ff bzw fff angespielt wird.
Dennoch spielen höhere Samplingraten als 44,1 kHz als Distributionsformat praktisch keine Rolle. Gerade bei "Klassik"-Hörern ist die CD immer noch das bevorzugte Distributionsmedium, es werden auch nach wie vor Neueinspielungen vorzugsweise als CD auf dem Markt angeboten.
Hinzu kommt, dass diese Hörerschaft statistisch mehr den älteren Altersgruppen zuzuordnen sind. Auch bei sorgfältigem Umgang mit seinem Gehör, darf sich jeder, der die 45/50 überschritten hat glücklich schätzen, wenn sie/er noch Frequenzen bis 15/16 kHz sauber hören kann.

Ich mache im Nebenerwerb Aufnahmen fast nur im "Klassik"-Genre und ich nehme üblicherweise mit 441, kHz Samplerate auf (wenn der Ton für Video gedacht ist mit 48 kHz). Höhere Sampleraten nutze ich nie.
Des weiteren spielen nicht-lineare PlugIns in der "Klassik" praktisch keine Rolle. Wenn es etwas gibt, das nach allen Umständen vermieden wird, ist das jegliche Art "Distortion" ;-) Gelegentlich kommt etwas Kompression zum Einsatz, wenn z.B. die aufgenommene Live-Dynamik die normalerweise im häuslichen Bereich reproduzierbare Dynamik überschreitet. Aber auch diese Eingriffe sind immer nur moderat.


Unterschiede merkst Du höchstens bei einem klassischen Orchester, nicht wegen fehlender Frequenzinformationen, sondern wegen fehlender Richtungsinformationen. Wenn Du ein klassisches Orchester so setzt, dass die zweite Reihe leicht seitlich versetzt ist, dann fällt diese Information weg, und die Musiker sitzen in der Aufnahme wieder hintereinander.
Diese Aussage verstehe ich nicht. Richtungsinformationen/Lokalisation werden über Pegel- und Laufzeitunterschiede übertragen bzw. bei der Wiedergabe realisiert.
Und die zeitliche Auflösung von Laufzeitunterschieden beträgt bei 44,1 kHz Samplerate ein vierundvierzigkommaeins-tausendstel Sekunde. Das liegt weit über dem zeitlichen Auflösungsvermögen des Gehirns (Quelle dazu kann ich nachliefern wenn gewünscht, muss ich aber noch heraus suchen).

Weißt du, wie die digitalen Tiefpassfilter nach dem 1-Bitstream üblicherweise realisiert sind?
Dazu habe ich einige Dokumente gefunden, die ich als Anhang beigefügt habe.

Vor allem im Papier "ADC Decimation Filter" wird sehr detailliert die Funktionsweise der bei bei Sigma-Delta AD-Converter zum Einsatz kommenden Decimation-Filter beschrieben.
Die Komplexität und die Mathematik in diesem Papier überschreitet im Detail mein Verständnis dafür. Als Fazit kommt bei mir aber rüber, dass diese digitalen Filter (zusammen mit dem Oversampling des Wandlers selber) sehr effizient arbeiten und, was wichtig ist, dabei linear sind. Daher braucht es auf der analogen Seite vor dem ADC keine steilflankigen Filter mit ihren Nachteilen um im Ergebnis Aliasing im Nutzfrequenzbereich vollständig zu vermeiden.
Nebenbei sind die digitalen Filter auch notwendig, um das Quantisierungsrauschen zu unterdrücken, dass von den Wandlern immer in den oberen Frequenzbereich verschoben wird (über die nominelle Nyquist-Grenze). Dazu habe zwei Dokumente von Texas-Instruments beigefügt (die etwas komprimierter und - für mich - verständlicher geschrieben sind.
 

Anhänge

  • ADC Decimation Filter.pdf
    3,6 MB · Aufrufe: 5
  • TI_How delta-sigma ADCs work - Part 2.pdf
    136,1 KB · Aufrufe: 4
  • TI_How delta-sigma ADCs work - Part 1.pdf
    666,4 KB · Aufrufe: 4
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Welche Frequenzen die Instrumente generieren, ist ja auch unerheblich. Letztlich ist nur das für die Weiterverarbeitung und letztlich die mögliche Wahrnehmung der Hörer relevante Spektrum wichtig.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Da sieht man einmal wieder, welche Leute ihren Nyquist nicht verstanden haben.
Die Bedingung ist eben genau nicht f_sample >= f_max/2, sondern tatsächlich f_sample > f_max/2.

Grüße
 
  • Gefällt mir
Reaktionen: 1 Benutzer
  • Gefällt mir
Reaktionen: 2 Benutzer
Also bezüglich Latenz macht es zumindest bei der DM7 insbesondere bei der Delay-Compensation einen Unterschied:
Anhang anzeigen 1005967Anhang anzeigen 1005968
Ansonsten bin ich der Meinung, dass es im Livebetrieb an so ziemlich allerletzter Stelle auf die samplefrequenz ankommt. Also zumindest ab 48khz aufwärts.

Oder anders ausgedrückt: wer es nicht schafft mit 48khz einen sauberen Mix zu generieren wird es auch mit 96khz nicht schaffen.
Genau, halbe Latenz halt. Wenn dann eben noch zwei Wege Digital Funk dazu kommen, kann das einen Unterschied machen im IEM. Das ist für mich der einzig relevante Grund.

Im Live Mix ist die Sample Rate dann qualitativ mMn irrelevant.
 
Genau, halbe Latenz halt. Wenn dann eben noch zwei Wege Digital Funk dazu kommen, kann das einen Unterschied machen im IEM. Das ist für mich der einzig relevante Grund.
Der einzig relevante Grund wofür?
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Wenn ich die Obertöne (größer ca. 20 kHz) - egal welchen Instrumentes - am Original schon nicht höre...

...dann höre ich es auch nicht, wenn diese mit 192kHz gesampelt werden und wenn die anschließende D/A Wandlung und die Audio-Wiedergabe-Kette auch bis - sagen wir mal 50kHz - wiedergeben könnte.

Daher ist das in 99,x% aller Fälle nur akademischer Natur und i.d.P. spar ich mir jede Menge Geld, weil ich ja die völlig ausreichenden 48kHz nutze.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Und die zeitliche Auflösung von Laufzeitunterschieden beträgt bei 44,1 kHz Samplerate ein vierundvierzigkommaeins-tausendstel Sekunde. Das liegt weit über dem zeitlichen Auflösungsvermögen des Gehirns (Quelle dazu kann ich nachliefern wenn gewünscht, muss ich aber noch heraus suchen).
Das stimmt nicht, siehe mein verlinktes Video von Monty.
Die zeitliche Auflösung hängt nicht mit der Samplingrate zusammen.
"Transienten" können auch zwischen zwei Sample-Zeitpunkten dargestellt werden.

Als Fazit kommt bei mir aber rüber, dass diese digitalen Filter (zusammen mit dem Oversampling des Wandlers selber) sehr effizient arbeiten und, was wichtig ist, dabei linear sind. Daher braucht es auf der analogen Seite vor dem ADC keine steilflankigen Filter mit ihren Nachteilen um im Ergebnis Aliasing im Nutzfrequenzbereich vollständig zu vermeiden.
Soweit korrekt.
Nebenbei sind die digitalen Filter auch notwendig, um das Quantisierungsrauschen zu unterdrücken, dass von den Wandlern immer in den oberen Frequenzbereich verschoben wird (über die nominelle Nyquist-Grenze). Dazu habe zwei Dokumente von Texas-Instruments beigefügt (die etwas komprimierter und - für mich - verständlicher geschrieben sind.
Stimmt, das macht genau diese Art von Wandlern, weil sie so konstruiert wurden. Quasi als Service für die Hersteller von Digitalmischpulten und anderen Geräten.

Quantisierungsrauschen gibt es in dem Sinne nicht. Rauschen ist nämlich ein zufälliges dem Originalsignal zugefügtes "Störsignal".
Bei der Quantisierung wird vereinfacht gesagt, auf die nächstpassende Stufe oder den nächstpassenden Wert von 65536 Stufen (bei 16-Bit linearer Quantisierung) auf- oder abgerundet. Also, je nach Wert des Originalsignals um plus/minus "1/2 Bit" auf- oder abgerundet. Das Fehlersignal (Originalsignal - quantisiertes Signal) hat also eine Amplitude, die einem niederwertigsten Bit (einer Quantisierungsstufe) entspricht und streng vom Wert des Originalsignals abhängt.
Es ist somit eine Quantisierungsverzerrung.

Bei sehr niedrigen Nutzsignalpegeln wird dies auch tatsächlich als (störende) Verzerrung gehört bzw. empfunden. (Bei höheren Signalpegeln eher als Rauschen bzw. gar nicht mehr wahrgenommen, weil es bei um die -96dBFS liegt.)

Damit es ein Rauschen wird, muss das Fehlersignal vom Nutzsignal de-korreliert werden. Dither wird hierzu eingesetzt, d.h. es wird ein sehr leises hochfrequentes Rauschen dem Nutzsignal zugemischt.
(Hochfrequentes Rauschen können wir eh praktisch nicht hören.)
Die Rundung bei der Quantisierung hängt nun vom Nutzsignal und dem zufälligem hochfrequentem Rauschen ab, ist somit bezüglich des Nutzsignals zufällig, somit de-korreliert und praktisch nur ein Quantisierungsrauschen. Was zudem am oberen Ende des Übertragungsbereichs, also in der Nähe der halben Abtastrate stattfindet.

Da aktuelle Wandler eh intern mit Oversampling arbeiten, findet das Ganze hauptsächlich oberhalb des Hörbereichs statt, stört also das Audiosignal nicht. ("Hauptsächlich" deshalb, weil Rauschen zufällig ist und deshalb immer auch - wenn auch geringe - niederfrequente Anteile hat.)

Der ganze Bereich oberhalb des Audiobandes (20kHz) kann im Verlauf der weitern Bearbeitung im AD-Wandler herausgefiltert werden, um am Ende ein quantisiertes Audiosignal mit 44,1kHz oder 48kHz Samplingrate (oder anderer Rate) mit geringem Quantisierungsrauschen (statt Quantisierungsverzerrungen) bereit zu stellen.

Diese obige Darstellung ist stark vereinfacht und soll nur die grundlegende Idee anschaulich vermitteln.

Exakte Erklärungen finden sich in der Literatur oder wohl auch in den von LoboMix verlinkten Dokumenten, die der Natur der Sache folgend, durchaus mathematisch anspruchsvoll sein können.

Das von mir verlinkte Video von Monty geht ja auch auf Dithering ein und führt diesen Effekt vor.

Grüße
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Das stimmt nicht, siehe mein verlinktes Video von Monty.
Die zeitliche Auflösung hängt nicht mit der Samplingrate zusammen.
"Transienten" können auch zwischen zwei Sample-Zeitpunkten dargestellt werden.
Hier liegt wahrscheinlich ein Missverständnis vor. Bitte beachte den Kontext in meinem Post #24. Dort ging es um die Lokalisation von Schallereignissen im Stereobild. Dabei spielen neben Pegelunterschieden Laufzeitunterschiede zwischen den beiden Stereokanälen eine wichtige Rolle (nicht bei Koinzidenz-Stereomikrofonie, aber bei allen Stereoanordnungen mit Abständen zwischen den beiden Stereo-Hauptmikrofonen, z.B. ORTF, EBS, AB, usw.).
Bei einer Samplerate von 44,1 kHz können solche Laufzeitunterschiede zwischen den beiden Kanälen mit mindestens einer Vierundvierzigtausendstelkommaeinssekunde zeitlichen Abstand erfasst werden da jede Vierundvierzigtausendstelkommaeinssekunde ein Sample aufgezeichnet wird.
In der Praxis spielt diese extrem kurze Zeit aber keine Rolle, da das Gehör so kurze Abstände zwischen Signalen nicht erkennen kann.
Im Kern soll damit gesagt werden, dass egal bei welcher Samplerate die Laufzeitunterschiede nicht verloren gehen können. Dafür braucht es definitiv keine höheren Sampleraten.

Quantisierungsrauschen gibt es in dem Sinne nicht. Rauschen ist nämlich ein zufälliges dem Originalsignal zugefügtes "Störsignal".
In der englischen Literatur heißt das Phänomen offiziell "Quantization Noise", kann also durchaus mit Quantisierungsrauschen übersetzt werden - auch wenn es sich faktisch um eine Verzerrung handelt. (Zum Thema Rauschen bei AD-Wandlern habe ich ein informatives und recht anschauliches Dokument von TI angehängt - dort wird wie üblich Quantization Noise für diese Art Rauschen/Verzerrungen benutzt.)

Das Video von Monty zu diesem Thema kenne ich auch schon lange, es ist wahrscheinlich eines der besten, anschaulichsten und informativsten Videos dazu, vielleicht das beste überhaupt vor allem durch seine sehr entspannte und sachliche Art der Präsentation.
 

Anhänge

  • adcs-types-of-noise-in-adcs-presentation.pdf
    2,9 MB · Aufrufe: 0
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Hier liegt wahrscheinlich ein Missverständnis vor. Bitte beachte den Kontext in meinem Post #24. Dort ging es um die Lokalisation von Schallereignissen im Stereobild. Dabei spielen neben Pegelunterschieden Laufzeitunterschiede zwischen den beiden Stereokanälen eine wichtige Rolle (nicht bei Koinzidenz-Stereomikrofonie, aber bei allen Stereoanordnungen mit Abständen zwischen den beiden Stereo-Hauptmikrofonen, z.B. ORTF, EBS, AB, usw.).
Bei einer Samplerate von 44,1 kHz können solche Laufzeitunterschiede zwischen den beiden Kanälen mit mindestens einer Vierundvierzigtausendstelkommaeinssekunde zeitlichen Abstand erfasst werden da jede Vierundvierzigtausendstelkommaeinssekunde ein Sample aufgezeichnet wird.
Nein, kein Missverständnis.

Laufzeitunterschiede zwischen Stereokanälen hängen selbst digitalisiert mit "nur" 44,1kHz nicht von der Samplingrate ab. "Mindestens" hattest du eben gerade nicht geschrieben.

Schaut euch das Video von Monty an.
Da ist genau gezeigt, wie "Transienten" in einem der Kanäle eben auch in beliebigen Zeitpunkten zwischen den Samplezeitpunkten dargestellt werden können, somit Laufzeitunterschiede zwischen den 2 Stereokanälen eben auch mit "bloß" 44,1kHz deutlich genauer als bloß mit deinen angegebenen "Vierundvierzigtausendstelkommaeinssekunde" dargestellt werden können.

Unabhängig von der Samplerate.

Grüße
 

Ähnliche Themen

XaserIII
Antworten
0
Aufrufe
13K
XaserIII
XaserIII

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben