Wo die Analogtechnik der Digitaltecnik wirklich überlegen ist

  • Ersteller engineer
  • Erstellt am
engineer schrieb:
Leider falsche Schlussfolgerung. Mit 96kHz aufzunehmen heisst nicht, daß man höhere Analogfrequenzen im Ultraschall erfasst. Die Filter sind auch dann auf das Audiospektrum eingestellt. Der zusätzliche Abstand zwischen Audiobandende und Aufzeichungsfrequenz hilft aber, den hochfrequenten Bereich besser abzubilden, da man die Verzerrungen, die Filter produzieren leicht in den unhörbaren Bereich legen und auch weniger verzerrende Filter verwenden kann.

Die Filter sind bei einem 96 kHz Wandler auf 95 kHz angestellt, man nimmt den Ultraschall mit auf! Und den höherfrequenten Bereich bis 23 kHz nehmen beide gleich gut auf! Die Fehler, die die Filter produzieren sind in beiden Fällen <120 dB im Bereich <23 kHz.

Die Tatsache, daß sich dies nicht so stark äussert, liegt einfach daran, daß die meisten Lautsprecher mies sind, die meisten Leute nach oben eingeschränkt sind, und sehr hohe Freuqenzanteile in der Musik nicht so oft vorkommen bzw dessen Anteil einfach klein ist - siehe Spektrumanalyse eines WAV.
Die Fähigkeit hohe Töne zu hören nimmt mit dem Alter stark ab.

Messtechisch ist der Unterschied aber frapiierend! Auf gutem Eqipment und intaktem Gehör sind Unterschiede z.B: im "s" deutlich zu erkennen.

Was Du bei der Klassikmusik aber auch benötigst: http://www.musikerforum.de/vbulletin/showthread.php?t=3201

Es geht um was anderes: Die Gehörkurven sind vermutlich mit einem Sinus ermittelt worden, den man halt bei 25 kHz nicht mehr bewusst wahrnimmt. Aber ein Sinus mit 20 kHz, der nur 1 ms lang ist und exponentiell abklingt, enthält auch Spektralanteile > 25 kHz. Kann sein, dass das Gehör in der Lage ist zeitlich so gut aufzulösen und dafür diese Anteile mit wahrnimmt, aber nicht bewusst als Ton.
 
Carl schrieb:
Das Nyquist Theorem gilt immer und exakt!

Das muss nicht so sein !

"In der Praxis der Veröffentlichungen kommt auch die Erscheinung vor, dass der Begriff des Theorems nicht im herkömmlichen Sinne verwendet wird. Es tritt nämlich auf, dass nicht aus Axiomen logisch abgeleitete und bewiesene Aussagen als Theoreme bezeichnet werden, sondern beliebige Lehrsätze, die nur z.B. innerhalb einer experimentellen Prüfung eines Systems gewonnen wurden"

Nyquist-Theorem

--------------------------------------------------------------------------------

Von H. Nyquist neu postuliertes Theorem (das auf Überlegungen von Kotelnikov zurück geht). Es besagt, dass kein Informationsverlust eintritt, wenn ein periodisches Signal mit der doppelten Signalfrequenz abgetastet und anschließend wieder aus den so gewonnenen Signalproben zurück gewonnen wird.

Topo :(
 
Muss mich einerseits korrigieren, es ist das 'Nyquist Shannon Theorem' und laut (deutschem) Wikipedia besagt es folgendes:

Das Abtasttheorem besagt, dass ein kontinuierliches, bandbegrenztes Signal mit einer Minimalfrequenz von 0 Hz und einer Maximalfrequenz fmax mit einer Frequenz größer als 2 · fmax abgetastet werden muss, damit man aus dem so erhaltenen zeitdiskreten Signal das Ursprungssignal ohne Informationsverlust (aber mit unendlich großem Aufwand) rekonstruieren bzw. (mit endlichem Aufwand) beliebig genau approximieren kann.

Sprich, je näher man an Fabtast/2 kommt, desto größer ist der Zeitraum, den man betrachten muss, was logisch ist.

Würde dieses Throrem nicht stimmen, würde garnix gehen, die komplette Nachrichtentechnik basiert darauf...

Bisher habe ich noch keinen Beweis dagegen gesehen, meines Wissens wurde auch keiner gefunden, nur ein kleiner Haufen Audioenthusiasten leistet erbitterten Widerstand...

Das amerikanische Wikipedia hat sogar den mathematischen Beweis mit im Artikel, es lässt sich also auf die Axiome der Mathematik zurückführen:
http://en.wikipedia.org/wiki/Nyquist-Shannon_sampling_theorem

Ich versuch gerade mit Mathematika ein paar Plots zu machen, mit denen man das gut erklären kann.

Carl

topo schrieb:
Das muss nicht so sein !

"In der Praxis der Veröffentlichungen kommt auch die Erscheinung vor, dass der Begriff des Theorems nicht im herkömmlichen Sinne verwendet wird. Es tritt nämlich auf, dass nicht aus Axiomen logisch abgeleitete und bewiesene Aussagen als Theoreme bezeichnet werden, sondern beliebige Lehrsätze, die nur z.B. innerhalb einer experimentellen Prüfung eines Systems gewonnen wurden"

Nyquist-Theorem

--------------------------------------------------------------------------------

Von H. Nyquist neu postuliertes Theorem (das auf Überlegungen von Kotelnikov zurück geht). Es besagt, dass kein Informationsverlust eintritt, wenn ein periodisches Signal mit der doppelten Signalfrequenz abgetastet und anschließend wieder aus den so gewonnenen Signalproben zurück gewonnen wird.

Topo :(
 
.Jens schrieb:
Die Aussage hatte ich so von ihm nicht verstanden. Muss ich nochmal in Ruhe lesen.

Ich hatte das so verstanden (und da bin ich mit ihm einer Meinung):
In der mathematischen Herleitung bei Nyquist und Shannon hat in der Tat der gesamte "Signalweg" (wenn man das in einer rein mathematischen Betrachtung so nennen will) eine gemeinsame Zeitbasis. Unabhängige (oder rekonstruierte) Clocks, gar schwankende oder leicht auseinanderlaufende Clocks sind da nicht vorgesehen. M.a.W.: die Zeit wird von der analogen Aufnahme über die Wandlung bis hin zur wieder analogen Wiedergabe nie "losgelassen".

Das führt nicht zu dem Schluss, dass eine phasenstarre Kopplung von Quelle und Ziel nötig wäre. ABER es führt dazu, dass implizite Aussagen in der Beweisführung in der Praxis nicht erfüllt sind. In der Folge ist das Nyquist-Theorem in der Praxis nicht in seiner mathematischen Strenge haltbar. Soll heißen: Es KANN gelten, muss aber nicht EXAKT sein, wenn man sich z.B. der Nyquistfrequenz nähert.
Da man es in der Praxis mit kausalen Filtern mit einer endlichen Antwortzeit zu tun hat, gibt das eben in der Nähe der Nyquistfrequenz Probleme.
Das ist in der Praxis nicht zwingend relevant, z.B. wenn man die typischen 10% Reserve einhält (44,1kHz Samplingfrequenz -> Übertragungsbandbreite 20kHz statt 22,05...). Und einige der Probleme lassen sich durch Tricks wie Oversampling und digitale Filterung umgehen.

Man muss aber aufpassen und darf auf das Nyquist-Theorem nicht "blind vertrauen" - nicht, wenn Voraussetzungen nicht gegeben sind...


Das ist z.B. auch so ein Punkt, der bei Nyquist nicht vorkommt. Also eher ein Argument GEGEN die blinde Anwendung des Nyquist-Theorems. Das entspricht nämlich einer Tiefpassfilterung mit einer Charakteristik, die sehr von der konkreten Implementierung abhängt und mathematisch nicht exakt fassbar ist.



Ich sehe aber schon: ich muss den Artikel nochmal gründlich lesen, meine Erinnerung an das erste Lesen ist für diese Diskussion nicht mehr ausreichend.. :)

Zu Erstererem (Phasengleichheit):

Es geht nicht um die Korrelation und Konstanz der Samplingraten bei Aufnahme und Wiedergabe, sondern um den konstruierten Fall, daß eine 44,1 kHz - Aufnahme genau die beiden Nulldurchgänge einer 22,05 kHz - Sinusschwingung "erwischt".

Dieser Fall kann a) nicht eintreten (wegen der notwendigen Tiefpaßfilterung bei einer Eckfrequenz < 22,05 kHz) und b) wäre das völlig egal, weil der Zeitpunkt des "Sample & Hold" nicht punktförmig ist sondern genau 1 / 44100 Sekunde beträgt. Somit wird IMMER (!) erfaßt, daß es sich um eine positive und und um eine negative Halbwelle gehandelt hat. Wenn Du willst, kann ich Dir sogar den Betrag ausrechnen, aber da muß ich erst die Formel raussuchen (ist nicht exakt der Durchschnitt, weil es sich um einen Sinus handelt) - wenn ich mich recht entsinne, dann müßten auf einer Skala von -1 bis +1 am Ausgang des ADC die Werte +0,707 und -0,707 anliegen (1 / Quadratwurzel aus 2).

Was Letzteres betrifft:

Das mit der Filterung ist überhaupt eine Grundlage, um das Nyquist - Shannon - Theorem überhaupt "nutzen" zu können. Du liest es verkehrt herum. ;)

Um Samplen zu können muß das Signal überhaupt in samplingfähiger Form vorliegen, also keine höheren Frequenzen aufweisen. Sind solche Frequenzen vorhanden, dann kann das elegant durch Tiefpaßfilterung in der analogen Domäne vorgenommen werden.

In der Praxis wird das sogar noch besser gemacht - durch Oversampling und Delta - Sigma - Wandlung. Und das geht so:

1. Signal wird analog tiefpaßgefiltert mit Eckfrequenz von, z.B., 44,1 kHz - z.B. mit 72 dB / Oktave (das ist genug, dadurch bleiben die Phasenprobleme im Rahmen)
2. Signal wird mit sehr hoher Samplingrate abgetastet, z.B. 2 MHz
3. Signal wird digital gefiltert, evtl. sogar mit FFT - Filtern
4. Signal wird in übliches 24 Bit - Format gewandelt
5. Evtl. noch nachgeschaltete Filterstufe

Dem Nyquist - Shannon - Theorem kann man sehr wohl vertrauen, aber nur, wenn einem bewußt ist, daß es auch so Dinge wie "Ultraschall", "Phasenverschiebungen durch Tiefpaßfilter" und "Oversampling" gibt.
 
Naja, besser aber noch nicht ganz richtig...

Nav schrieb:
Zu Erstererem (Phasengleichheit):

Es geht nicht um die Korrelation und Konstanz der Samplingraten bei Aufnahme und Wiedergabe, sondern um den konstruierten Fall, daß eine 44,1 kHz - Aufnahme genau die beiden Nulldurchgänge einer 22,05 kHz - Sinusschwingung "erwischt".

..was bedeutet, dass sich eine zufällig zwischen 0 und Umax liegende Spannung ergibt. Daher muss auch Fabtast GRÖßER als 2*f sein. Sagen wir mal, dass f nur 1/10 Hz drunter liegt, dauert es 10 sec. um das Signal zu rekonstruieren. Ist auch logisch, denn wenn sich das Signal schneller ändern würde hätte es Anteile im Spektrum die wieder > Fabtast/2 wären...

Nav schrieb:
Dieser Fall kann a) nicht eintreten (wegen der notwendigen Tiefpaßfilterung bei einer Eckfrequenz < 22,05 kHz)
Nach der Digitalisierung mit mehreren MHz und verminderter Auflösung.

Nav schrieb:
und b) wäre das völlig egal, weil der Zeitpunkt des "Sample & Hold" nicht punktförmig ist sondern genau 1 / 44100 Sekunde beträgt. Somit wird IMMER (!) erfaßt, daß es sich um eine positive und und um eine negative Halbwelle gehandelt hat. Wenn Du willst, kann ich Dir sogar den Betrag ausrechnen, aber da muß ich erst die Formel raussuchen (ist nicht exakt der Durchschnitt, weil es sich um einen Sinus handelt) - wenn ich mich recht entsinne, dann müßten auf einer Skala von -1 bis +1 am Ausgang des ADC die Werte +0,707 und -0,707 anliegen (1 / Quadratwurzel aus 2).
Meeep... Denkfehler. Vergiss sample-hold, denn das hat auch schon einen recht bescheidenen Frequenzgang (den eines Rechtecksignals, sprich Kammfilter!) Deswegen nimmt's keine Sau. Und du hast den Fall genommen, in dem es von der Phase passen würde, aber trotzdem allgemein wieder ein Signal am Ausgang das zufällig zwischen 0 und 0,707 deines Signals hätte. Die 0,707 von dem Frequenzgang deines Kammfilters, das dir den Frequenzgang deines Nutzspektrums auch gehörig verbiegt!
Denk mal an den Fall, dass dein Sample/Hold zufällig die ersten und letzten 180 Grad eines cosinus statt sinus integriert.


Nav schrieb:
Was Letzteres betrifft:

Das mit der Filterung ist überhaupt eine Grundlage, um das Nyquist - Shannon - Theorem überhaupt "nutzen" zu können. Du liest es verkehrt herum. ;)
Das Theorem kann man immer nutzen, es sagt nur aus, dass dann Käse heraus kommt. Das Spektrum wird gefaltet, wenn bei einer Abtastfrequenz von 48 kHz ein 40 kHz Ton rein kommt, kommt er bei 8 kHz wieder raus... Nicht ganz das, was man will... (Selbiges gilt für Töne auf 56 kHz, 88 kHz...)


Nav schrieb:
Um Samplen zu können muß das Signal überhaupt in samplingfähiger Form vorliegen, also keine höheren Frequenzen aufweisen. Sind solche Frequenzen vorhanden, dann kann das elegant durch Tiefpaßfilterung in der analogen Domäne vorgenommen werden.

In der Praxis wird das sogar noch besser gemacht - durch Oversampling und Delta - Sigma - Wandlung. Und das geht so:

1. Signal wird analog tiefpaßgefiltert mit Eckfrequenz von, z.B., 44,1 kHz - z.B. mit 72 dB / Oktave (das ist genug, dadurch bleiben die Phasenprobleme im Rahmen)
2. Signal wird mit sehr hoher Samplingrate abgetastet, z.B. 2 MHz
3. Signal wird digital gefiltert, evtl. sogar mit FFT - Filtern
4. Signal wird in übliches 24 Bit - Format gewandelt
5. Evtl. noch nachgeschaltete Filterstufe
Naja, fast richtig.

Nav schrieb:
Dem Nyquist - Shannon - Theorem kann man sehr wohl vertrauen, aber nur, wenn einem bewußt ist, daß es auch so Dinge wie "Ultraschall", "Phasenverschiebungen durch Tiefpaßfilter" und "Oversampling" gibt.

'Vertrauen' ist gut, es ist mathematisch bewiesen. Und mit Ultraschall hat es erst mal nix zu tun, geht bei GHz genauso. Phasenverschiebungen im Audioband machen solche A7D Wandler nur minimalst und Oversampling ist zwingende Voraussetzung um solche Systeme zu bauen.
 
Machen wir mal weiter:
"Die zuvor genannten Fehler, die durch den mangelnden Abstand zwischen Abtastrate und Nutzsignal verursacht werden, sind mit der A/D-Wandlung fester Bestandteil jedes Digitalsignals. Sobald wir allerdings damit beginnen, das digitale Signal zu mischen, zu bearbeiten oder sonst wie zu verändern, werden diese Probleme weiter vergrößert.
Das Mischen zweier digitaler 24-Bit-Signale läßt sich am Beispiel einer Addition zweier Zahlen mit einem Wertebereich von jeweils 0-100 verdeutlichen: Das Ergebnis dieser Addition kann zwischen den Werten 0 und 200 liegen. Bezogen auf unsere zwei Digitalsignale bedeutet dies, dass für die vollständige Abbildung der Addition beider 24-Bit-Worte ein Wort mit 25 Bit erforderlich ist. Vier Signale mit 24 Bit benötigen bei der Summierung bereits 26 Bit - und so weiter. Je mehr Einzelkanäle wir addieren möchten, um so mehr Bits werden benötigt; erreichen wir dabei die Auflösungsgrenze unseres Digitalsystems, so müssen bei jeder weiteren Verdoppelung der Kanalzahl ein Bit wegwerfen, wodurch der nutzbare Dynamikbereich natürlich reduziert wird. Die negativen Auswirkungen dieses Effektes werden durch die Bereitstellung höherer interner Rechentiefen, also beispielsweise 24 Bit im I/O-Bereich und 32 Bit im eigentlichen Signalprozessor, zwar heute bis in die Größenordnung von 256 Kanälen wieder aufgefangen. Allerdings werden die einzelnen Kanäle in der Regel bei einer Mischung natürlich nicht alle mit einheitlichem (Voll-) Pegel addiert, sondern mit individuell unterschiedlichen Pegeln entsprechend dem persönlichen Geschmack des Anwenders. Dies heißt aber nichts anderes, als dass der Pegel der Einzelsignale und damit seine Auflösung vor der Mischung reduziert wird. In der Praxis wird vermutlich kein einziges der zu mischenden Signale mit Vollpegel in die Mischung eingerechnet; für die anteilig niedrigsten Pegel innerhalb eines Mischsystems steht dabei die kleinste Auflösung zur Verfügung. "

Hier hat er sich auch ein Ei gelegt...
Erst mal ein paar Grundlagen: Angenommen wir mischen zwei mal ein Rauschsignal mit 1V RMS. Auf 2 fader, analog, was kommt raus?
Falsch gedacht, raus kommt ein Signal mit sqrt(2) = 1,41 V RMS. Selbiges gilt für Audio, wenn man nicht genau phasen- und frequenzgleich ist.
Wenn ich also 256 Kanäle mit verschiedenen Signalen und je 1V RMS zusammenmische, dann bekomme ich ein Signal mit 16V RMS, es addieren sich nämlich die Leistungen.
Kann man sich so vorstellen: Überlegt mal ein Stück Metall, die Elektronen bewegen sich zufällig, angeregt durch die Umgebungstemperatur, im Atomgitter. Es bewegen sich natürlich nicht immer allen genau so gegensätzlich, dass zu jedem Zeitpunkt sich der Strom aufhebt. Im zeitlichen Mittel sicherlich, aber nicht in jedem Moment. heraus kommt ein zufälliges Signal, das thermische Widerstandsrauschen. Jetzt hat das im Mittel im Audioband 1µV RMS, aber nichts spricht dagegen, dass einmal in der Menschheitsgeschichte alle 10 hoch 25 Elektronen für 1ms in die selbe Richtung schwingen und die Rauschamplitude 1000V ist? Dass es so unwahrscheinlich wie ein Kropf ist. Aber genauso werden die 256 Kanäle am Mischpult nie alle ihr positives Maximum haben.
Fazit: genauso wie beim Mischpult 16V reichen um 256 mal 1V zusammenzuaddieren, genauso reichen 8 Bit overhead beim digitalen Mischpult für 65536 Kanäle:D .
Und zum rauschen: Das ist überall da, beim analogen Mischpult ist das thermische Widerstandsrauschen des Faders da, bei einem 10k Widerstand 1,8 µV RMS, also 114 dB S/N bei 1V RMS Eingangssignal. Wenn man mit dem Fader begrenzt, wird das Signal kleiner, das Rauschen nicht.
Digital passiert dasselbe, nur dass das Quantisierungsrauschen bei 24 Bit -144 dB hat, also noch mal um den Faktor 10 kleiner ist. (Woraus man eines ableiten kann: Um die 144 dB zu schaffen müsste ein Micro 1 V Pegel schaffen und das bei einem Innenwiderstand von 12 Ohm, nur dann rauscht es weniger als -144 dB. Viel Spaß beim reinbrüllen:D ). Alternativ kann man auch Micro, Preamp, sich selbst und die Luft drumherum auf inter 1 Kelvin kühlen. Wenn man es schafft, dass das flüssige Helium nicht zu sehr blubbert, kann man auch die 144 dB schaffen.

Also Fazit: die Rauschquellen beim analogen Mischpult sind physikalisch bedingt größer als das Quantisierungsrauschen bei 24 bit digital (um 30 dB) und ein analoges Mischpult hat, wenn es denn 115 dB S/N schaffen will, maximal "4 Bit" headroom, während ein Computer bei 32 bit mal schnell 8 hat.
 
"Gehen wir von einem Signal mit 24 Bit Auflösung aus, bei dem die letzten 4 Bit aufgrund der eingangs erwähnten physikalischen Limitierungen bei der A/D-Wandlung ohnehin fast ausschließlich aus Rauschen bestehen. Wird dieses Signal bei der Mischung um 6 dB im Pegel reduziert, dann stehen uns netto noch 19 Bit Auflösung zur Verfügung; wird das Signal dagegen lediglich mit -30 dB zugemischt, dann haben wir es mit einer Netto-Auflösung von nur noch 15 Bit zu tun, liegen also bereits unterhalb unseren viel verschmähten Auflösung von 16 Bit. In diesen Wertebereichen liegen die realen Verhältnisse, die üblicherweise bei einer Mischung eingestellt werden. Wohlgemerkt: Es geht hier nicht in erster Linie um die auf diese Weise reduzierte Dynamik des Signals, sondern um die Tatsache, dass der Klirrfaktor in der Digitaltechnik mit kleiner werdenden Pegeln zu- statt wie in der Analogtechnik abnimmt."

OK, warum die letzten 4 Bit wackeln kann man sich denken: keiner will seinen A/D Wandler mit Stickstoff oder Helium kühlen (wird bei Mikrowellenempfängern, die z.B. den Marsroboter empfangen sollen, tatsächlich gemacht). Aber ob ein Widerstand jetzt in dem analogen Mischpult rauscht oder vor dem A/D Wandler... Nur: ein analoges Mischpult hat mehr davon, in einem Digitalsystem gibt's nur die vor dem A/D und nach dem D/A. Da addieren sich nicht etliche.
Wenn wir also von den 24 Bit (144 dB) 4 bit abziehen (120 dB), dann 6 db weniger weil nicht voll ausgesteuert (114 dB) und dann um 30 dB runterfaden (84 dB), haben wir noch 84 dB Schön! Klirrfaktor, da im Gegensatz zu OpAmp schaltungen, die nichtlineare Elemente einsetzen, hier mathematisch exakte Teilung durchgeführt wurde, ist 0,006%. Wenn Wir jetzt überlegen, dass ein analoges Mischpult gerade mal 0,05% Klirrfaktor schafft und das Grundrauschen schon -114 dB vollausgesteuert ist, bleiben wenn man den Fader 30 dB runter zieht, noch 84 dB übrig, noch die 6 dB Headroom 78 dB. Dann kommt noch das thermische Rauschen der ganzen anderen auf 0 gedrehten Kanäle am Mischpult dazu, bei einem 256 Kanal Pult mal eben 24 dB weniger, also 56 dB... Und der Klirrfaktor ist durch die vielen OPamps deutlich höher.
Fazit: Die Physik hat gewonnen (thermisches Rauschen), zweiter ist das Digitalpult, das weniger rauscht.

Ach, hab ich schon erwähnt das jeder Operationsverstärker noch ein Schrotrauschen hat und umso mehr man davon hintereinander hat, umso mehr rauscht das auch noch mal...
 
"
Je leiser ein Signal in die Mischung gefahren wird, desto grober werden die 'Treppenstufen' auf der Amplitudenachse,
aus denen das Signal später wieder zusammen gesetzt wird, und desto
höher ist der dadurch entstehende, wiederum
disharmonische Klirrfaktor. Wie relevant
und hörbar das in der jeweiligen praktischen
Situation werden kann, hängt nicht vom Prinzip ab, sondern von der Zufälligkeit,
wie viel Pegel auf der Spur vorhanden
ist und mit welchem Pegel sie in die Mischung gelangt. Wenn wir davon ausgehen,
dass das wichtigste Distributionsmedium
für unsere Produktionen heute nach wie vor die CD ist, so ergibt sich daraus die Notwendigkeit, die Wortbreite unserer Mischung
letztendlich doch wieder auf 16 Bit zu reduzieren. Haben wir auf unserem Mix-Bus also beispielsweise eine Auflösung von 32 Bit zur Verfügung, von denen 29 vielleicht
tatsächlich genutzt wurden, so bleibt uns nichts anderes übrig, als die unteren 13 Bits des Signals zum Schluss wieder zu entfernen
- mit den beschriebenen Konsequenzen
für den Klirrfaktor der einzelnen Signale.
Zudem muss die Abtastrate zum Schluss auf die 'krummen' 44,1 kHz umgerechnet werden, und damit handeln wir uns gleich eine ganze Palette neuer potentieller Fehlerquellen
ein. Wenn von Beginn einer Produktion
an klar ist, dass das Ergebnis eine CD sein wird, ist es deshalb sicher eine gute Idee, von Anfang an mit einer später leichter
teilbaren Abtastrate von beispielsweise 88,2 kHz zu arbeiten."

Wieder mal falsch...
Die Treppenstufen bei 24 Bit liegen bei -144 db, also weit unter dem, was man überhaupt as Quelle hat. Da das lineare Operationen ohne Abweichung sind entsteht im Gegensatz zu analogen Verstärkern kein Klirren (außer dem Quantisierungsrauschen -144 dB), von dem vielleicht etwas weg kommt, aber nach 256 Rechenoperationen hat man immer noch 120 dB. Wenn ich am Ende 16 Bit haben will, bring ich das Signal zuerst auf den gewünschten Level um mein S/N aufs maximum zu trimmen und dann quantisiere ich auf 16 Bit -> kein Klirren, nur ein Grundrauschen von -96 dB. So what?
Wenn man das analog 10 mal vorwärts und rückwärts durch seine Anlage jagt, bleiben oft nicht mal die übrig. -> Blödsinn.

Opamps verursachen klirren, digitale Rechenoperationen nicht!​
 
"Digitale Filterung ist zweifellos die komplexere der beiden grundlegenden Signalbearbeitungs-Varianten. Stark vereinfacht betrachtet, beruht die Nachbildung einer mit einem Analogfilter erzeugten Entzerrungskurve in der Digitalebene darauf, die mathematischen Abläufe des analogen Vorbilds mit Hilfe einer entsprechenden Software auf die digitalen Audiosignale aufzurechnen. Dieser Vorgang ist im Vergleich zur Dynamikbearbeitung erheblich komplizierter, da beispielsweise eine glockenförmigen Filterung mit einer bestimmten Güte mathematisch nur sehr schwierig zu beschreiben ist."
-> Nein, Koeffizienten für die Berechnung von Widerstandswerten udn kapazitäten lassen sich mit einfachen Formeln direkt in Koeffizienten für digitale Filter umrechnen. Ein IIR Filter ist DAS EXAKTE DIGITALE ABBILD eines analogen Filters.

"Viele der dort verwendeten Gleichungen münden in Grenzwerte, bestehen also aus einer ganzen Kette mit Einzelgleichungen. Die exakte Abbildung einer gewünschten Filterkurve mit der benötigten hohen Auflösung in der Amplituden- und Zeitebene erfordert deshalb in der Digitalwelt eine sehr umfangreiche Software. Hier werden in der Praxis durch eine endliche Rechenkapazität und die Forderung nach der Echtzeitfähigkeit des Filters Grenzen gesetzt. Deshalb verwenden real existierende Algorithmen lediglich vergröberte Varianten der eigentlich erforderlichen Originalgleichungen, die nur die wichtigsten Parameter berücksichtigen. Bei einer digitalen Filterung wird unser ohnehin bereits mit Fehlern (siehe oben) behaftetes Digitalsignal also durch Rechenfehler weiter beeinträchtigt. Im Resultat nimmt die Signalqualität eines Digitalfilters mit steigender Filterfrequenz immer weiter ab; zudem ergibt sich aus den zugrunde liegenden mathematischen Zusammenhängen, dass beim Anheben bestimmter Frequenzbereiche mit einem digitalen Filter deutlich mehr hörbare Fehler auftreten als beim Absenken."

Diese Grenzwerte sind wenn dann bei FIR Filtern gegeben, die brauchen auch jede menge Rechenleistung. Sie ermöglichen beliebige Fitlerkurven, die analog garnicht zu realisieren sind. Und was sollen die wichtigsten Parameter sein:screwy: .
Die Rechenfehler sind ein Punkt, bei dem ich ihm bei IIR Filtern recht gebe. Wie ein Kondensator Elektronen speichert und so aufintegriert, passiert dasselbe im digitalen in Registern. Da kann dann bei niedriger Frequenz und hoher Güte ein sehr großer Wert zusammen kommen. Daher würde ich solche Filter mit 64 Bit rechnen, was auch oft gemacht wird. Wer da nicht aufpasst, handelt sich tatsächlich große Quantisierungsfehler ein. Aber da IIR Filter eh sehr wenig Rechenleistung brauchen, ist es kein Problem die mit 64 Bit zu rechnen. Und mit steigender Filterfrequenz nimmt die Signalqualität nicht ab, eher mit sinkender, denn da werden die Koeffizienten extrem klein!
Und klar, wenn ich ein Signal anhebe höre ich mehr als wenn ich es absenke, echt ein Schlauberger:screwy:
 
So, und um das alles richtig zu stellen was da falsch ist könnte ich noch 20 Stunden am PC Beiträge schreiben, aber ich hab ehrlich gesagt keine Lust mehr. Wenn, dann halte ich mal irgendwo eine Woche Seminar zum Thema Nachrichtentechnik Grundlagen.

Wäre da Interesse da?
 
Aaaalso, da ist jetzt soviel zusammengekommen, dass ich die Antworten etwas verteilen werde.

Carl schrieb:
Das Nyquist Theorem gilt immer und exakt!
Ja, aber nur genau dann, wenn ALLE Voraussetzungen des Beweises erfüllt sind. Und das ist in der Praxis gar nicht möglich: Integrationen von "minus unendlich" bis "plus unendlich" auf der Zeitachse - wie willst du das Umsetzen?
Man hat die Wahl (z.B. bei Filtern), entweder beidseitige Antwortfunktionen (digital) zu realisieren, dafür aber nur mit endlicher Dauer, oder aber quasi-unendlich, dafür aber nur Einseitig. Und genauso geht das weiter mit Filtern, die gar nicht exisitieren usw.

Da werden also etliche Voraussetzungen unterschlagen. WIE "falsch" das Theorem dann wird, ist damit nicht ausgesagt. Nur, dass es im mathematisch strengen Sinne nicht mehr oder zumindest nicht mehr exakt gilt. Ergo: Bis zu welcher Grenzfrequenz z.B. das Verfahren mit akzeptabler Genauigkeit funktionert, ist dann wieder Sache der Ingenieure, nicht der Mathematik.
Ich sage ja nicht "Nyquist lügt", sondern nur: "Wenn ich diese und jene Annahmen der Theorie nicht erfülle(n kann), muss ich mir NEU Gedanken machen, was das für Auswirkungen hat. Mit Glück: Gar keine. Aber diese verletzten Annahmen kann man nicht einfach mit dem Beweis des Theorems selbst wegwischen.

Man muss es nur verstanden haben und die Mathematik drum herum genauso.
Eben. Ich sehe nur das Problem, dass inzwischen nurmehr Zitate von Zitaten gelehrt werden und die Originalarbeiten im Wortlaut kaum einer mehr kennt oder sich die Mühe macht, da mal reinzusehen. Wenn man das nämlich tut, dann stolpert man sehr schnell über Annahmen, die sich nicht oder nur schwer erfüllen lassen.

Zu dem Fall:
a) Nyquist sagt BIS ZU der halben Abtastfrequenz. Was der Artikel behandelt ist also ein Sonderfall von genau der halben Abtastfrequenz, der in der Praxis nicht auftritt.
Soweit sind wir uns einig.

b) wenn man also den Fall nimmt, dass man statt 24 kHz 23,99 kHz nimmt, so muss man überlegen, dass ein kurzer Sweep der Frequenz wieder ein Spektrum hätte das über die 24 kHz hinaus geht.
Dazu braucht es keinen Sweep, sondern nur ein Signal (oder einen Signalanteil) endlicher Länge.

...aber wenn der D/A Wandler exakt denselben Frequenzgang hat wie der A/D Wandler
Das ist schon das erste Problem...

schwingt sich der Rekonstruktionstiefpass genau so auf, dass wieder genau exakt amplituden und phasengleich das selbe Signal raus kommt.
Das gilt so nah an der Nyquistfrequenz aber auch nur bei Filtern mit beidseitiger, unendlicher Antwortfunktion. Hat man reale Filter, ist der Fall mit 10Hz Abstand zur Nyquistfrequenz schon nicht mehr in Ordnung. Ein paar Prozent Reserve sollte man da schon gönnen...

Ist nicht leicht zu verstehen, aber ist so. Nyquist hat recht, und zwar immer!
Nyquist hat recht und immer, das stimmt. Er sagt aber selbst (in den Voraussetzungen), wo die Grenzen sind.
Unrecht haben diejenigen, die das Nyquist-Theorem immer nur halb zitieren und die wichtigen Teile weglassen.

Entgegen aller Gerüchte, die daraus resultieren dass man das nicht so leicht kapiert, und das selbst mit E-Technik Studium, hat man am Ende wirklich einen Frequenzgang schnurgerade bis 47,5 kHz, Klirren das schon im Grundrauschen von -120 dB untergeht und mit den 96 kSamples hat man wirklich bis zu den 47,5 kHz Amplitude UND Phase korrekt erfasst!
Ich habe auch nirgendwo gesagt, dass so etwas nicht möglich wäre. Nur muss man sich dazu diverser Tricks bedienen, und das Verfahren hat dann mit dem, was Shannon und Nyquist beschrieben haben, nicht mehr sehr viel zu tun. Allein schon die Anwendung von Oversampling muss man eigentlich mathematisch ganz anders beschreiben - und natürlich schiebt das (deswegen macht man's ja) die Probleme zu Frequenzen, bei denen wir im Audiobereich garantiert keinen Ärger mehr bekommen.

Jens
 
topo schrieb:
Von H. Nyquist neu postuliertes Theorem (das auf Überlegungen von Kotelnikov zurück geht). Es besagt, dass kein Informationsverlust eintritt, wenn ein periodisches Signal mit der doppelten Signalfrequenz abgetastet und anschließend wieder aus den so gewonnenen Signalproben zurück gewonnen wird.

Topo :(
Meine Rede. Von Signalen endlicher Länge ist da nicht die Rede, und es tauchen an diversen Stellen unendliche Integrale auf usw...

Genau das meine ich, wenn ich sage: Man darf Nyquist nicht blind (also ohne auf die Voraussetzungen zu schauen) vertrauen, wenn es um die praktische Umsetzung geht...

Klar, wenn ich z.B. sage: Ein Filter mit einer für 1/10 Sekunde "sauberen" Antwortzeit ist für unsere Zwecke nah genug an "unendlich", weil ich damit den Fehler auf unter XY Promille abschätzen kann, dann ist das für die Praxis durchaus ausreichend. Aber das Nyquist-Theorem ist da schon formal verletzt, und man muss diese Fehlerabschätzung eben MACHEN, die geht aus Nyquist nicht hervor.

Jens
 
Carl schrieb:
Sprich, je näher man an Fabtast/2 kommt, desto größer ist der Zeitraum, den man betrachten muss, was logisch ist.
Geeenau ;)
Da fangen die Probleme an, denn die Zeiträume, in denen die Antwortfunktion eines realen Filters mit der von der Theorie geforderten sinc-Funktion übereinstimmen, sind nunmal nicht beliebig groß. Und deswegen darf man auch entgegen Nyquist/Shannon nicht beliebig nah an die Grenzfrequenz herangehen, sondern muss sich Reserve lassen.

Würde dieses Throrem nicht stimmen, würde garnix gehen, die komplette Nachrichtentechnik basiert darauf...
Ich habe nicht gesagt, das Theorem wäre falsch. Ich habe nur gesagt, dass bei der Berufung auf das Theorem oft zu lax argumentiert wird.

Das amerikanische Wikipedia hat sogar den mathematischen Beweis mit im Artikel, es lässt sich also auf die Axiome der Mathematik zurückführen:
http://en.wikipedia.org/wiki/Nyquist-Shannon_sampling_theorem
Auch da stecken aber die kritischen annahmen mit drin, die in der Realität nicht gegeben sind.

Jens
 
Nav schrieb:
Es geht nicht um die Korrelation und Konstanz der Samplingraten bei Aufnahme und Wiedergabe, sondern um den konstruierten Fall, daß eine 44,1 kHz - Aufnahme genau die beiden Nulldurchgänge einer 22,05 kHz - Sinusschwingung "erwischt".
Den Fall mit exakt Fabtast/2 meine ich auch gar nicht. Darüber, dass DAS nicht funktionert, besteht ja Einigkeit.
Ich meinte: setz doch zwischen Sampling von f(t) und der Rekonstruktion mal einen Zeitversatz ein: f(t) -> AD -> DA -> f(t+tau). Und setz mal bei den Integralen die untere Integrationsgrenze von "- unendlich" auf "0" (Kausalität).
Heraus kommt eine etwas andere Theorie, die nur noch näherungsweise gilt. Wenn man es geschickt anstellt, ist diese Näherung sehr gut und man bekommt es hin, dass die Abweichungen unhörbar werden. Aber es ist und bleibt eine abweichende Beschreibung.

b) wäre das völlig egal, weil der Zeitpunkt des "Sample & Hold" nicht punktförmig ist sondern genau 1 / 44100 Sekunde beträgt.
Da verstehst du jetzt aber was "miss": S/H heißt eigentlich(!) exakt punktförmige Abtastung und Bereistellung dieses Abtastwertes für 1/Fabtast. Dass in Wahrheit noch akkumuliert wird, ist eine andere Sache und ist im simpelsten Fall einfach der Notwendigkeit des Anti-Aliasingfilters geschuldet.
Aber genau das meinte ich: eine "irgendwie"-Akkumulation des Samplingwerts ist eine nicht besonders gute Implementation eines AA-Filters. Also macht man das besser gut, und dann ist die Akkumulation ein zusätzliches Filter, was in der Theorie nicht vorkommt.

Somit wird IMMER (!) erfaßt, daß es sich um eine positive und und um eine negative Halbwelle gehandelt hat.
Irgendwer hat es hier schon geschrieben: nicht, wenn du von "Berg" bis "Tal" akkumulierst.
Den (konstruierten!) Fall mit der Abtastung der Nulldurchgänge gibt es bei jeder Implementierung. Das ist aber egal, weil nicht Praxisrelevant. Insofern können wir DIESES Schlachtfeld verlassen ;)

Das mit der Filterung ist überhaupt eine Grundlage, um das Nyquist - Shannon - Theorem überhaupt "nutzen" zu können. Du liest es verkehrt herum. ;)
Nein, s.o. ;) Ich hab das an der Stelle schon verstanden - wir reden da nur aneinander vorbei.

Um Samplen zu können muß das Signal überhaupt in samplingfähiger Form vorliegen, also keine höheren Frequenzen aufweisen. Sind solche Frequenzen vorhanden, dann kann das elegant durch Tiefpaßfilterung in der analogen Domäne vorgenommen werden.
Ist mir bekannt. Falls ich am Sampling noch irgendwas missverstehe: An der Stelle sicher nicht :D Das ist mein täglich Brot.

In der Praxis wird das sogar noch besser gemacht - durch Oversampling und Delta - Sigma - Wandlung. Und das geht so:
Auch hier schrieb ich schon mal: Das sind alles prima Verfahren, die aber mit Nyquist nur noch historisch zu tun haben. Allein Oversampling ist ein theoretisch wie praktisch ganz anderes Verfahren. Schreib's mal hin, das geht auf Grundlage von Shannon recht fix. Die Probleme bleiben dieselben - nur lassen sie sich in der Praxis besser handhaben. Zumindest für Audio.
z.B. bei Speicheroszilloskopen mit einigen GHz Bandbreite kann man sich den Luxus des massiven OS nicht mehr erlauben - und da stößt man dann genau an die Probleme in der Nähe der Samplingfrequenz, die so oft genannt werden. Da ist man nämlich den Abweichungen "Nyquist vs. Praxis" schutzlos ausgeliefert.


Dem Nyquist - Shannon - Theorem kann man sehr wohl vertrauen, aber nur, wenn einem bewußt ist, daß es auch so Dinge wie "Ultraschall", "Phasenverschiebungen durch Tiefpaßfilter" und "Oversampling" gibt.
Nur, wenn einem bewusst ist, welche Voraussetzungen man verletzt und wie man das mit eben den von dir genannten Kniffen in den Griff kriegt.

Jens
 
Carl schrieb:

Hier hat er sich auch ein Ei gelegt...
Erst mal ein paar Grundlagen: Angenommen wir mischen zwei mal ein Rauschsignal mit 1V RMS. Auf 2 fader, analog, was kommt raus?
Falsch gedacht, raus kommt ein Signal mit sqrt(2) = 1,41 V RMS.
Das ist schon richtig. Aber wenn wir immer nur die (gemittelten!) RMS-Pegel betrachten wollten, dann könnten wir uns auch schon beim Einzelsignal ein Bit sparen. Man muss schon sicherstellen, dass die Momentanwerte alle dargestellt werden können.

Wenn ich also 256 Kanäle mit verschiedenen Signalen und je 1V RMS zusammenmische, dann bekomme ich ein Signal mit 16V RMS, es addieren sich nämlich die Leistungen.
Im zeitlichen Mittel ja, aber die Peakamplituden addierein sich so, wie es Jüngling schreibt.

[...] Dass es so unwahrscheinlich wie ein Kropf ist. Aber genauso werden die 256 Kanäle am Mischpult nie alle ihr positives Maximum haben.
Fazit: genauso wie beim Mischpult 16V reichen um 256 mal 1V zusammenzuaddieren, genauso reichen 8 Bit overhead beim digitalen Mischpult für 65536 Kanäle:D .
Du hast vom Praxis-Standpunkt her (fast!) recht. Bei vielen Kanälen muss man sicher den Overhead nicht ganz so hopch ansetzen wie die Theorie es fordert, der in der Praxis erforderliche Overhead "sättigt" irgendwann.
Aber die Grundüberlegung ist schon richtig, und hier machst du den Denkfehler mit deiner Argumentation.
Denn: Du gehts von völlig unkorrelierten Signalen aus. Schon so etwas simples wie eine Mono-Mischung eines Stereosignals erfordert wegen der i.A. starken Korrelation einen Overhead wie Jüngling ihn beschreibt.

Wie gesagt: Bei steigender Kanalzahl kann man etwas lockerer werden. Aber nur deshalb, weil der Mensch Clipping von nur wenigen Samples Dauer nicht wahrnimmt.

Also Fazit: die Rauschquellen beim analogen Mischpult sind physikalisch bedingt größer als das Quantisierungsrauschen bei 24 bit digital (um 30 dB) und ein analoges Mischpult hat, wenn es denn 115 dB S/N schaffen will, maximal "4 Bit" headroom, während ein Computer bei 32 bit mal schnell 8 hat.
Da stimme ich dir zu. Ich gehe auch mit dem Fazit von Jüngling nicht einher "analog sei besser". Ich finde aber die Probleme der Digitaltechnik (absolut, nicht im Vergleich zu analogen Aufbauten) gut und richtig beschrieben. Man sollte solche Aussagen ruhig mal im Hinterkopf haben...

Jens
 
Deinem Post Nr. 47 stimme ich im Übrigen voll zu.
Hier macht Jüngling tatsächlich einen Denkfehler, weil wenn das Wandlerrauschen sich in den letzten 4 Bit niederschlägt, dann wird natürlich bei einer digitalen Pegelabsenkung hinterher der Rauschabstand erstmal nicht schlechter, weil das Wandlerrauschen mit abgesenkt wird.
Erst bei -24dB wird dann das Quantisierungsrauschen größer als die ursprünglichen 4 Bit.

Carl schrieb:
Wieder mal falsch...
Die Treppenstufen bei 24 Bit liegen bei -144 db, also weit unter dem, was man überhaupt as Quelle hat. Da das lineare Operationen ohne Abweichung sind entsteht im Gegensatz zu analogen Verstärkern kein Klirren (außer dem Quantisierungsrauschen -144 dB), von dem vielleicht etwas weg kommt, aber nach 256 Rechenoperationen hat man immer noch 120 dB. Wenn ich am Ende 16 Bit haben will, bring ich das Signal zuerst auf den gewünschten Level um mein S/N aufs maximum zu trimmen und dann quantisiere ich auf 16 Bit -> kein Klirren, nur ein Grundrauschen von -96 dB. So what?
Wenn man das analog 10 mal vorwärts und rückwärts durch seine Anlage jagt, bleiben oft nicht mal die übrig. -> Blödsinn.

Auch hier haste recht ;)
jens​

 
Carl schrieb:
So, und um das alles richtig zu stellen was da falsch ist könnte ich noch 20 Stunden am PC Beiträge schreiben, aber ich hab ehrlich gesagt keine Lust mehr. Wenn, dann halte ich mal irgendwo eine Woche Seminar zum Thema Nachrichtentechnik Grundlagen.

Wäre da Interesse da?
Vielleicht sollte man mal über ein Forumstreffen a la Keyboarder oder PA nachdenken. Da wäre sowas sicher nicht verkehrt.

Jens
 
Vielleicht sollte man mal über ein Forumstreffen a la Keyboarder oder PA nachdenken. Da wäre sowas sicher nicht verkehrt.
Auch ich habe schon versucht Carl zum PA-Treffen einzuladen,da ich ihm aber keinen kompetenten Gesprächspartner(auf diesem Gebiet) anbieten konnte,hat er dankend abgelehnt.;)
Jens ,wenn du dich noch entscheiden könntest zu kommen sehe die Sache schon ganz anders aus.
 
Das kann ich jetzt noch nicht sagen, das muss ich relativ kurzfristig entscheiden. Ich stecke gerade in der Promotion, da sind langfristige Termine ein Problem...
 
.Jens schrieb:
Das kann ich jetzt noch nicht sagen, das muss ich relativ kurzfristig entscheiden. Ich stecke gerade in der Promotion, da sind langfristige Termine ein Problem...

Und ich gerade mitten zwischen 2. Diplomarbeit und Promotion, daher hatte ich Rockopa so ziemlich dasselbe geantwortet...:)
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben