Aufnehmen: 44,1 kHz / 48 kHz / 96 kHz?

Noch eine Anmerkung zum weiter oben erwähnten FM7 von native Instruments der bei 96 KHz besser klingt. ...
ich kenne dieselbe Unterstellung bei klassischen Wavetable-Sounds (Waldorf/PPG)
Das 'besser' ist eine willkürliche Zuordnung aufgrund bestimmter Annahmen (s. o.)
Klanglich entscheiden aber Geschmack und Anwendung... da gibt es nicht wenige Fälle, in denen eine 'klinisch reine' Synthese einfach nur langweilig klingt.
Was für viele zeitgemässe Produktionen nach meiner (subjektiven) Einschätzung ebenfalls gilt.

cheers, Tom
 
Klanglich entscheiden aber Geschmack und Anwendung... da gibt es nicht wenige Fälle, in denen eine 'klinisch reine' Synthese einfach nur langweilig klingt.
Was für viele zeitgemässe Produktionen nach meiner (subjektiven) Einschätzung ebenfalls gilt.
In Sachen Klangsynthese kenne ich mich zu wenig aus, das ist nicht mein Bereich. Aber ich kann deine Aussage trotzdem sehr gut nachvollziehen, denn oft sind es gerade die "Dreck-"Effekte, die den echten Spaßfaktor bringen.
So gebe ich meinen alten Lexicon-"Alex" Effektprozessor für den Live-Einsatz um nichts in der Welt her. Mit seinen 16 bit PCM (immerhin!) und einer Samplerate von 31,25 KHz (und daher einem "Wet"-Frequenzgang von 20 Hz - 15 KHz +1/-3dB) klingt der so herrlich LoFi und ´charaktervoll´, da kommt kein High-End-Gedöns mit :D.
 
ähnliches gilt für das Rocktron Intellifex, meines Wissens das einzige Effektgerät, das einen Philips TDA1541 Wandler einsetzt.
http://www.dutchaudioclassics.nl/philips-tda1541.asp
Das Teil klingt einfach grandios musikalisch und wid teilweise für 60€ verramscht. Lachnummer... ;)
 
Noch eine Anmerkung zum weiter oben erwähnten FM7 von native Instruments der bei 96 KHz besser klingt. Ich sehe es so, dass hohe Samplefrequenzen in der Klangsynthese eine andere Bedeutung haben als beim Recording. In der elektronischen Klangerzeugung spielen elektronisch generierte Signale wie Rechteck- und Dreieck-Schwingungen eine große Rolle. Eben diese Kurvenformen erfordern aber eine möglichst große Bandbreite um digital sauber abgebildet werden zu können.
Genau. Außerdem werden diese Wellenformen noch vielfältig moduliert. Nicht umsonst lässt Roland ihre VA's jetzt bei 96 kHz laufen. Ob bzw. inwieweit intern noch höher oversampled wird, weiß ich nicht.
Bei FM wird besonders viel moduliert und da passiert halt viel im hochfrequenten Bereich. Und es geht ja nicht darum, dass wir, Menschen, über 20 kHz quasi nicht mehr hören, sondern darum, dass bei Begrenzung der Sampling-Rate auf 44,1 kHz es schwierig ist Artefakte mittels Anti-Aliasing abzufangen. Manchmal kann etwas Schmutz ganz scharmant sein, manchmal ist er unerwünscht und störend. Und es kommt natürlich auf die Algorithmen an, wie das gehandhabt wird und was sich dann daraus klanglich ergibt.
Eckige Wellenformen benötigen streng genommen unendliche Sampleraten. Alles darunter sind Kompromisse, allerdings je höher die Sampling-Rate, um so geringer Abweichungen vom Ideal. Und klar, das menschliche Gehör kann diese Ecken nicht in ihrer Deutlichkeit wahrnehmen, und Lautsprecher können es nicht wiedergeben, es geht aber eben um die Signalverarbeitung dazwischen, und im Fall von Synthesizern oder ähnlich arbeitenden Effekten wird halt etwas mehr frequenztechnisches "Headroom" benötigt, um möglichst sauber zu arbeiten.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Moinsen!

Ich muss hier noch mal eingreifen. Hier wird stellenweise mit einigem durcheinander gewürfelt was absolut zu trennen ist.
Als erstes die Bitrate.
Hier sollte man wirklich mit der höchsten zur Verfügung stehenden Bitrate aufnehmen. Wenn möglich mit 24 Bit! Wenn man weiß wie die Bits auf eine Audio CD kommen, dann weiß man auch, das nicht die angegebenen 16 Bit dort landen sondern weniger, da man salopp gesagt immer ungenutzte Bits dazwischen hat. Recordet man nun mit 24 Bit, so hat man auch keine realen 24 Bit aber beim herunter konvertieren auf die 16 der CD hat man dann dort die vollen 16 Bit ohne Verluste. Das passiert beim Dithering. Kann man dann auch gern unter dem Fachbegriff nachlesen.

Der andere Aspekt ist die Sample Rate und die daraus folgende Conversion.
Auch wenn hier mit dem Messer zwischen den Zähnen behauptet wird, das es besser ist nur in 44,1 kHz aufzunehmen, gibt es trotzdem gute Gründe höher zu recorden. Klar für den Homerecordingstandard wird es reichen. Wenn man aber professioneller arbeitet und im Class A produziert, der hat auch andere Signalketten und Equipment wo es durchaus etwas bringt. Und wenn man im Filmsegment arbeitet ist es heute schon Standard 96 oder sogar schon 192 kHz zu produzieren.
Wenn man so wie ich vorher nicht weiß ob der Kunde nicht doch noch eine DVD oder sonstiges Videomaterial haben will, nimmt man schon mal vorsorglich (so man dann auch gleich Video mit produziert, was bei mir des Öfteren vorkommt) in höheren Sampleraten auf. Außerdem kommen da dann auch die Höhenwiedergabe besser bei rum, da die Filterkurven nicht so steilflankig sind.

Man sollte sich aber auch weiterhin im Klaren sein, das man dann auch intern mit Sequenzern arbeitet die ganz andere Wandlereigenschaften haben. Vielleicht wandelt man ja auch extern wie mit Saracon Sampling Frequency Converter.

Aber für die meisten ist das eh egal, weil die Hardware vor der DAW und auch dahinter eben das Budget einer Luxuslimousine verschlingen.

Greets Wolle
 
Hi nochmals @LoboMix
Diesmal denk ich zuerst nach und schreib dann. ;)
Da du so viel Zeit investiert hast auf meinen Beitrag zu antworten, bekommst du auch eine Antwort.
Und ich glaub hab etwas gefunden, wo ich etwas an Wissen beisteuern kann.

Es geht um diese Absätze:
Ein kleines Experiment auf der analogen Ebene lässt mich aber erneut über die Sinnhaftigkeit hoher Sampleraten eines ganzen Projektes zweifeln, mindestens bringt es mich sehr ins Grübeln.
Bekanntlich kann man ja mit der Überlagerung (sowohl elektrisch als auch akustisch) von zwei Frequenzen eine neue Frequenz erzeugen, die der Differenz der beiden gemischten Frequenzen entspricht. So funktionieren bestimmte Subbass-Register bei Pfeifenorgeln wo man mit zwei gleichzeitig erklingenden in Quinten gestimmten Pfeifen die Unteroktave der tieferen Pfeife klingen lassen kann [...]
Ich wollte wissen, was eventuell zwei Ultraschallfrequenzen anrichten können und habe deshalb in ein kleines Mischpult (selbst Billigteile gehen heute linear bis 50-60 KHz) einmal 25 KHz in Kanal 1 und 25,1 KHz in Kanal 2 gegeben und in Mono zusammen gemischt (dasselbe dann auch noch mit 30 und 30,1 KHz und weiteren Kombinationen.
Ich war recht erstaunt, wie laut und deutlich der resultierende 100-Hz-Ton da heraus kam (und jegliche anderen Kombinationen, z.B. 1 KHz bei 25 und 26 KHz, 5 Khz bei 25 und 30 KHz usw.).

Dabei möchte ich den Sachverhalt mit diesen "Zusätzlichen Tönen" nochmals klären, weil ich bin mir nicht sicher ob du das ganz richtig verwendest.

Grundsätzlich spricht du hier nämlich drei Effekte an:
- 1. Residualtöne. Der Grund warum wir auf einem Küchenradio auch E-Bässe hören. Diesen Effekt nutzt man auch bei der Orgel. ..wenn auch etwas rudimentär. Hierbei entstehen allerdings keine zusätzlichen Frequenzen unsere Signalverarbeitung im Hirn macht daraus nur "mehr". -> Linearer Prozess.
- 2. Summen- und Differenzfrequenzen. Sobald man ein (leicht) nichtlineares System hat entstehen diese. Bei rein linearen Systemen entstehen diese nicht! -> Nichtlinearer Prozess
- 3. Schwebung bzw. interpretation von zwei Sinusschwingungen:
Wenn man die Schwingung: y = cos(w1*t) + cos(w2*t) hat (also einfach zwei separate Sinuse mit unterschiedlichen Frequenzen - in diesem Fall der Einfachheit halber gleich die Kreisfrequenz omega),
kann man diese mathematisch auch zur Form y = 2*cos((w1-w2)/2*t)*cos((w1+w2)/2*t) umrechnen (siehe auch hier).
Das ist aber immer noch komplet das gleiche Signal, und besteht auch weiterhin aus den gleichen Frequenzen (nämlich w1 und w2) aber optisch kann uns die 2. Version intuitiver erscheinen.

Eigentlich gibt es noch einen Punkt 4: Nichtlinearität der Gehörschnecke, diese ist nämlich auch ein nichtlineares System und produziert deshalb selbst die unter 2. angesprochenen Summen und Differenzfrequenzen. Die kann man auch hören, wenn man drauf achtet.

btw. bei deinem Bsp. von 25 und 30kHz ist die entstehende Hüllkurve übringes 2.5kHz.
Du hast von Betragsmax zu Bestragsmax gemessen.
Miss besser von Nulldurchgang bis Nulldurchgang das ist eine halbe Periode (wie bei einem einfachen Sinus).
Du hast eine "ungünstige" Phasenlage der beiden Signale zueinander erwischt (beide sinus). Bei allen anderen Phasenlagen zueinander würde man das klarer sehen, was ich anspreche.

LG
Jakob
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Klar kann man Musik auch mit 22 kHz und 12 bit machen, wie im zweiten Beitrag angedeutet. Das wird dann aber auch als Lo-Fi bezeichnet.

Es geht nicht darum die Musik bei diesen Parametern "zu machen", das ist die Realität in der die ganze (kommerzielle) Musik ihr Ende findet. Schlechte Wiedergabesysteme (Abspielgeräte, Boxen, Ohrstöpsel-Kopfhörer), MP3, Konsum unterwegs in Bus, Bahn und Auto. Da bleibt nix (!) von irgendwelchen audiophilen Formaten und Hi-Fi.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
@Jakob, danke für die Korrekturen, da kann ich nur von lernen!
In der Tat sind die von dir präziser beschriebenen Residualtöne etwas anderes als der von mir durch Mischung erzeugte Ton. Ich hätte das mit der Pfeifenorgel besser als Analogie benennen sollen.
Was meine Messung angeht, kann ich mich nur selber zitieren: "Wer misst, misst Mist" - beim nächsten mal passe ich besser auf.
Die aus der Mischung entstehenden Töne sind allerdings ganz real und sehr deutlich wahrnehmbar.

Mit meinen Einlassungen möchte ich selbstverständlich niemanden indoktrinieren oder jemandem etwas aufschwatzen. Es soll jeder selber entscheiden, mit welcher Samplerate er aufnimmt oder seine Projekte anlegt. Die angesprochene Fragestellung interessiert mich aber schon länger aus verschiedenen Zusammenhängen heraus. Und anders als die Frage der Bit-Tiefe für Aufnahmen, die für mich schon lange und eindeutig mit "24 bit" beantwortet ist, fand ich und finde ich nach wie vor keine ebenso einleuchtenden und nachvollziehbaren Argumente, bei meinen Projekten (Klassik-Genre, "klassische" akustische Instrumente/Orchester/Chor - nur maximal CD, kein Video, keine SACD) über 44,1 KHz hinaus zu gehen. Andere Paramter wie Mikrofon-Qualität, sorgfältige Positionierung der Mikrofone, vor allem auch die Raumakustik haben für mich bisher die erheblichsten Einflüsse auf die Qualität der Ergebnisse gehabt. Dagegen konnte ich bei der Samplerate (bisher) keine vergleichbaren und überhaupt wahrnehmbaren Einflüsse feststellen.
Für andere mag sich das allerdings ganz anders darstellen.

Die einfache so dahin geworfene Aussage "96 KHz ist besser als 44,1/48 KHz" hat für mich die gleiche ´Qualität´ wie "viel hilf viel", "mehr PS sind immer besser", "haben wir immer so gemacht" ...
Aussagen wie "ich höre, dass 96 KHz besser sind" betrachte ich ebenfalls mit großer Skepsis, dazu ist mir schon zu viel "Goldohren-Bullshit" im Internet begegnet.
Möglicherweise gibt es sogar Nachteile bei höheren Auflösungen je nach Workflow und Zielmedium und vielleicht wäre es ein guter Rat, Ultraschallfrequenzen im Projekt generell zu vermeiden. Vielleicht ist es auch in den meisten Fällen schlicht egal.
Aber es wäre einfach schön, stichfeste Beweise zu haben und ganz präzise eingrenzen zu können, an welcher Stelle was genau richtig, gut oder unsinnig und nachteilig ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich war lange Zeit (mit E-Bass und Gitarre) bekennder 16bit Fan und bin das auch heute noch.
Bei den (Neben)Geräuschpegeln dieser Instrumente ist jede höhere Datenrate sinnfrei.
Allerdings: aus organisatorischen Gründen (bzw je nach DAW) bleibt man ggf beim 24bit Format, um die Sache einfach zu halten.

Mikrofonaufnahmen akustischer Quellen stellen sich ganz anders dar, speziell wenn es um leise Signale geht. Da lässt sich bei 24bit mit digitalem gain (bei Bedarf) einiges wettmachen.
Mein Audient ID22 hat im höchsten Regelbereich das typische plötzlich ansteigende Rauschen der meisten Vorstufen. Also drehe ich es etwas zurück und erhöhe stattdessen das digitale Signal, was im Endeffekt ein etwa 3dB besseres Signal-Rauschverhältnis ergibt (iirc).
Im Grunde werden dabei nur bits verschoben, je 6 dB eine Stelle Richtung höherwertig.
(die Anwendung bezieht sich auf dynamische Mikrofone, die praktisch kein Eigenrauschen haben)

cheers, Tom
 
Jede sorgfältig aufgenommene und gemasterte CD beweist, dass es für die Distribution auch nicht nötig ist, über 16 bit hinaus zu gehen. Die damit (theoretisch) maximal erreichbaren 96 dB Dynamikumfang kann man sowieso nicht annähernd ausschöpfen beim Abhören. Wer es schafft, zu hause mehr als 60 dB Abhör-Dynamik zu realisieren, der darf sich glücklich schätzen (und dürfte dafür schon einiges investiert haben müssen). Von den Lineal-platt komprimierten akustischen Erzeugnissen ganz zu schweigen.
Die mit 16 bit erreichbaren 65.536 Abstufungen der Dynamik sind offensichtlich (müsste eigentlich offenhörlich heißen) auch ohne Fehl und Tadel.

Aber bei der Aufnahme soll man ja bekanntlich rund 12 dB Headroom einhalten, wobei es sein kann, dass im Konzert, wenn das Orchester so richtig in Fahrt kommt, da noch mal ´eine Schippe drauf gelegt´ wird, und dann sind es womöglich nur noch 6 dB Headroom, also will man im Zweifel lieber noch mehr Headroom lassen. Großzügig geschätzt liegt ein Konzertsaal mit Publikum auch wenn es "still" ist schon bei ca. 30 dB und ebenfalls (sehr) großzügig geschätzt kommen am Hauptmikrofon beim Orchester-ffff vielleicht 120 dB an. Dann gäbe es tatsächlich gut 90 dB Dynamik, die man ´einfangen´ müsste. Bei 12 dB nicht angetasteten Headroom kann es da schon knapp werden, denn da 1 bit 6 dB Dynamikstufe entspricht, blieben dann aufnahmetechnisch nur 84 dB (=14 bit) übrig und man hätte "nur" noch 16.384 Abstufungen. Wenn es dann wirklich leise werden würde (pppp) und das Orchester nur noch knapp über dem Saal liegen würde, sagen wir mal 36 dB über dem Saal (errechneter Unterschied zwischen ffff und pppp ist hier lediglich 48 dB), dann hätten die leisen Stellen bei der Aufnahme nur noch 6 bit und damit wirklich nur noch 64 Abstufungen.

Mit 24 bit sieht die Welt schon ganz anders aus, denn nun stehen 16.777.216 Abstufungen zur Verfügung und die theoretische Dynamik-Obergrenze liegt bei 144 dB. Faktisch wird keiner freiwillig in ein Konzert gehen, wo 144 dB SPL erreicht werden, d.h. er geht nur einmal und dann nie wieder - weil es danach taub ist. Aber wenn wir das auf das oben betrachtete Beispiel anwenden, dann wird der Vorteil schnell klar. Ausgesteuert wird wieder mit 12 dB Headroom, dann bleiben noch 22 bit und 132 dB Dynamik übrig (wenn der Hedaroom nicht ausgenutzt wird). Für das Orchester im ffff mit 120 dB hätten wir dann 22 bit = 4.194.304 Zahlenwert-Abstufungen. Wenn die Passagen im pppp nun sogar 60 dB leiser sind als die im ffff, dann müssen wir 10 bit abziehen und wir haben immer noch 12 bit = 4.096 Abstufungen. Da ist dann sogar immer noch Luft nach unten.

Nun könnte man einwenden, dass selbst die besten Wandler (derzeit) nur effektiv 120 dB Dynamik schaffen weil sie nun mal nicht nicht rauschen können, und damit blieben eigentlich selbst bei 24-bit-Wandlern nur effektive 20 bit übrig. Aber tatsächlich geht es um den Umfang des zur Verfügung stehenden Zahlenraums und der bleibt selbstverständlich bei 24 bit = 16.777.216
Wie gut ich den ausnutze, hängt nur von der Aussteuerung ab. Wenn die Peaks tatsächlich bei 0 dBFS (faktisch aber besser nie über -0,1 dBFS!) liegen, nutze ich den kompletten Zahlenraum aus. Und bei 12 dB Headroom eben 22 bit. Da stört es nicht, wenn Signale ab -124 dB im Rauschen untergehen (das man bei gar nicht hören kann). Um noch einen Irrtum anzusprechen: Selbst diese ultraleisen Signale, die über die untersten 6 bit nicht hinaus kommen, sind nicht verloren, sie werden nur sehr stark vom Rauschen (und den Verzerrungen des Quantisierungsrauschen) überlagert. Die Nulldurchgänge lauterer Signale gehen ebenfalls nie verloren oder werden "zerstört", die werden durch die Abtastung exakt digital aufgezeichnet und später bei der D/A-Wandlung wieder sauber analog rekonstruiert wie man auf einem Oszilloskop gut sehen kann.

Insgesamt ist das Quantisierungsrauschen bei 24 bit wesentlich geringer weil die Schall-Kurven enger erfasst werden können (255,6 x feiner als bei 16 bit). Wenn man später sorgfältig mastert, einen eventuell zu großen Dynamikumfang angemessen auf die maximal machbare Abhör-Dynamik anpasst und die lautesten Peaks bei -0,1 dBFS legt (und damit die Dynamik zum einen besser im 16-bit Raum verteilt und zum anderen diesen auch vollständig ausnutzt) und dann auch noch sauber dithert, dann gehen bekanntlich sogar die eventuell ursprünglich eingefangenen bombastischen 120 dB Dynamik in die 96 dB der CD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 3 Benutzer
Da stört es nicht, wenn Signale ab -124 dB im Rauschen untergehen (das man bei gar nicht hören kann)
Kleine Korrektur, es muss natürlich heißen: "... wenn Signale ab -120 dBFS im Rauschen untergehen ..."
 
Jetzt hat ein wenig gedauert, aber darauf möchte ich doch noch antworten:
Die aus der Mischung entstehenden Töne sind allerdings ganz real und sehr deutlich wahrnehmbar.
Du meinst der 2.5kHz Ton aus der Mischung 25kHz+30kHz ist hörbar?
Das wär cool, weil damit hörst du die Nichtlinearität deiner Ohren oder deiner Audio-Analge. :)
Falls die Anlage nicht verzerrt, dann sind es eindeutig deine Ohren und es wär ein netter Beweis,
warum man mit mehr als 44,1/48kHz aufnehmen sollte.
Immerhin entsteht dieser Ton auch beim live anhören.

Zum Thema Dynamik:
Ich möchte noch hinzufügen, dass 120dB nicht gleich 120dB sind. Das hängt stark vom Crestfaktor ab.
Beim Orchester fff (beliebig "f" hinzufügen) mag man schon mal 120dB haben, aber vermutlich liegt der peak da noch ordentlich drüber, also vielleicht bei 130-140dB (auch wenn da die Einheit dB nur bedinngt sauber ist).

und dann auch noch sauber dithert, dann gehen bekanntlich sogar die eventuell ursprünglich eingefangenen bombastischen 120 dB Dynamik in die 96 dB der CD.
Das hängt davon ab, wie man Dynamik definiert. :D
Max zu Noise-floor bleibts bei den grob 96dB.
Aber du hast schon recht, dank unserer Signalverarbeitung im Hirn hören wir auf noch Signale im Rauschen. :)

LG
Jakob
 
Zuletzt bearbeitet:
Du meinst der 2.5kHz Ton aus der Mischung 25kHz+30kHz ist hörbar?
Wie man im Oszilloskop-Screenshot sehen kann, liegt der Scheitelwert der Ultraschallfrequenzen am Ausgang des Pults bei 19 Volt, sie sind also sehr hoch ausgesteuert (den maximal-Pegel bei Vollaussteuerung dieses Pults müsste ich erst noch nachmessen).
Es sollte also nicht verwundern, wenn man den entstehenden 2,5 KHz-Ton hören kann. Wenn die Ultraschall-Frequenzen bei -80 dBFS liegen, was realistischer sein dürfte (wenn es da überhaupt etwas gibt), dann liegen eventuelle Kombinationstöne im Pegel noch darunter ,wenn nicht weit darunter, sind also unhörbar.
Mein Beispiel kann infolgedessen nicht als aus der Praxis stammend angesehen werden. Mit kam es eher darauf an zu zeigen, dass es dieses Phänomen überhaupt gibt und dass man die Ursache (die Ultraschallfrequenzen) selbst dann nicht gehörsmäßig kontrollieren könnte, wenn diese im Pegel bei Vollaussteuerung liegen würden. Im Spektrogramm würde man diese immerhin optisch angezeigt bekommen.

Zum Thema Dynamik:
Ich möchte noch hinzufügen, dass 120dB nicht gleich 120dB sind. Das hängt stark vom Crestfaktor ab.
Beim Orchester fff (beliebig "f" hinzufügen) mag man schon mal 120dB haben, aber vermutlich liegt der peak da noch ordentlich drüber, also vielleicht bei 130-140dB (auch wenn da die Einheit dB nur bedingt sauber ist).
Meinen Rechenbeispielen lag 0 dBFS (also der Full-Scale-Wert des Wandlers) als Referenzpunkt zugrunde, da dieser Wert stets den maximalen Wert des 2-er-bit-Zahlenraums darstellt, egal ob es 8, 16 oder 24 bit sind. Wenn der Wandler übersteuert wird, hat er über diesen Punkt hinaus keine Werte mehr zur Darstellung des Signals zur Verfügung und produziert dann unmittelbar nur noch Zahlen-Quatsch, der als das sicher allseits bekannte heftige Zirpen zu hören ist.
Deshalb schrieb ich auch:
Wie gut ich den ausnutze, hängt nur von der Aussteuerung ab. Wenn die Peaks tatsächlich bei 0 dBFS (faktisch aber besser nie über -0,1 dBFS!) liegen, nutze ich den kompletten Zahlenraum aus.
Es darf also kein Sample über 0 dBFS liegen, bei einer Samplerate von 44,1 KHz sollte es also nicht mal für eine 44,1-tausendstel Sekunde darüber liegen.
Insofern war meine Angabe eines maximalen Pegels von 120 dB SPL schon als Peak-Wert gedacht und nicht als gemittelter Wert. Damit wäre sicher gestellt, dass die 12 dB Headroom (entspricht 2 bit) tatsächlich nicht ausgenutzt würden, bzw. wirklich die 12 dB als echter Puffer übrig bleiben.
Tatsächlich habe ich mal eine Angabe von "nur" 100 db SPL gefunden, die ein großes Sinfonieorchester als Peak liefern kann (ohne Entfernungsangabe, ich gehe aber mal von dem üblichen 1m-Abstand aus - die Stereo-Hauptmikrofone stehen üblicherweise nie so nah, da kommt dann noch weniger an). Meine 120 dB waren sicher schon eine sehr, sehr großzügige Annahme.

Aber du hast schon recht, dank unserer Signalverarbeitung im Hirn hören wir auch noch Signale im Rauschen. :)
Das kann nicht nur unser Ohr, ein Spektrums-Analyser hört/sieht die Signale auch im Rauschen, - wobei die Rezeptoren im Innenohr und die nachgeschalteten Hirnbereiche tatsächlich in ihrer Funktionsweise der Arbeitsweise eines Spektrum-Analysers gar nicht so unähnlich sind. Fakt ist ja, dass das Rauschen sich stets über einen großen Frequenzbereich verteilt und die gehörten Signale typischerweise bestimmten Frequenzen zugeordnet sind. Da das Ohr für den maßgebenden Bereich seiner größten Empfindlichkeit einzelne Cilien (Härchen) für einzelne Frequenzen hat, kann es durch deren Resonanz diese Frequenzen detektieren und aus dem Rauschen heraus erkennen.
Ein Spektums-Analyser zerlegt das zu analysierende Frequenzband in kleine Frequenzbänder, der "Resolution Band Width" (RBW, z.B. 1 KHz 100 Hz oder weniger usw.), bzw. tastet den Frequenzbereich mit der RBW-Auflsöung ab. Dadurch bleibt im RBW nur noch der Rauschanteil übrig, der dem Anteil des RBW am zu analysierenden Frequenzband entspricht, z.B. 1/1000-tel oder nur noch 1-Millionstel oder noch weniger usw.. Wenn es im RBW eine konkrete Frequenz gibt, wird diese dann auch zuverlässig detektiert, auch wenn sie möglicherweise nur bei -140 dB liegt.
Nur durch die präzise und ausschließliche Abstimmung auf die konkrete Sendefrequenz kann ein Handy überhaupt eine Funkverbindung zu einem einen Kilometer entfernten Sendemast aufbauen und auch nur auf diese Weise kann ein GPS-Empfänger die extrem schwachen Signale der Satelliten empfangen: Die "RBW" ist genau die eine Frequenz und für das ganze Rauschen darum herum ist der Empfänger sozusagen taub.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Wenn die Peaks tatsächlich bei 0 dBFS (faktisch aber besser nie über -0,1 dBFS!) liegen

Vorsicht, selbst -0,1dBFS reichen bisweilen nicht als Sicherheitsmarge um Intersample-Peaks und damit Verzerrungen bei der D/A Wandlung zu vermeiden.

Deshalb schrieb ich auch:
Es darf also kein Sample über 0 dBFS liegen, bei einer Samplerate von 44,1 KHz sollte es also nicht mal für eine 44,1-tausendstel Sekunde darüber liegen.

Genauer: der aus den Samples interpolierte Pegel (True Peak) darf nicht drüber liegen. :) Wenn man 0dBFS im Samplematerial erreicht, produziert man mit an Sicherheit grenzender Wahrscheinlichkeit Intersample-Peaks über 0dBFS.
 
Ui, habt gerade nur wenig zeit, aber es sei mal kurz gefragt:

Was ist denn an einem "Intersample-Peak" (ich vermute das soll ein maximum zwischen zwei Abtastzeitpunkten im D/A gewandelten Analogsignal sein?
"Problematisch"? Wieso sollte der da zerren?!?

Gibt es hier belastbare (gemessene oder zumindest theoretisch) fundierte Aussagen? Denn so wirkt das für mich wie ein "Schlagwort" ohne Brisanz...
--- Beiträge wurden zusammengefasst ---
Wie man im Oszilloskop-Screenshot sehen kann, liegt der Scheitelwert der Ultraschallfrequenzen am Ausgang des Pults bei 19 Volt, sie sind also sehr hoch ausgesteuert (den maximal-Pegel bei Vollaussteuerung dieses Pults müsste ich erst noch nachmessen).
Es sollte also nicht verwundern, wenn man den entstehenden 2,5 KHz-Ton hören kann. Wenn die Ultraschall-Frequenzen bei -80 dBFS liegen, was realistischer sein dürfte (wenn es da überhaupt etwas gibt), dann liegen eventuelle Kombinationstöne im Pegel noch darunter ,wenn nicht weit darunter, sind also unhörbar.

ehh kannst du nochmal kurz sagen auf welche Bilder du dich beziehst? Ich kann gerade nicht mehr folgen. Irgendwie wirkt das gerade undurchsichtig :)









Nur durch die präzise und ausschließliche Abstimmung auf die konkrete Sendefrequenz kann ein Handy überhaupt eine Funkverbindung zu einem einen Kilometer entfernten Sendemast aufbauen und auch nur auf diese Weise kann ein GPS-Empfänger die extrem schwachen Signale der Satelliten empfangen: Die "RBW" ist genau die eine Frequenz und für das ganze Rauschen darum herum ist der Empfänger sozusagen taub.

Das nur ganz grooob... Also üblicherweise nutzt man hier PLLs, die einen Träger suchen... das ist erstmal nix "analyser-mäßiges". Die Rauschunterdrückung im "gefundenen HF-Signal" geschieht das meist mit matched-Filtern. Das ist im Grunde auch keine wirkliche "Frequenzfilterung", wie wir sie als Audios kennen... also die Welt "Digitaler Funk" funktioniert nochmal etwas anders....
 
Was ist denn an einem "Intersample-Peak" (ich vermute das soll ein maximum zwischen zwei

Abtastzeitpunkten im D/A gewandelten Analogsignal sein?

Korrekt. Samples sind ja nur point-in-time, diskrete Abtastwerte.

"Problematisch"? Wieso sollte der da zerren?!?

Weil D/A-Konverter bisweilen nicht genügend Interpolations-Headroom (idealerweise mindestens 3dB) haben.

https://www.masteringthemix.com/blogs/learn/inter-sample-and-true-peak-metering
https://benchmarkmedia.com/blogs/application_notes/intersample-overs-in-cd-recordings
https://www.indexcom.com/whitepaper/zerodbfsplus/ (Achtung, unten sind weitere Kapitel
aufzuklappen - schrottiges Hipster-Webdesign... aber einer der besten Artikel die ich
bislang dazu gesehen habe).

Zum Thema True Peak gibts auch ne ITU-R Recommendation:
https://www.itu.int/rec/R-REC-BS.1770/en
siehe dort Appendix 1 to Annex 2 "Considerations for accurate peak metering of digital audio signals".

Nein, das ist kein Snake Oil Unfug. :)

Und ja, selbst große Produktionen von Chart-Top10 Künstlern werden bisweilen 0dBFS-normalisiert (oder -0.01dBFS als ob das helfen würde)

gemastert *kopfschüttel*. Einfach mal zwei Dutzend aktuelle Pop/Rock-Produktionen rippen und in die DAW ziehen und mit nem Plugin wie TL

Audio MasterMeter (bei Pro Tools dabei) analysieren... da wird einem schlecht. Erstellt ne schöne Liste von inter-sample Peaks. Von den

Produktionen die bereits digital clippen ganz abgesehen... gibts auch genügend.
 
Das Intersample-Peak Thema hat auch interessante Implikationen bei Limitern, siehe die ersten 5 Minuten in:

 
  • Gefällt mir
Reaktionen: 1 Benutzer

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben