Kurze Frage zu Firewire-Interfaces - 96 kHz/192 kHz?

daenni
daenni
Registrierter Benutzer
Zuletzt hier
17.12.14
Registriert
01.06.07
Beiträge
196
Kekse
268
Ort
Gütersloh
Ich möchte von meinem Line 6 USB-Interface auf ein Firewire-Interface umsteigen, um mehr Audio-Leistung zu erzielen. Da ich zuhause keine 8 simultan nutzbare Analog-Eingänge brauche schwanke ich momentan zwischen zwei Interfaces im unteren Preissegment: Focusrite Saffire PRO 14 oder M-Audio Profire 610). Ersteres wird mit 24-Bit/96 kHz, das andere mit 24-Bit/196 kHz beschrieben. Inwieweit sollte ich die Daten berücksichtigen? Gibt es da spürbare unterschiede?

Hier noch die Links zu den zwei Interfaces:
https://www.thomann.de/de/focusrite_saffire_pro_14.htm
https://www.thomann.de/de/maudio_profire_610.htm

Vielen Dank! :)
 
Eigenschaft
 
Zuletzt bearbeitet von einem Moderator:
Ah, da hast du ein Wespennest getroffen!

Ich erzähl dir meine rationale Sicht der Dinge:

Stichwort: Nyquist-Theorem.

Kurz gesagt:
Um ein kontinuierliches Signal, welches aus mehreren Frequenzen besteht, digital abzutasten (also durch ein Treppen-Signal anzunähern), muss die Abtastrate (und damit die Dauer einer "Treppenstufe") doppelt so hoch wie die höchste vorkommende Frequenz sein.
Diese Frequenz nennt man die Nyquist-Frequenz. (http://de.wikipedia.org/wiki/Nyquist-Frequenz)
Sobald die Abtastrate gleich hoch wie die Nyquist-Frequenz ist, kann man das ursprüngliche Signal zu 100 % ident rekonstruieren.

Praktisches Beispiel:
Wenn du einen Sinuston von beispielsweise 500 Hz als Ausgangssignal A hast, genügt eine Abtastrate von 1000 Hz oder 1 kHz um aus dem so entstehenden digitalen Signal B wieder einen zu 100 % dem Ausgangssignal A entsprechenden 500 Hz-Sinuston C zu erzeugen.

Jetzt die große Frage:
Was ist die höchste vorkommende Frequenz bei einer Aufnahme?
Üblicherweise beschreibt man den Hörbereich des Menschen mit 16 bis 16000 Hz, junge und gute Ohren können durchaus bis 18000 Hz hinauf noch Töne wahrnehmen, auch bis 20000 ist möglich. Über 20000 Hz ist aber endgültig Schluss.

Demnach müsste man ein aufgenommenes Geräusch (allgemein) mit mindestens 40000 Hz (40 kHz) abtasten, um es zu 100 % reproduzieren zu können (die Frequenzen über 20000 Hz, die nun nicht mehr reproduziert werden können, hört man ja sowieso nicht).
Soweit zur Theorie.

Die übliche Abtastrate im Audiobereich (CD's...) liegt geringfügig darüber, bei 44100 Hz (44.1 kHz). Damit kann man von 0 bis 22050 Hz (22,05 kHz) zu 100 % reproduzieren.

Aus verschiedenen Gründen (technisch und historisch) verwendet man bei DVD's eine etwas abweichende Abtastrate, nämlich 48000 Hz (48 kHz). Damit kann man bis 24 kHz reproduzieren.

So hab ich das in meiner Messtechnik-Vorlesung gelernt und mir hat bis dato noch niemand glaubhaft klarmachen können, welchen (technischen) Vorteil eine nochmal verdoppelte (96 kHz)/vervierfachte (192 kHz) Abtastrate darstellt - außer einer verdoppelten/vervierfachten Datenmenge mit allen dazugehörigen Problemen (Speicherplatzverbrauch, Jitter im Digitalwandler, weniger zur Verfügung stehende Kanäle, ...)
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich will nicht anzweifeln, dass Du es theoretsich verstanden hast, aber das

Um ein kontinuierliches Signal, welches aus mehreren Frequenzen besteht, digital abzutasten (also durch ein Treppen-Signal anzunähern), muss die Abtastrate (und damit die Dauer einer "Treppenstufe") doppelt so hoch wie die höchste vorkommende Frequenz sein.
Diese Frequenz nennt man die Nyquist-Frequenz. (http://de.wikipedia.org/wiki/Nyquist-Frequenz)
Sobald die Abtastrate gleich hoch wie die Nyquist-Frequenz ist, kann man das ursprüngliche Signal zu 100 % ident rekonstruieren.

ist falsch ausgedrückt bzw. beschrieben. Lies am besten nochmal drüber, dann wird dir das bestimmt selbst auffallen. Sorry, aber mir fehlt iM die Zeit mehr zu schreiben.
 
Edit:
Hier korrigiert.
 
Zuletzt bearbeitet:
Immer noch nicht.

Die Niquist-F. entspricht der halben Abtastfrequenz.
 
Ah, dann hab ich da einen kleinen Verständnisfehler.

Hab mir die Literatur dazu grad durchgelesen, korrekterweise müsste es lauten:

Höchste vorkommende Frequenz f1 sei 20 kHz.

mit einer Abtastrate von 44.1 kHz beträgt die Nyquist-Frequenz fN 22,05 kHz.

Sofern f1 < fN, kann das Signal (bestehend aus u.A. f1) beliebig genau rekonstruiert werden.

Mit einer Abtastrate von 44.1 kHz kann man demnach ein Signal, das aus 0-20 kHz besteht, beliebig genau rekonstruieren.
 
Hallo, daenni,

ich würde mal für den üblichen Homerecording-Bereich behaupten, daß dies "Jacke wie Hose" ist ;) - bis sich für uns gewöhnliche Home- oder ein-wenig-live-Recordler wirklich durch die Verwendung von einer 192er-Abtastrate neue musikalische Welten eröffnen, gibt es da noch ganz viele andere Baustellen, die anzupacken wesentlich greifbarere Verbesserungen bringt. Viel wichtiger wäre es, daß die unterstützte Wortbreite 24 bit beträgt (es gibt immer noch einige Interfaces in der Budget-Klasse, die das nicht können).

Ich werde nicht in Abrede stellen, daß es bei einer entsprechenden hoch- bis höchstwertigen Aufnahmekette sinnvoll sein kann, 96 KHz oder gar die 192 KHz als Abtastrate zu benutzen. Allerdings würden wir dann nicht mehr über eine Aufnahmekette mit einem Saffire reden, sondern über ganz, ganz andere Preisbereiche...
Bei professionellen Klassikproduktionen sind die hohen Abtastraten durchaus gang und gäbe, das habe ich selbst mal vor Jahren als Teilnehmer an einer solchen Produktion beim anwesenden Tonmeister erfragt. Aber wie gesagt, das sind andere Spielplätze ;)

Langer Rede kurzer Sinn: Du kannst nach Belieben (gewünschte Features usw.) auswählen - eine ansprechende Qualität dürften beide von Dir genannten Interfaces liefern.

Viele Grüße
Klaus
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich werde nicht in Abrede stellen, daß es bei einer entsprechenden hoch- bis höchstwertigen Aufnahmekette sinnvoll sein kann, 96 KHz oder gar die 192 KHz als Abtastrate zu benutzen. Allerdings würden wir dann nicht mehr über eine Aufnahmekette mit einem Saffire reden, sondern über ganz, ganz andere Preisbereiche...
Bei professionellen Klassikproduktionen sind die hohen Abtastraten durchaus gang und gäbe, das habe ich selbst mal vor Jahren als Teilnehmer an einer solchen Produktion beim anwesenden Tonmeister erfragt.
Magst du mir seine Antwort bzw. andere Gründe für 96/192 kHz Abtastrate (so detailliert wie du kannst/willst) vielleicht per PN schicken?
Das würde mich tatsächlich interessieren.
 
Bei Abtastraten über 96 kHz arbeiten so gut wie alle DACs unsauberer (Rauschen, Klirr, IM, Restwelligkeit im Durchlassbereich, ...).

Kurz gesagt: 192 kHz fügt sinnlose Bandbreite hinzu und verschlechtert die Performanz.
 
Bei Abtastraten über 96 kHz arbeiten so gut wie alle DACs unsauberer (Rauschen, Klirr, IM, Restwelligkeit im Durchlassbereich, ...).

Ja: http://www.lavryengineering.com/pdfs/lavry-white-paper-the_optimal_sample_rate_for_quality_audio.pdf

Alles ueber 44.1kHz ist nur Marketing.
Zugegeben digitale Prozesse wie EQ und insbesondere nicht lineare dynamik bearbeitungen profitieren von hoeheren raten aber das kann man itb auch mit oversampling tun.

Es gibt auch das manche wandler bei einer bestimmten rate besser bzw am besten klingen. Viele argumentieren dann das man bei 96kHz den anti aliasing filter weniger steil halten muss (man kann zwar ein signal bis zur nyquist frequenz perfekt sampeln aber alles darueber wuerde zu aliasing fuehren deswegen muss man es raus filtern) dadurch, also den wenig steilen filter, klingt das ganze besser. das ist aber schwachsinn denn wer zwischen 20kHz bis 22.05kHz keinen roll-off von >120dB hinkriegen kann der wird auch bei allem anderen wichtigen adc design entscheidungen keine ahnung haben! wobei moderne adcs sind ja alle sigma delta da koennte mehr rate wirklich besseren sound liefern. aber wenn man das dann korrekt runter bringt auf 44.1khz sollte man keinen unterschied hoeren. ist aber bei manchen hochgehypten geraeten nicht so.
 
Alles ueber 44.1kHz ist nur Marketing.
die aussage halte ich für zu forsch. der unterschied von 44.1 zu 48kHz ist hörbar. das haben zB schon test von 1998 am Erich-Thienhaus-Institut ergeben: http://old.hfm-detmold.de/eti/projekte/diplomarbeiten/1998/seite10.html

das sind aber versuche unter optimalbedingungen, alles referenz-technik, vom mikron bis zum lautsprecher und der raumakustik im abhörraum. alles dinge, die man als homerecordler nicht hat, deshalb:
Die gut ausgewählte Positionierung und die Wahl eines geeigneten Mikrofons haben einen größeren Einfluss auf das klangästhetische Bild einer Aufnahme als die Wahl verschiedener Abtastraten.
 
die aussage halte ich für zu forsch. der unterschied von 44.1 zu 48kHz ist hörbar. das haben zB schon test von 1998 am Erich-Thienhaus-Institut ergeben: http://old.hfm-detmold.de/eti/projekte/diplomarbeiten/1998/seite10.html

Ich wuerde eher schaetzen dass man dort den unterschied zwischen den Wandelren, mit Namen Tascam DA-30 DAT-Recorder, dCS 902 D und dCS 952 (44.1kHz) und Lake People ADDAC F 45, Stage Tec XMAD/XDA, Daniel Weiss ADC1, SEK´D ADDA 2496 S (48kHz, 96kHz), hoert.
Wie ich schon gesagt habe hat man bei hoeheren Raten mehr Platz seinen filter arbeiten zulassen. Den kann man dann auch billiger bauen. Aber wenn man die reine rate vergleicht und nicht unterschiedliche umsetzer, sagen wir man nimmt alles mit 196kHz auf und samplet das dann itb auf 44k, 48k, 96k dann koennte da in noch keinem wissenschaftlichen test jemand nachweislich einen unterschied hoeren:
http://mixonline.com/recording/mixing/audio_emperors_new_sampling/
http://www.hificritic.com/downloads/Archive_A10.pdf
...
es ist sogar fakt das das ohr nur 20-20k schafft> http://people.xiph.org/~xiphmont/demo/neil-young.html

klar kann man schlechte gegen gut umsetzer antreten lassen und dann sagen: heureka!
aber das aendert nichts daran das man dann eher werbung machen sollte mit: "96kHz weil wir keine guten anti-aliasing filter fuer 44.1kHz umsetzer bauen koennen!"
 
Mit einer Abtastrate von 44.1 kHz kann man demnach ein Signal, das aus 0-20 kHz besteht, beliebig genau rekonstruieren.

Was meinst Du damit?

Die "Rekonstruktion" ist nicht beliebig, sie ist abhängig von der Abtastfrequenz.





Stimmt schon, dass bei Umsetzern bis in die Mittelklasse nicht unbedingt Vorteile durch höhere Abtastraten entstehen.


...das ist aber schwachsinn denn wer zwischen 20kHz bis 22.05kHz keinen roll-off von >120dB hinkriegen kann der wird auch bei allem anderen wichtigen adc design entscheidungen keine ahnung haben!


Hier steht "Ahnung haben" vs. marktwirtschaftliche Überlegung. Denn zum "hinkriegen" gehört Geld, verurssacht also Mehrkosten, welche sich auf den Endpreis auswirken und letztlich vom Kunden getragen werden müssten.



wobei moderne adcs sind ja alle sigma delta da koennte mehr rate wirklich besseren sound liefern. aber wenn man das dann korrekt runter bringt auf 44.1khz sollte man keinen unterschied hoeren. ist aber bei manchen hochgehypten geraeten nicht so.

Da würde ich nicht vom modernen, sondern vom klassischen Umsetzungsverfahren sprechen, Stichwort DSD.

Die Delta-Sigma-Umsetzung ( <- So rum ist's richtig ;) )bezieht sich auf die Wortbreite, was muss da auf 44.1 kHz "runtergebracht werden? Kann es sein, dass Du da was in eine Schublade steckst was nicht zusammengehört?


zugegeben digitale Prozesse wie EQ und insbesondere nicht lineare dynamik bearbeitungen profitieren von hoeheren raten aber das kann man itb auch mit oversampling tun.

Dabei wird aber ein bereits digitalisiertes Signal hochgerechnet um punktuell eine bessere/feinere Bearbeitung zu ermöglichen, das ist schon was anderes als bei der Analog-Digital-Umsetzung an sich.
 
Die "Rekonstruktion" ist nicht beliebig, sie ist abhängig von der Abtastfrequenz.

Er meinte "beliebig genau", d.h. die Genauigkeit der Rekonstruktion kann beliebig gewaehlt werden von lineare interpolation, ganz schlecht, bis perfekte sinc interpolation, perfekt.

Hier steht "Ahnung haben" vs. marktwirtschaftliche Überlegung. Denn zum "hinkriegen" gehört Geld, verurssacht also Mehrkosten, welche sich auf den Endpreis auswirken und letztlich vom Kunden getragen werden müssten.

Ja die Realitaet ist also man verwendet aus kostengruenden eine hoehere rate damit man weniger "stress" beim aa filter hat aber vermarktet und verkauft wird es als hoehere rate = besser.

Da würde ich nicht vom modernen, sondern vom klassischen Umsetzungsverfahren sprechen, Stichwort DSD.

Falls du mit DSD direct sream digital meinst das ist der groesste schwachsinn ueberhaupt, zumindest wenn man den stream noch irgendwie mit dsp bearbeiten will und bei der musik produktion will man das immer.
auch sonst ist dsd nicht toll: http://sjeng.org/ftp/SACD.pdf

Die Delta-Sigma-Umsetzung ( <- So rum ist's richtig ;) )

Kenner wie TI (http://www.ti.com/general/docs/lit/getliterature.tsp?literatureNumber=snaa098&fileType=pdf ), analog devices (http://www.analog.com/static/imported-files/tutorials/MT-022.pdf ), intersil (http://www.intersil.com/data/an/an9504.pdf ), etc. wissen das beides richtig ist.

bezieht sich auf die Wortbreite, was muss da auf 44.1 kHz "runtergebracht werden? Kann es sein, dass Du da was in eine Schublade steckst was nicht zusammengehört?

sigma delta bezieht sich nicht nur auf die wortbreite. Das ist ein komplettes verfahren: http://www.maximintegrated.com/app-notes/index.mvp/id/1870 und http://skywired.net/blog/2011/07/how-delta-sigma-works-anti-aliasing-advantage/ oder google
dabei gewinnt man durch oversampling und noise shaping snr im frequenzspektrum das von interesse ist. den 1bit sigma delta modulierten output mit sehr hoher rate muss man dann irgendwie wieder in pcm bringen. also braucht man einen aa filter. das ist der schritt wo das 64 fach oversampled signal in 2.8MHz gesamplet wird. da hier die nyquist frequenz bei 1.4MHz liegt kann man einfach einen filter bauen der bei 20KHz abrollt und der muss dann erst bei 1.4MHz bei -130dB sein. das ist viel einfacher. nun hat man sein signal digital aber mit 2.8MHz, jetzt kommt der teil wo man das runterbringen muss auf 44.1kHz. das problem ist man hat nicht unendlich rechenzeit und man will natuerlich auch niedrige latenzy also ist es wieder einfacher bei 96kHz zu filtern weil man mehr "platz" hat als in den 2kHz ueber 20kHz.

Ich glaube das waere so eine sache die der TE hoeren moechte, oder?
technisch bedingt ist es nicht moeglich die nyquist theory 100% in die praxis umzusetzen deshalb hat man kompromisse. diese bedeuten hoehere raten obwohl diese eigentlich nicht noetig sind.
Bearbeitet: ooops ich merke gerade diese frage zu den sampleraten kam erst im zweiten beitrag auf und stammt nicht vom TE. sorry.

Dabei wird aber ein bereits digitalisiertes Signal hochgerechnet um punktuell eine bessere/feinere Bearbeitung zu ermöglichen, das ist schon was anderes als bei der Analog-Digital-Umsetzung an sich.

ja. ich wollte nur ein beispiel geben wo hoehere raten wirklich etwas bringen. dabei geht es aber im wesentliching auch wieder um aliasing vermeidung oder bei eqs um frequenz prewraping und 0dB nyquist gain sachen.

Aber dennoch gute firmen koennen exzellente 44.1khz wandler bauen die man nicht von 96kHz oder gar 192khz wandler anderer firmen unterscheiden kann. aber leider hat sich dieser ganze zahlenwahn schon so bei den leuten festgestezt das mehr immer automatisch besser ist. siehe digital kameras und mega pixel, sie werden davon auch eher schlechter als besser wie diverse tests bewiesen haben.
aber dann scheint ja das neue besser schlechter zu sein wie einige studien zeigen in denen jugendliche mp3s besser finden als CD qualitaet. viellleicht ist das bei ADCs genauso leute finden schlechter (extrem hohe raten) besser.

Aber wir sollten dem TE glaube ich seinen beitrag zurueck geben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
um es etwas weniger Mathematisch-Technisch auszudrücken - ich habe das so gelernt/verstanden

Mit einer Abtastrate von 44.1 kHz kann man demnach ein Signal, das aus 0-20 kHz besteht, beliebig genau rekonstruieren.
ist ja soweit richtig, aber ein wichtiger Faktor fehlt bei der Aussage - für die Rekonstruktion wird Zeit benötigt, je genauer die Rekonstruktion sein soll, um so mehr Rechenzeit wird benötigt. Um eine 100%ige Rekonstruktion zu erreichen, braucht man unendlich viel Zeit. Also erhöht man die Abtastrate um bei gleicher Rechenzeit eine bessere Rekonstruktion zu erreichen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Am besten einen thread 44.1 vs. 48khz aufmachen, oder weshalb auch Mathematiker Aufwände und Distortion vermeiden sollten. :D
 
Hihi, kurze Frage, lange Antwort. :D

Ich selbst arbeite meistens mit 24/48, nicht weil ich die zwei kHz extra noch hören könnte, oder dem irgendwelchen Audiovoodoo zuschreibe, sondern weil ich meistens mit Hinblick auf Videomaterial arbeite, und da ist 48kHz eben der gängige Standard. Lieber alles zusammen so aufnehmen, wie man es braucht, und wenn doch nur eine CD draus wird, am Ende einmal runterrechnen. Wenn sich die Frage nach Video nicht stellt, genügt mir in der Praxis auch 44.1.
Ich hatte nur vor einigen Jahren ein Phänomen mit 96kHz, wo ein Software Synth offenbar direkt von der Samplerate des Projekts abhängig war und bei 96kHz völlig anders klang als bei 48 oder 44.1. Das war aber wohl ein Sonderfall. 96kHz können unter den richtigen Umständen (Treiber!) zumindest noch in einem Punkt einen Vorteil mitbringen, indem Latenzen gegenüber 48kHz nochmals halbiert werden können, was sehr angenehm sein kann bei Echtzeitnutzung von softwarebasierten Klangerzeugern und Effekten. Aber das ist wie gesagt auch vom Treiber abhängig, manche Treiber verlangen dann eine höhere Puffergröße, was den Zeitgewinn wieder zunichte macht. Bei 192kHz spätestens werden dann von allen (mir bekannten) Treibern größere Puffer verlangt, und man hat hier keinen weiteren Vorteil mehr.
Die 24 bit haben m.E.n. aber gegenüber den 16 bit durchaus ihre Berechtigung, allemal während Aufnahme und Bearbeitung.
 
Na gut, dann doch hier.

Hihi, kurze Frage, lange Antwort. :D

Ich selbst arbeite meistens mit 24/48, nicht weil ich die zwei kHz extra noch hören könnte, oder dem irgendwelchen Audiovoodoo zuschreibe, sondern weil ich meistens mit Hinblick auf Videomaterial arbeite, und da ist 48kHz eben der gängige Standard. Lieber alles zusammen so aufnehmen, wie man es braucht, und wenn doch nur eine CD draus wird, am Ende einmal runterrechnen.

Das weiß man eigentlich vorher, und es spricht nichts dagegen eine weitere CD Variante für das mastering zur Verfügung zu stellen.

Davon mal abgesehen sollte man ungerade Berechnungen generell vermeiden und von späterer DAW Wandlung ist allgemein eher abzuraten. Aber ich will jetzt keine leidige SRC Diskussion starten und deren Qualitätsunterschiede ausdiskutieren.

Also was tun, wenn man schlecht plant und im Homestudio keine vernünftigen und sündhaft teuren SRC parat hat? Die Antwort ist relativ simpel und praktisch.

Wer für broadcasting produziert kennt die Standards und man kann sich unnötige Konvertierungen sparen. Ebenfalls für Audio, also wird das Material auch entsprechend aufgenommen.
Alles andere verursacht für re mastering unnnötigen Aufwand und Kosten.
 
@ loudbob:

Danke für die Infos. :) Gibt doch Leute hier mit denen man angeregt diskutieren kann.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben