192-Khz-Aufnahmesessions

Leute, vielleicht weiß es der Eine oder Andere nicht, weil er es im anderen Thread nicht mitbekommen hat, aber der TE will gar nicht so viel wissen, eigentlich gar nichts, ausser so viel, dass es läuft, was immer das auch sei. Ihr könnt euch also eure Zeit sparen.

ERKLÄRUNG FÜR DEN TE: BLEIB' BEI 44.1 KHZ, IST AUSREICHEND FÜR DICH.

Für mich ist das eine wichtige Frage, weil ich davon öfter lese und verstehen möchte was genau da passiert. Deshalb finde ich sehr cool, von allen hier die kommentiert haben, was es mit dem Thema auf sich hat.

Ich weiß nicht warum, aber bei Dir habe ich das Gefühl, wenn man Dein Azubi wäre, würde man alles selber lernen müssen und Du würdest einem nicht erklären warum wie was funkt.
 
Im anderen Thread von dir hattest Du geschrieben, dass Du die Anleitung nicht lesen möchtest und dass ausprobieren dein Ding ist...:rolleyes:

Und ich denke, nein ich bin davon überzeugt, dass es mehr bringt sich Wissen selbst zu erarbeiten (entsprechende Hinweise wo das zu finden ist hattest Du ja im anderen Thread auch bekommen...), als es in mundgerechten Häppchen einzufordern und lediglich zu konsumieren. Aber meine Ansichten sind wohl in der heutigen Zeit in der alles schnell gehen und bequem sein muss "out".

Wenn Du das Aufnehmen mit höheren Abtastfrequenzen testen möchtest, dann musst Du Änderungen in der Controll-Software des Audio-Interfaces und in der DAW-Software vornehmen, mitunter sind die Einstellungen auch auf irgendeine Weise direkt gekoppelt und es reicht sie an einer Stelle vorzunehmen. Die Reihenfolge könnte auch entscheidend für den Erfolg sein. Das müsstest Du ausprobieren, aber das ist ja genau dein Ding, also von daher kein Problem. :)
 
  • Gefällt mir
Reaktionen: 4 Benutzer
Mir geht dazu aber noch etwas durch den Kopf... korrigiert mich wenn ich falsch liege

Je höher die Samplerate, desto höher ist auch die Belastung für das System beim Einsatz von Plugins und je höher ist auch die Latenz.

Ist ja evtl. nicht unbedingt unwichtig.
 
Grundsätzlich ist es so, dass sich bei gleicher Puffergröße mit höheren Abtastfrequenzen kleinere Latenzen realisieren lassen. Höhere Abtastfrequenzen bedeuten aber auch eine höhere Systemlast bei gleicher Puffergröße, sodass letztere mitunter wiederum erhöht werden muss damit das System sauber läuft.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Zu der Eingangsfrage des TE und der darauf folgenden Diskussion möchte ich gerne noch ein paar Dinge ergänzen.
... und möchte gerne damit Aufnahmen machen ab 96khz. Habe gelesen, dass es im oberen Bereich immer besser ist als mit 44,1.
Aufgrund der Akustik natürlicher Klangerzeuger und der Physiologie des Gehörs gibt es keinen triftigen Grund, höhere Sampleraten als 44,1/48 KHz zu verwenden. Auch die AD-/DA-Wandler stellen keinen Flaschenhals (mehr) dar.

Tatsächlich sind alle natürlichen Klangerzeuger, also alle Instrumente und die menschliche Stimme, selber Bandbreiten-begrenzt, ebenso alle elektromechanischen Wandler, also Mikrofone, Lautsprecher und Kopfhörer. Üblicherweise fallen die Frequenzkurven auch sehr guter Mikrofone oberhalb 20 KHz mehr oder weniger steil ab (von einigen neueren und sehr teuren Mikrofonen, die teilweise bis 50 KHz gehen abgesehen, aber die spielen auf dem Markt kaum eine Rolle). Das gilt auch für Lautsprecher und Kopfhörer, wobei letztere oft etwas höher hinauf gehen.

Bei den Instrumenten ist es schlicht die Masseträgheit von Saiten, Blättern/Rohren (Reeds), Stimmbändern usw., die Frequenzanteile über ca. 20 KHz so gut wie nicht entstehen lässt, und wenn es sie doch gelegentlich gibt, sind sie im Pegel sehr niedrig.
Der ärgste Flaschenhals aber sind unsere Ohren. Während Neugeborene noch ein wenig über 20 KHz hinaus hören können, nimmt die maximale hörbare Frequenz auch beim gesunden Menschen, der seine Ohren schont, kontinuierlich ab und wer mit Ende 50 noch bis 14 KHz kommt, darf sich sehr glücklich schätzen. Wer seine Ohren strapaziert durch zu große Lautstärken, wird schon bald auf nicht mehr als 10 KHz kommen, wenn überhaupt.
Aber der Maßstab für die einzusetzende Technik kann ja nur das gesunde Ohr sein, und da ist der übliche angestrebte lineare Frequenzgang von 20 Hz bis 20 KHz eine absolut praxistaugliche, vernünftige und angemessene Norm.

Wegen der Bandbreitenbegrenzung der Klangerzeuger, der Übertragungskette und der Ohren ist die Diskussion über Dreieck- und Rechteckimpulse müßig. Weder können natürliche Klangerzeuger solche Signale (sauber) erzeugen, noch kann das menschliche Ohr solche Signale sauber abbilden (außer vielleicht sehr tieffrequente). Elektronisch lassen sich diese Signale zwar sauber, sozusagen in Reinform erzeugen, aber spätestens bei der Wiedergabe über Lautsprecher/Kopfhörer ist schon wieder Schluss, denn scharfkantige Rechteckimpulse können die auch nicht wiedergeben.

Was die AD- und DA-Wandler betrifft, ist schon sehr lange der Delta-Sigma-Wandler höherer Ordnung (z.B. 5. Ordnung) mit Oversampling (typischerweise 64-fach) Standard. 64-faches Oversampling heißt, dass bei 44,1 KHz Samplerate die interne Abtastfrequenz des Wandlers 64x44,1 KHz = 2,8224 MHz (Megahertz!) beträgt.
Das gefürchtete "Aliasing" ist also schon lange kein Thema mehr, da erstens durch die Überabtastung auch mögliche Signalanteile über 22 KHz korrekt erfasst werden, und zweitens der Tiefpass nachgelagert als digitaler Filter und durch simple Dezimation erreicht wird, so dass gewährleistet ist, dass keine falschen Signalanteile in den hörbaren Bereich eingestreut werden.

Hinsichtlich der Verzerrungen und des Rauschens (neben dem Rauschen am Eingang vor allem das Quantisierungsrauschen und das Wandlerrauschen) liegen halbwegs moderne Wandler, auch die preiswerten, schon lange im "grünen Bereich" und erreichen recht locker Werte von deutlich über 100 dB, bis zu 120 dB.
Hier ist der Flaschenhals tatsächlich das analoge Rauschen der Vorverstärker usw. am Eingang.

Einziger Knackpunkt, wo wieder Aliasing ins Spiel kommen könnte, sind vor allem nichtlineare Plugins in der DAW wie z.B. Limiter, Kompressoren usw., da nichtlineare Prozesse stets Harmonische erzeugen und diese dann sehr hohe Frequenzen erreichen können.
Diese arbeiten aber, wie schon erwähnt wurde, oft intern mit einer höheren Samplerate bzw. können so eingestellt werden, so dass auch hier Artefakte nicht zu erwarten sind.

Faktisch rauschen die AD-/DA-Wandler nach den Angaben in den Datenblättern sogar bei niedrigeren Sampleraten weniger als bei höheren. Das ist auch zu erwarten, da zum einen eine Bandbreitenbegrenzung immer auch das Rauschsignal begrenzt, und zum anderen das Noise-Shaping (also das Verlagern des Quantisierungsrauschens in den hohen Frequenzbereich) bei niedrigen Sampleraten etwas einfacher zu bewerkstelligen ist.

Ich sehe also keinen zwingenden Grund, mit mehr als 44,1 (bzw. 48 bei Videoton) KHz zu arbeiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 12 Benutzer
Beim generieren von Roh-Daten würde ich immer an die technische Grenze gehen, schlicht weil ich heute noch gar nicht wissen kann wozu ich es morgen brauche, bzw welche technischen Möglichkeiten ich morgen habe (das gilt für alle Daten). Wenn ich die Rohdaten NICHT archiviere, dann kann ich gleich runtergehen, wenn am Ende ein 128kB/s mp3 stehen soll.

Die alten analogen Hollywood-Schinken konnte man alle 4k "remastern", man wird sie auch "8k remastern", aber eine 1080p (oder gar i) bleibt eine 1080p (oder gar i). Mit 48kHz abtasten kann ich keinen 48kHz Tiefpass legen, auch keinen 24kHz, dazu braucht es "Daten", alles was gemacht wird ist "Weichzeichnen", aber Frequenzen bis 20kHz sind dann auch Illusion oder Restposten.

Das Ohr (der Mensch) ist ein Mustererkenner, verliert der Stimulus an Bandbreite, passt sich der Mustererkenner an (nur weil ich es nicht höre, bedeutet es nicht, dass es das nicht gibt). Beispiel: die Dynamik in der klassischen Musik, das geht sich mit 16bit nicht aus (auch nicht mit 24), ist wie HDR bei Bildern/Filmen, omami bei Pizza, ist man das mal gewohnt (verwöhnt) mag man kein normales Bild mehr, oder keinen Fenchel. Mp3 ist dann ohnehin nur der Hamburger mit Pommes und Cola. (Das sind supa mp3s, die sind voll winzig, noch besser, streaming mit "dynamischer" bitrate, da brauchst gar keinen Speicherplatz mehr ...)
 
Beim generieren von Roh-Daten würde ich immer an die technische Grenze gehen, schlicht weil ich heute noch gar nicht wissen kann wozu ich es morgen brauche, bzw welche technischen Möglichkeiten ich morgen habe.
Das kann jeder machen wie sie/er will, und wer mit 192 KHz/24 bit aufnehmen möchte, soll das selbstverständlich so machen - wenn sich mit dem Rechner dann noch vernünftig arbeiten lässt, warum nicht.
Dass sich jedoch die menschlichen Ohren über die Zeit in Richtung Fledermausohren entwickeln werden, halte ich für unwahrscheinlich, ja für so gut wie ausgeschlossen. In der Evolution hat sich unser Gehör nach den Anforderungen in unserer Umwelt entwickelt bzw. angepasst und praktisch liegen im Frequenzumfang von 20 Hz-20 KHz sogar noch einige Reserven. Ich sehe keinen Stimulus, der eine evolutionäre Entwicklung hin zu z.B. 30 KHz hin anstoßen würde. Und wenn, würde es viele Jahrzehntausende dauern, bis dieser Wandel sich vollzogen hätte.

Beispiel: ... die Dynamik in der klassischen Musik, das geht sich mit 16bit nicht aus (auch nicht mit 24)
Aber sicher doch, selbst die 96 dB der 16-bit-Audio-CD schaffen das!
Wenn man als maximal möglichen Dynamikumfang eines Klassikkonzertes zwischen pppp und ffff sehr wohlwollend 30 dB für pppp ("ruhiges Schlafzimmer"*) und 120 dB ("Unwohlseinschwelle"*) für ffff annimmt, käme man auf einen Umfang von "nur" 90 dB. Faktisch sind es viel weniger, da ein (sehr) leiser Saal schon ein "Grundrauschen" durch das Publikum, Stühle etc. von mindestens 40 dB hat, und am Ohr des Zuschauers kaum je 120 dB ankommen, selbst nicht bei wuchtigen Pegelspitzen (andernfalls würden die meisten fluchtartig den Saal verlassen). Wenn man also etwas realistischer (aber immer noch optimistisch) 40-110 dB annimmt, dann liegt der Dynamikumfang bei maximal 70 dB. Das konnte man schon früher mit einem guten Bandgerät einfangen. Moderne Geräte mit hochwertigen Vorverstärkern und guten 24-bit-Wandlern können das allemal und haben dabei noch ausreichende Reserven.

Es sei noch angemerkt, dass der Dynamikumfang unserer Ohren zwar üblicherweise mit ca. 120 dB angegeben wird. Aber diesen erreicht unser Ohr nur durch eine funktionelle Anpassung. Wenn es sehr leise ist, kann unser Gehör sozusagen den Pegel etwas verstärken und wir hören sprichwörtlich "die Flöhe husten". In einer sehr lauten Umgebung hingegen wird der Pegel, der das Innenohr erreicht, aktiv herab gesetzt. Dann spannen sich kleine Muskeln an, die an den Gehörknöchelchen ansetzen und dämpfen deren Bewegung. Dieser Schutzreflex braucht aber etwas Zeit für die Anpassung. Wenn sich unser Ohr auf eine leise Umgebung eingestellt hat und es würde dann ein sehr lautes Geräusch ertönen, dann wäre eine Beschädigung des Gehörs praktisch unvermeidlich.
Auch wenn also der gesamte Dynamikumfang des (gesunden) Gehörs gut 120 dB umfassen mag, kann es faktisch gleichzeitig nur einen deutlich kleineren Dynamikumfang verarbeiten. Der Gesamtumfang wird nur durch die (relativ langsamen) Anpassungsvorgänge erreicht.


*) zitiert nach: http://www.sengpielaudio.com/TabelleDerSchallpegel.htm
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 6 Benutzer
... nur weil ich es nicht höre, bedeutet es nicht, dass es das nicht gibt ...
Noch ein Nachtrag dazu:

Infrarot- und UV-Licht können Menschen nicht sehen, es behauptet aber wohl deshalb niemand, dass es diese Wellenlängen nicht gibt. Sie lassen sich ja auch relativ leicht nachweisen.
Daraus aber den Schluss zu ziehen, dass meine normale Foto-Kamera diese Wellenlängen gefälligst aufzeichnen können soll, wäre unsinnig. IR-Empfindlichkeit braucht man allenfalls in der Astro- und Thermofotografie.
UV-Licht wird üblicherweise weg gefiltert, vor allem in der Landschaftsfotografie, weil das UV-Licht den Dunst verstärkt und damit die Bilder verschleiert. Für wissenschaftliche Zwecke wie Materialuntersuchungen und Mikroskopie kann UV-Licht wiederum nützlich sein.

Für den Audio-Bereich, bei dem es für das menschliche Hören nun mal nichts verwertbares gibt außerhalb unseres Hörspektrums, ist für mich die Forderung, dieses aufnahmetechnisch (nennenswert) zu überschreiten nach wie vor grundsätzlich nicht sinnvoll.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Beispiel: Für Temo-Pitch-Variation brauche ich genug "Material" in den ROHDATEN um das auch im akzeptablen Rahmen durchführen zu können. Will ich aus den ROHDATEN mal 10 Jahre später einen langsameren, aber 3 Halbtöne höheren Remix prodzieren schadet weder ein zusätzlicher Sampelpunkt noch das eine oder andere Bit mehr.

Mein Mustererkenner (zwischen den Ohren) passt sich innerhalb von kurzen Zeitspannen an, das liegt weniger an der Hardware, als an der Software. (Tiefe) Bässe können wir nicht "hören" wir nehmen sie "anders" wahr (sonst wäre jeder Subwoofer zwecklos) bei den Höhen ist das gleich, wir hören das weniger als wir es fühlen, über 10kHz ist das Spektrum mit welchem wir "Gefühle" wahrnehmen.

Nicht das Ohr bestimmt was wir hören und was nicht, das macht die Software und wie sie programmiert wird. (das gleiche gilt für das Auge)

Man weiß NIE was man mit den ROHDATEN alles machen können wird, welche Algorithmen was in 10, 15, 20 Jahren ermöglichen kann nicht vorhergesehen werden, schon gar nicht dass es nur um Audio für Hörer gehen wird.

Will ich z.b. altes (nicht mehr verfügbares) Instrument aus dem vorhandenen Audio-Daten sampeln, da hilft alles, jedes noch so kleine Zipfelchen an Auflösung (in Raum und Zeit), will ich z.b. einen (nicht mehr verfügbaren) Sänger sampeln (das geht jetzt noch nicht, aber sicher irgendwann) ... . Extrapolationen (aus diesen Daten) sind inverse Probleme, d.h. kleiner Fehler in den Daten verstärkt sich zu großem Fehler im Resultat (deshalb "invers") glücklich jener, der hochauflösende Daten hat.
 
Ich behaupte mal ganz frech, dass in fünf oder zehn Jahren, wahrscheinlich schon in einem Jahr, kein Hahn mehr nach Vocals aus irgendwelchen Schnulzen oder beliebigen Rap-Ergüssen krähen wird. :D
 
  • Gefällt mir
Reaktionen: 4 Benutzer
Ich glaube die einfachste Antwort auf diese einfache Frage ist:
Für welches Medium produziertst Du die Musik?
a) MP3, oder
b) CD, oder
c) beides?

Dann lautet die Antwort auf all deine Fragen (a - c): 16bit und 44,1kHz.
Ansonsten hat mir die Antwort von @Telefunky am besten gefallen.


Nun meine persönliche Meinung (inkl. gefährlichem Halbwissen, muss man also nicht lesen!):
Mehr braucht kein Mensch, es sein denn der Mensch verdient bereits sein Geld damit und produziert Filmmusik oder hat einen Plattenvertrag oder betreibt ein Studio, aber diese Menschen wissen bereits was sie tun, die stellen keine derartigen Fragen hier im Board! Also gehe ich davon aus, dass Du - lieber TE - Hobbymucker bist, tendentiell Anfänger. Alles gut, ich bin auch nur Hobbymucker! Klar, man möchte gutes Equip kaufen und nix falsch machen .... will ich auch. Heutzutage kann man beim Erstkauf quasi nix falsch machen. Der ganze Kram ist gut. Vor 20 Jahren wär das alles unbezahlbar gewesen, was heute für 50 EUR verkauft wird. Du wirst - falls es Dir mit dem Hobby "Musikproduktion" ernst ist - (zig)tausende Euro darin versenken, und Dein erstes Interface wird nicht Dein letztes sein, versprochen, also fange "klein" an! Anyway...

In meinen Augen sind Bit- und Samplingraten bei den Audiointerfaces reine "Verkaufsargumente" und bringen Dir als Hobbymucker und Homerecorder KEINEN reellen technischen Vorteil. Jedes Interface, das 16bit und 44,1kHz kann, reicht vollkommen aus.

Du kannst gerne mit bis zu 384 kHz und 128bit aufnehmen, das unterstütze ich :)great: Topp!) aber dann, wenn man sich die Frage stellt, was ist denn mein "Endprodukt", wird's plötzlich glasklar:
MP3 und/oder CD wahrscheinlich, nehme ich mal an? Was passiert denn da technisch gesehen? MP3 "komprimiert wie Hölle" und CD gibt's nur mit 16bit und 44,1 kHz.l Machen denn dann 384/192/96/48 kHz und 128/64/32/24 bit Sinn? Nö, nicht wirklich, oder? Bedenke, dass höhere Bit- und Samplingrates auch ein (viel) höheres Datenaufkommen nach sich zieht und Du einen (viel) leistungsstärkeren PC benötigst. Da kommt so ein Macbook Pro auch mal schnell an seine Grenzen (bei sehr hohen Bit- und Samplingraten und je nach dem, wie aufwändig man produziert und welche Plugins man verwendet, usw.).

Kleine Randnotiz: Apple hat grad demletzt einen neuen PowerMAC vorgestellt und um zu zeigen, wie toll der ist, haben sie ein Musikprojekt auf Logic aufgesetzt mit >100 Spuren, so nach dem Motto: "Schauschau, in der geilsten Ausbaustufe für knapp 20k Euros kann der MAC so ein Projekt rechnen!" :great: Also als ITler weiß ich - teilweise aus leidlicher, persönlicher Erfahrung - man kann einen leistungsstarken Laptop (16GB RAM, Quadcore CPU) mit einem Hobbyprojekt in die Knie zwingen, bei 16bit und 44,1kHz!

Wenn Du für CD mit höheren Bit- und Samplingrates produzierst, machst Du Dir noch zusätzlich Probleme beim Umwandeln (heißt das "downsampling"??) in die geringeren 16bit/44,1kHz (war das Dithering??). <= Liebes Expertenteam, da seid ihr jetzt wieder gefragt, eine prima Gelegenheit für Euch, da könnte man jetzt glänzen! :great:

Ich hab von den technischen Details (also die Physik dahinter) quasi gar keine Ahnung, das gebe ich gerne zu. Ich hab mich mal informiert (nicht hier im Board, das macht keinen Spaß!) und das og. ist hängen geblieben. Ich glaube, mehr muss man nicht wissen, wenn man Musik als Hobby betreibt (Man DARF natürlich mehr wissen wollen!!).

Also, meine Meinung: 16bit/44,1kHz reicht. Die Musik die dann dabei rauskommt, ist wichtiger, als Bit- und Samplingrates. Mich machen meine Songs glücklich, nicht mein Equipment. :D

VG
Jacky
--- Beiträge wurden zusammengefasst ---
Für mich ist das eine wichtige Frage, weil ich davon öfter lese und verstehen möchte was genau da passiert. Deshalb finde ich sehr cool, von allen hier die kommentiert haben, was es mit dem Thema auf sich hat.

Ich weiß nicht warum, aber bei Dir habe ich das Gefühl, wenn man Dein Azubi wäre, würde man alles selber lernen müssen und Du würdest einem nicht erklären warum wie was funkt.

Signalschwarz ist ein Kauz (*no offense!*), aber er hat Recht. Es gibt gute Erklärvideos auf Youtube, dazu Wikipedia auf dem Tablet und googeln und in 60 Minuten weißt Du Bescheid und erkennst: Signalschwarz hat Recht und kein Mensch (Hobbymucker!!) braucht mehr als 16bit und 44,1 kHz.

VG
Jacky
 
Ein Argument hab ich noch, (aber das gilt hier natürlich hier nicht) und das sind Fehler. Menschen (also ich und andere, hier natürlich niemand) machen Fehler, einige dieser Fehler lassen sich durch höhere Samplingraten und Bittiefen korrigieren/kaschieren/ausbügeln, andere nicht. Wie schon geschrieben wenn ich den/die Pegel nicht genau steuern kann (weil ich gar nicht die Möglichkeit habe weil ich z.b. mitsinge) dann lohnt es mit "Reserven" zu "recorden" (also nur bei mir), andere treffen den Pegel natürlich ganz genau.

Was genau macht eigentlich ein "Kompressor" mit den Daten?

44khz16 bit -> 44khz 24bit 150% "Rohdatengröße"
96khz24bit -> 300% "Rohdatengröße"

1h 1Spur 96/24 ca 1Gbyte (1h 1Spur 192/24 ca 2 Gbyte)
10Spuren 10Gbyte auf USB3.0 Sticks/Karten ist das gar kein Problem zu verarbeiten, von SDDs rede ich da noch gar nicht.
"leistungsstarker Laptop (4 Cores 16Gbyte RAM)" darüber kann man mindestens genauso lagen diskutieren (vor 5 Jahren möglicherweise) wie über Samplingraten und Bittiefen.
Die CPUs (am Rechner) rechnen intern sowieso mit 64 bit, denen ist es egal ob da ein 16bit Signal daherkommt oder ein 64-bit, selbst die GPUs gibt es nicht mehr unter 32/64bit Integer.

Die Zeiten von knatterned Festplatten sind vorbei, da leuchtet nur noch eine LED.
 
@Jacky Thrilla, ich gebe dir völlig recht, 16-bit/44,1 (48) KHz sind ein klanglich sehr hochwertiges Format, dass als Distributionsformat quer über alle Genres höchsten Musikgenuss gewährleistet und mehr Dynamik übertragen kann als es irgendwo realistisch reproduziert werden kann.

Aufnahmeseitig genügt es sicher auch in den meisten Fällen, wobei ich mich aber entschieden habe, für das aufgenommene Rohmaterial 24 bit einzustellen. Hauptsächlich aus dem Grund, beim Aussteuern jegliche Reserve zu haben, also nicht voll aussteuern zu müssen, und daher niemals das Risiko einer Übersteuerung eingehen zu müssen, die digital bekanntlich übelste Zerrer produziert.
Man muss sich dabei vor Augen halten, dass aufgrund des möglicherweise nicht genutzten Headrooms bits verschenkt werden und eine 24-bit Aufnahme real tatsächlich nur eine 20-bit-Aufnahme sein kann. Ein vergleichbarer Headroom würde bei 16-bit möglicherweise dazu führen, dass ich nur 14- oder gar 12-bit-Material habe.
Für die spätere Ausgabe am Ende der Produktionskette, z.B. als CD, ist das unerheblich, da üblicherweise Normalisiert wird, in der Regel auf -0,1 dB FS, und somit auf der CD keine bits verschenkt werden.

Das "Dithering" ist ein geniales Verfahren, um hohe bit-Tiefen auf eine geringere Auflösung praktisch verlustfrei zu übertragen. Da bei der geringeren Auflösung etliche Zwischenstufen fehlen, würden die entsprechenden Werte der höheren Auflösung einfach unter den Tisch fallen und das Quantisierungsrauschen (was nichts anderes ist als Verzerrungen durch ´Verpassen´ des bit-Wertes weil die Kurvenwerte in die Zwischenstufe fallen) würde ansteigen.
Durch Hinzufügen eines speziell statistisch gleichmäßig verteilten Rauschsingnals der Größenordnung einer halben bit-Stufe (das ist "Dither") ´springen´ nun die meisten diese Zwischenwerte so, dass sie wieder auf einen konkreten bit-Wert fallen und damit erfasst werden.
Es klingt Paradox, aber durch Hinzufügen dieses speziellen Rauschsignals wird das Rauschen (hier aber eher Verzerrungen) im Ergebnis kleiner - genial!
 
  • Gefällt mir
Reaktionen: 2 Benutzer
"leistungsstarker Laptop (4 Cores 16Gbyte RAM)" darüber kann man mindestens genauso lagen diskutieren (vor 5 Jahren möglicherweise) wie über Samplingraten und Bittiefen.

Du hast vollkommen Recht, ein Rechner ist erst dann "leistungsstark", wenn er mindestens 128GB RAM und einen 18-Core CPU hat! :great:

Alles andere ist doch eh kindergarten!

VG
Jacky
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Die CPUs (am Rechner) rechnen intern sowieso mit 64 bit, denen ist es egal ob da ein 16bit Signal daherkommt oder ein 64-bit, selbst die GPUs gibt es nicht mehr unter 32/64bit Integer.
da geht jetzt aber einiges wild durcheinander... ;)
32/64 bit im Zusammenhang mit Prozessoren bezieht sich ausschliesslich auf die Grösse des addressierbaren Speicherraums.

Das benutzte Zahlen/Rechenmodell (zur Verarbeitung der Daten) ist davon völlig unabhängig.
Man konnte auch auf einem Pentium 133 unter Win95 mit 80bit 'IEEE irgendwas' Fliesskommadaten rechnen. Man ist auch keineswegs auf 1 Methode beschränkt, dh ob Integer, Fixed Point, Floating Point oder BCD Arithmetik benutzt wird und in welcher Auflösung (Anzahl bit) kann innerhalb 1 Software variieren. Nicht die Regel, aber möglich.
Was wann wie 'gut' klingt, hängt aber in erster Linie vom Geschick des Programmierers ab.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
32/64 bit im Zusammenhang mit Prozessoren bezieht sich ausschliesslich auf die Grösse des addressierbaren Speicherraums.
Nicht ganz, es geht u.a. auch darum wie viele Daten mit einem Zugriff(Prozessorzyklus) geladen/gesprichert/manipuliert werden können. Das macht im Prozessor schon einiges aus. Aber das ist jetzt zugegebenermaßen etwas kleinlich von mir. Fakt ist dass höheres Datenaufkommen durch hohe Samplingraten und Bittiefen das gesamte System auch höher belasten. Das mag bei wenigen Spuren weniger relevant sein, wirds komplexer dann kann allein schon der Plattenzugriff ein Problem werden.(und komme mir jetzt keiner mit den hohen Transferraten moderner SSDs, die haben auch Stress damit 50+ Spuren verteilt im SSD Speicher kontinuierlich auszuliefern). Dazu kommt dann eben auch die Verarbeitung usw. und wofür? Eventuell macht das bei filigraner, hoch komplexer Musik mal Sinn sich Reserven in allen Belangen zu lassen (vor allem in der Dynamik). Aber dazu brauchts dann auch höchstwertige Komponenten von vorne (Instrumente) bis hinten (zumindest mal die A/D Wandler). 192 kHz reissen die Sache einem 100 € Mikro und 30€ Gitarre ist wohl nicht wirklich noch rum.
Auch bei klassischem Mainstream Pop/Rock/Rap/Whatever das dann in der Regel sowieso ver-mp3t wird sehe ich auch keine Notwendigkeit. Aber gut erlaubt ist ja alles was gefällt. Oder, nicht alles was technisch machbar ist muss auch immer sinnvoll sein;-)
Dasist zumindest meine bescheidene Meinung dazu.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Hallo,

ich tu' noch einen aus der Praxis dazu... mein "Thema" sind überwiegend live-Mitschnitte im Klassik-Bereich, da fahre ich durchgehend 44,1 KHz/24 bit, wie oben schon von LoboMix beschrieben, und komme damit bestens über die Runden. Es hat sich noch nie jemand über vermeintlich schlechte Qualität geäußert, und da treffe ich teilweise auf Hör-Ästheten ;) Live ist sowieso das Problem des raschelnden oder klettverschluß-zippenden Zuhörer viel dringlicher :D :evil:
Bei einer professionellen CD-Produktion habe ich mal als Chorsänger mitgewirkt, da wurde dann wirklich mindestens in 96 KHz aufgenommen, ich erinnere nicht mehr genau, ob es nicht doch 192 KHz waren... ich hatte in einer Pause mal den Tontechniker abpassen können und durfte mir mal seinen Arbeitsplatz ansehen. Für die gesamte aufgefahrene Aufnahmekette von den Mikrofonen bis zum Rechner hätte man wohl ein schönes Häuschen bekommen können... in hochprofessioneller Umgebung mögen extrem hohe Abtastraten durchaus Sinn machen, für uns gewöhnliche Hobbyisten genügen aber wohl die 44,1 für Audio und 48 für Video ;)

Viele Grüße
Klaus
 
  • Gefällt mir
Reaktionen: 3 Benutzer
In der Software mag ich wohl 16/32/64 bit Typen definieren, aber die CPUs (also aktuelle, keine Pentium II) haben nur noch 64bit Recheneinheiten + "special units", aber diese müssen erst mal verwendet werden (Programmieraufwand). Der Adressraum folgt daraus, weil die Integerunits erst mal 64 bit sein müssen damit ich 64bit Adressraum ansprechen kann, ich muss mir ja vorher ausrechnen wo im Speicher was steht.

SDD haben verifizierbare Tranferraten von ca 3Gbyte pro Sekunde, aber es stimmt hier schlägt oft ein "Laptopproblem" durch, weil diese M.2 SSDs dieses Raten nur erreichen wenn die "kühl" bleiben, im Laptop oft nicht möglich und dann wird die Rate drastisch zurückgefahren (sollte ich das wirklich brauchen). Das gleiche gilt auch für CPU/GPU. Ist ein Luxusproblem, weil die gleiche Leistung im Laptop kostet fast immer doppelt bis vierfach.

96/24 1h 1Spur 1Gbyte
100Spuren 1h 100Gbyte, ich kann also in 30sec das ganze Datenmenge (100Spure 1h 96/24) von der SSD ins RAM transferieren. Wenn es einen bottleneck gibt dann nicht hier, aber welcher Amateur hat 100 Spuren? Habe ich tatsächlich 100 Spuren diese Datenmengen und nicht RAM in entsprechender Größe bin ich ohnehin selbst verantwortlich.

Bei 3 oder 4 Spuren ist es auf halbwegs normaler Hardware egal ob ich 48/16 oder 96/24 weil die Daten ohnehin im RAM gepuffert werden.

Performance kosten "Effekte", EQ, Kompressor, Hall, ... je mehr Cores desto besser (wenn die SW das unterstützt) je besser die GPU desto besser (wenn die SW das unterstützt), aber die Hobbyprojekte mit wenigen hochauflösenden Spuren Aufnahme machen das Kraut nicht fett (im Vergleich zum Softwareinstrument). Jedenfalls kann ich am PC alles korrigieren, verändern, wiederholen, nur die Aufnahme nicht, die ist so wie sie ist, darum ist es nur für den Fehlerlosen klug vorhandene Möglichkeiten nicht zu nutzen.

Hamma immer so g´macht, mach ma immer so.
 
Zuletzt bearbeitet:
Wirklich? Nachdem dass mit dem "in zehn Jahren möchte man eventuell die Vocals durch dann mögliche Techniken aus einem Mix extrahieren" nicht gezogen hat, wird jetzt sowas wie "CPUs rechnen sowieso mit 64-bit" in den Topf geworfen. Grundsätzlich ist es ja so, und das sollte jedem klar sein, dass Posts immer persönliche Meinungen darstellen. In diesem Fall finde ich den Hinweis dennoch nochmal angebracht, denn da basieren einige Aussagen doch ganz klar eher auf Glauben und Missverständnissen und nicht auf Wissen und Fakten.
--- Beiträge wurden zusammengefasst ---
Signalschwarz ist ein Kauz (*no offense!*), ...

Keine Sorge, normalerweise bekomme ich ganz andere Bezeichnungen verpasst. :)

Übrigens bin ich auch für die Verwendung von Wortbreiten ab 24-bit.
 
Wenn "Systemlast" als Argument kommt was war falsch daran?

Wie kommt es eigentlich auf 44/16?

Zufällig weil 16 2x8bit ist? Ist das eine "optimale" Wahl? Oder war es vor 30 Jahren das technisch mögliche/mit den Kosten vertretbare? Genau deswegen ist es doch im privaten Bereich möglich, dass mich ich daran NICHT (an diesen Standard) halten brauche. Natürlich hat man vor 30 Jahren Argumente gesucht um es dem geneigten Konsumenten zu verkaufen (der Platten gewohnt war). Diese 30 Jahre haben ihre Spuren hinterlassen.

Ist 44/16 dann Glauben (dass es reicht) oder Wissen und Faktum?

Der Rat für einen Amateur ist also 44/16, reicht immer, weil es für uns auch immer reicht hat. Reicht es nicht (der Pegel suboptimal, wird nachher Kompressor Pitchshift verwendet) selber schuld, hättest dich mehr mit der Aufnahme beschäftigen müssen (besser einarbeiten).

Unser Hören ist logarithmisch, unsere digitalen Signale linear, d.h db ist proportional zur Anzahl der bits nicht zum maximal möglichen Skalarwert.

Wenn ich nix schreiben würd gäb es gar keinen common enemy wo man sich gegenseitig auf die Schulter klopfen kann, es gäb also gar kein "sich gegenseitig auf die Schulter klopfen", ist doch gut, einen Anlass gefunden zu haben sich das gegenseitig zu bestätigen.

Gerade der Amateur sollte "aufdrehen" "was geht" weil er aus Unwissen so viel Sch** baut, für Profis unvorstellbar.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben