HiFi-Recording?

  • Ersteller Worst guitarist
  • Erstellt am
Ah, ok. In welchem Format exportierst du die?
wave, darum macht meine Erkenntis besonders wenig Sinn ^^ - hab die Spuren früher als kleine ogg Dateien gespeichert, das klingt bei elektronischer Musik sogar ganz cool
 
Ändert sich mit der Bittiefe eigtl wesentlich die Verarbeitungsgeschwindigkeit?
 
Ändert sich mit der Bittiefe eigtl wesentlich die Verarbeitungsgeschwindigkeit?
Nein. Aber mit der Samplerate. 88,2kHz braucht z.B. genau doppelt so viel Rechenaufwand wie 44,1kHz, mal von etwaigem Resampling abgesehen.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Moin!

Nein. Aber mit der Samplerate. 88,2kHz braucht z.B. genau doppelt so viel Rechenaufwand wie 44,1kHz, mal von etwaigem Resampling abgesehen.

Jepp, nur bei heutigen Mehrkernprozessoren und entsprechenden Arbeitsspeicher wirst du das kaum mitbekommen, es sei denn du hast Projekte mit x Spuren 50 und mehr. :D
Einzig Speicherplatzbedarf steigt bei größerer Samplerate, eben auch doppelt soviel bei 88,2 gegenüber 44,1.

Greets Wolle
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Benutzt ihr im professionellen Bereich 44,1 oder 88,2 kHz? - und, öööh, 24 bit, I guess
 
Benutzt ihr im professionellen Bereich 44,1 oder 88,2 kHz? - und, öööh, 24 bit, I guess

Kommt drauf an was man machen will! Für CD Produktionen reicht 44,1 für Video mindestens 48 kHz. Sampleraten konvertieren kommt nicht gut, da es immer mit Verlust behaftet ist. Fast Verlustfrei bekommt man nur mit sauteuren Programmen hin. 24 Bit ist aber Norm, lieber mit 24 aufnehmen, auch wenn man hinterher nur 16 braucht, das erhöht die Qualität.

Greets Wolle
 
  • Gefällt mir
Reaktionen: 2 Benutzer
bei der Bit-Tiefe bin ich pingelig: akustisch (Mikrofon) immer 24 bit in der Aufnahme.
Nachdem das Rohmaterial gesäubert und auf passenden Pegel gebracht ist, nutze ich 24bit aber nur für spezielle Anwendungen (Zynaptiq Plugins).
Wenn das Quellmaterial aber keine echte 24bit Information enthält (e-Bass/Gitarre, Synths), bleibe uch lieber bei 16bit. Die 'fehlenden' 8-bit enthalten dann idR nur Rauschen, was sich in der Verarbeitung aufsummieren kann und letztlich den Ton verschlechtert.
Imho wird das in vielen Aufnahmen dokumentiert, bei denen Amps mit 24bit abgenommen, gedoppelt und mit Hammer Dynamik prozessiert wurden. Es klingt undefiniert. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Wenn das Quellmaterial aber keine echte 24bit Information enthält (e-Bass/Gitarre, Synths), bleibe uch lieber bei 16bit. Die 'fehlenden' 8-bit enthalten dann idR nur Rauschen

Ja das ist richtig, aber wo man 24 Bit hat sollte man sie auch nutzen. Und wenn man runter skaliert auf 16 dann ist das von Vorteil, da nicht volle 16 oder 24 Bits beim Aufnehmen enthalten sind hat man dann aber eben die volle Bitzahl und eben bessere Qualität.

Greets Wolle
 
Jepp, nur bei heutigen Mehrkernprozessoren und entsprechenden Arbeitsspeicher wirst du das kaum mitbekommen, es sei denn du hast Projekte mit x Spuren 50 und mehr. :D
Einzig Speicherplatzbedarf steigt bei größerer Samplerate, eben auch doppelt soviel bei 88,2 gegenüber 44,1.

Kommt drauf an ... für reines Abmischen braucht man auf jeden Fall weit weniger Arbeitsspeicher, als oft angenommen. Mit Reaper kann ich jedenfalls zwei große Mix Projekte mit mehreren 100MB Spuren und zig Plugins offen haben und wird in der Arbeitsspeicher Auslastung trotzdem teilweise noch von Firefox getoppt. :D
Das steigert sich mit 88,2 oder 96kHz Spuren auch nicht all zu viel. Da reichen meine 4GB noch locker.

Bei der CPU Last siehts nach meiner Erfahrung allerdings anders aus. Meinen 45nm 3GHz Quad-Core Xeon (Sockel 775 Mod) @3,6GHz bringe ich mit großen 44,1kHz Mix Projekten jedenfalls regelmäßig auf weit über 50% CPU Last. Wenn ich in mehreren KClip Instanzen dann mal auf 32x Oversampling gehe, wirds schon knapp.
Da ist dann kein 88,2kHz Echtzeit Mischen mehr möglich, schon gar nicht mit (halbwegs vernünftigem) Resampling.

Mal von Oversampling in Clippern abgesehen bin ich von hohen Sampleraten auch mittlerweile komplett weg. Hatte da früher viel experimentiert und finale Renderings zeitweise grundsätzlich in der doppelten Samplerate mit anschließendem Downsampling gemacht. Es klingt wirklich anders, das offenbart auch ein Differenzvergleich mit Phasendreher. Aber besser klingt es nicht wirklich ... eben nur anders. Mal vom hohen Rechenaufwand ganz abgesehen, fällt eben auch ein zweifaches Resampling an und das hat immer negative Klangeigenschaften.
Bei Aufnahmen jenseits 44,1 / 48kHz ähnlich ... doppelte Datenmenge (auch für ADAT Übertragungen o.ä. relevant). Hatte da auch mal Tests gemacht mit Hi-Hat Aufnahmen ... Hi-Hats sind so das Höhen-lastigste Instrument überhaupt, haben meistens extrem viel im erweiterten Höhenbereich.
Da es bei hohen Sampleraten ja schlicht und einfach nur um die Steilheit des Anti-Aliasing Filters geht, ist der Höhenbereich da besonders interessant ... und dennoch - nach anschließendem Resampling klangen die 44,1kHz Aufnahmen sogar besser, IMO.

Noch was zu 24 vs. 16bit:
Bei einem fertigen Master, das erst nach dem finalen Dither (als letzten Schritt in der Kette) auf 16bit quantisiert wurde, ist kein Unterschied zu hören. Bei meinen Masterings bleibt als Differenz nach dem Phasendreher sogar nur der Dither übrig, kein bisschen Quantisierungsrauchen (Analyzer machen so einen genauen Check möglich ...).
Wird das Audiofile allerdings weiter verarbeitet, sind 24bit immer besser. Das gilt auch fürs Konvertieren in lossy Formate wie MP3 oder AAC und Radio etc. ...
Es geht bei 24bit Aufnahmen also nicht nur um Dynamik- und Headroom Puffer.

Hatte auch das Konvertieren in MP3 nochmal getestet. Encodiert man von 24 statt 16bit offenbart der Phasendreher signikante Unterschiede. Und mit der 24bit Quelle klingt MP3 bei jeder Bitrate besser, detailierter und angenehmer (getestet hatte ich 320 und 128kbps). So zumindest mein Eindruck.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
nach anschließendem Resampling klangen die 44,1kHz Aufnahmen sogar besser, IMO.

Kann ich mir nicht vorstellen. Downsampling bringt immer Verluste mit sich und das hört man mal mehr mal weniger. Ich nehme viel Mehrspur in 96 und 48 kHz auf zwecks Film und Videoproduktion und wenn dann hinterher noch gewünscht wird eine Audio CD zu machen hört man doch schon den Unterschied im Rohzustand auf den Abhören. Nachher auf DVD und CD bekommt man die Unterschiede nicht mehr so mit.

Bei der CPU Last siehts nach meiner Erfahrung allerdings anders aus

Das weiß ich nicht, da zuckt bei mir auch in 96kHz Projekten nix, realer 8Kern Prozessor bei 24GB Ram bringen bei Audiobearbeitung mein System nicht mal annähernd zum Schwitzen, anders bei Videoproduktion, da dürfte es nochmal doppelt soviel Arbeitspeicher werden plus 8GB GPU. Aber das ist ein anderer Schnack. :)

Greets Wolle
 
Kann ich mir nicht vorstellen. Downsampling bringt immer Verluste mit sich und das hört man mal mehr mal weniger. Ich nehme viel Mehrspur in 96 und 48 kHz auf zwecks Film und Videoproduktion und wenn dann hinterher noch gewünscht wird eine Audio CD zu machen hört man doch schon den Unterschied im Rohzustand auf den Abhören. Nachher auf DVD und CD bekommt man die Unterschiede nicht mehr so mit.
Ja, Downsampling bringt immer Klangveränderungen mit sich, bzw. Resampling generell. Aus dem Grund ist es auch am besten, komplett von A bis Z in der selben Samplerate zu arbeiten. Es sei denn, man macht zwischendurch eine DA -> AD Wandlung.
Ganz blöd wird es bei Umwandlungen zwischen 44,1 und 48kHz bzw. den jeweils ganzzahligen Vielfachen (88,2 und 96kHz etc.). Dann ist das Resampling wesentlich aufwändiger als mit ganzzahligem Faktor und bringt somit noch stärkere Artefakte mit sich.

Es geht bei der vermeintlichen Qualitätssteigerung wirklich nur um den Anti-Aliasing Filter und dessen Steilheit. Steilere Filter klingen "schlechter" und haben weit mehr Einfluss auf den hörbaren Frequenzbereich (Rippling).
Bei der Nachbearbeitung mit Sättigung lohnt sich Oversampling, ansonsten meiner Erfahrung nach kaum.
Bei Aufnahmen bzw. der A/D Wandlung gehts nur um das digitale Filter, das nach der Digitalisierung gesetzt wird. Vor der Digitalisierung wird sowieso ein normales, analoges und flaches Filter gesetzt, weil Delta-Sigma Wandler mit extremem Oversampling arbeiten, um eine 1Bit Wandlung machen und flache, analoge Filter nutzen zu können.

Das weiß ich nicht, da zuckt bei mir auch in 96kHz Projekten nix, realer 8Kern Prozessor bei 24GB Ram bringen bei Audiobearbeitung mein System nicht mal annähernd zum Schwitzen, anders bei Videoproduktion, da dürfte es nochmal doppelt soviel Arbeitspeicher werden plus 8GB GPU. Aber das ist ein anderer Schnack. :)
Interessant ist bei solchen dicken CPUs dann immer die Kühlung, wenn's leise bleiben soll. Da hilft nur ein ordentlich großer Kühlkörper, ein großer, langsam drehender Lüfter und ein gut durch lüftetes Gehäuse. :)
Vor allem bei den Intel CPUs der letzten Jahre, bei denen der Chip und der Heatspreader nicht mehr miteinander verlötet, sondern mit schlechter Wärmeleitpaste verbunden sind.
 
Interessant ist bei solchen dicken CPUs dann immer die Kühlung, wenn's leise bleiben soll. Da hilft nur ein ordentlich großer Kühlkörper, ein großer, langsam drehender Lüfter und ein gut durch lüftetes Gehäuse

Oder man lagert den PC aus dem Studio aus! :D

Greets Wolle
 
Moin!

Nee, also wenn du wirklich deinen PC richtig nutzen willst, ist eine Nachrüstkühlung immer sinnvoll

Alles was Krach macht hat eigentlich im Studio nix zu suchen, dazu gehören auch lärmende PCs. Meiner hat 6 Lüfter verbaut zwar alles teure Silentteile, aber wenn die laufen hört man wenn es leise ist die Teile schon etwas rauschen. In großen Studios stehen auch keine PCs drin, die haben einen eigenen Technikraum. :)

Aber das ist jetzt OT und hat ja mit deiner Frage nichts zu tun.

Greets Wolle
 
Ein echter Silent PC, der fast unhörbar ist, ist in der Regie kein größeres Problem. In Aufnahmeräumen sollte es natürlich absolut still sein.

Bin mit dem Bauen von silent Rechnern vertraut und mit gutem Material und einem durchdachten Kühlkonzept ist da auch bei heißen CPUs viel machbar.
Erst recht, seitdem man auf Festplatten verzichten kann.
 
Ich wette, in 20 Jahren wollen alle diesen schönen mp3-Sound von damals ^^
 
Gleichlaufeigenschaften von Tonbandgeräten zu simulieren, was im Hinblick auf das Bandmaterial als Wow und Flutter bezeichnet wird. Vieles davon stammt vom Verschleiß des Bandmaterials oder ungepflegten Capstan-Antrieben (Tonwelle). Aber ich würde nicht soweit gehen, das als LoFi zu bezeichnen, denn wiederum trat sowas nur bei miserablem und ungepflegtem Material im Studio auf. Eine tatsächlich sinnvolle Anwendung der Simulation von Tonbändern ist deren sanfte Verzerrung im maximalen Aussteuerungsbereich. Man nennt dies Bandsättigung und es soll dazu genutzt werden, eine klangliche Verschmelzung der Elemente im Master herbei zu führen. Ich kann nicht beurteilen, ob sowas effektiv Sinn macht, denn ich assoziiere ziemlich viel "Voodoo" damit. ;)
Ich kenn es nur aus der Musikproduktion. Wenn ein Song fertig ist und es fehlt genau das gewisse Etwas am Sound, pack ich hinterher einen VSM-3 drauf.
Da gibt's ein feines Preset: "Hifi your Mix" :)
Ein bisschen anpassen und es klingt.
Der Witz ist, der VSM-3 macht nix anders, als bei diesem Preset die Bässe und die Höhen ordentlich zu verzerren.
Darf man natürlich nicht zu viel beimischen, aber wohl dosiert...voila Hifi :)
Geht es bei solchen Effekten vielleicht darum, den Mix weniger statisch klingen zu lassen? Mir ist aufgefallen, als ich einen Song auf Kassette gezogen hab, dass das Midi-Schlagzeug etwas in Tempo und Tonhöhe variiert ist und deshalb viel natürlicher geklungen hat
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben