Aufnahme restaurieren! Bitte helfen!

  • Ersteller Evariste
  • Erstellt am
E
Evariste
Registrierter Benutzer
Zuletzt hier
21.07.05
Registriert
12.07.05
Beiträge
2
Kekse
0
Hi,

ich habe eine ziemlich leise Aufnahme mit meinem MP3 Player gemacht in 64kBps Mono.
Jetzt habe ich das ganze in Wav konvertiert.

Bei der Aufnahme fehlen viele hohe Frequenzen.

Wie gehe ich am besten vor um sie zu restaurieren?
Ich habe Soundforge 4.5., kann also folgendes machen:

Resampeln, Equalizer, Normalize, Kompressor etc..

Weiß nun nicht in welcher Reihenfolge ich was wie einsetzen soll, hab das bisher immer nach Gefühl gemacht. Kompressor kann man ruhig stark einsetzen, da es nur ums Verständniss geht und die Dynamik nicht wichtig ist.

Kann mir jemand ein paar Tipps geben, wie das Ergebnis am besten wird?

Vielen Dank schonmal!
 
Eigenschaft
 
Zunächst mal: Du wirst nichts restaurieren können, was durch die Datenreduktion auf 64kbps unwiderruflich verloren gegangen ist.
Resampling, EQ und Kompressor helfen dir da nicht, und Normalisierung beeinflußt den klanglichen Inhalt überhaupt nicht.

Das einzige, was du machen könntest, wäre mit einem Exciter künstlich neue Oberwellen zu generieren, damit die Aufnahme etwas brillanter und nicht mehr dumpf klingt. Der Erfolg dürfte aber mäßig sein, und mit den ursprünglich vorhandenen Obertönen hat das nicht viel gemein. Es wäre eben keine Restauration, sondern dick aufgetragene Kosmetik.

Vor allem aber solltest du dir erstmal klarmachen, was die einzelnen Plugins überhaupt tun, sonst suchst du die Nadel im Heuhaufen.

Jens
 
Hi Jens,

danke schonmal für die Antwort.
Schon klar, dass durch die 64kbps komprimierung und Rückkonvertierung in wav nicht mehr allzuviel machbar ist.

Bisher habe ich die Erfahrung gemacht, dass das Verständniss durch Anwendung eines steilflankigen Equalizers (Betonung auf den mittleren Frequenzbereich) und eines heftigen Kompressors schon viel besser geworden ist!

Ich habe mir immer den Pegel über die Zeit angeschaut und zwischen dem leisesten und den kurz vorhandenen Spitzen alles auf eine Lautstärke gebracht.

Das sich durch das Normalisieren rein theoretisch nichts ändert ist mir schon klar, aber ich dachte, da die ganzen Filter ja mit Wavelettransformationen und Fouriertransformationen arbeiten, dass eine größerer Signalamplitude (bzw ein größerer "Spielraum") zu weniger Problemen bei den Algorithmen führt. (Nur so ein Gefühl).

Aber es ist doch auch oft so, dass ein Signal deutlicher verständlich wird, wenn das Frequenzspektrum sich ändert (also bspweise Betonung auf die Mitten, wegen Sprache).
Also ich meine die subjektive Wahrnehmung, auch wenn nicht mehr Information hinzukommt.

Gruß,
Evariste
 
Evariste schrieb:
Bisher habe ich die Erfahrung gemacht, dass das Verständniss durch Anwendung eines steilflankigen Equalizers (Betonung auf den mittleren Frequenzbereich) und eines heftigen Kompressors schon viel besser geworden ist!
Kommt drauf an, was du vorhast. Wenn es nur darum geht, Sprachverständlichkeit zu erzielen, hilft das natürlich. Worum handelt es sich denn bei der Aufnahme, und was ist das Ziel der Übung?

Das sich durch das Normalisieren rein theoretisch nichts ändert ist mir schon klar, aber ich dachte, da die ganzen Filter ja mit Wavelettransformationen und Fouriertransformationen arbeiten, dass eine größerer Signalamplitude (bzw ein größerer "Spielraum") zu weniger Problemen bei den Algorithmen führt. (Nur so ein Gefühl).
Jein. Da Wavelab, Cubase und Konsorten eigentlich intern immer mit Fließkomma-Algorithmen arbeiten, spielt das eine untergeordnete Rolle. Wenn die Aufnahme allerdings extrem "unterbelichtet" ist, dann kann eine Pegelanpassung schon helfen. Weniger, weil die Algorithmen dann genauer arbeiten, sondern weil für das Ergebnis der Berechnungen dann mehr Auflösung zur Verfügung steht.
Es ist aber z.B. egal, ob du erst normalisierst und dann die Algos drüberjagst, oder ob du die Algorithmen benutzt und im gleichen Arbeitsgang "hinter" (signaltechnisch) diesen den Pegel erhöhst. Solange das Signal zwischen "Bearbeitung" und "Pegelanpassung" nicht mit z.B. 16 Bit Genauigkeit gespeichert und wieder neu eingeladen wird, kommt dasselbe raus.

Aber es ist doch auch oft so, dass ein Signal deutlicher verständlich wird, wenn das Frequenzspektrum sich ändert (also bspweise Betonung auf die Mitten, wegen Sprache).
Richtig.

Also ich meine die subjektive Wahrnehmung, auch wenn nicht mehr Information hinzukommt.
Wenn es darum geht: Erlaubt ist, was gefällt bzw. zum Ziel führt.

Um aber genauer helfen zu können, müsste man wirklich erstmal detaillierter wissen, was "Ist" und was "Soll" ist...

Jens
 
Evariste,

ich würde dieses Signal fett denoisen, ev. De-essen (Waves Deesser, TSP glaubs auch noch), , dann compressor, limiter, dann eq, effekte.

Den Denoiser von Steinberg als VST-Plugin. Kann eigentlich irgendeineine nicht-native-Software von Steinberg wie Audiacity diese VST-Plugins lesen?:confused:
 
Hallo,

ich würde die Sprache per EQ. versuchen, verständlicher zu machen: zw. 2,0 kHz (männl.) und 3,5 kHz (weibl) und bei 8,0 kHz die Brillanz der Sprache retten, was zu retten ist. In diesen bereichen hilft nur nach Geschmack + Erfolg testen. Dann Kompressor, der Exciter kommt zum Schluss dran.
Von Magix gibts übrigens ein ganz gutes (und für den normalen Anwender bezahlbares)Restaurationsprogramm.
Viel Erfolg
Orcus
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben