Warum sind Preamps beim Recorden so wichtig? (zB Vocals)

Status
Für weitere Antworten geschlossen.
Ist es auch. Ich entnehme dem Test auf Hardware-Seite ein kompakteres/stabileres Low-End und mehr Attack/Punch bei bestimmten Frequenzen/Instrumenten, hier waren es vor allem die Tiefmitten - die Snare höre ich da als deutlichen Unterschied.

Naja, es war ja jetzt nach konkretem gefragt (etwa: welche Frequenz in Hz, das ist nämlich, was auf den verlinktne Gehörschulungsseiten geschult werden soll..) und nicht nach vagen Umschreibungen, die in alle Richtungen und in ihre genauses Gegenteil hin interpretierbar sind..

Was ist denn z.B. ein stabiles Low-End?

Gruss
 
Was ist denn z.B. ein stabiles Low-End?
Hör selbst hin:
Bei 15:39 erfolgt der Wechsel bei gleicher Dynamik, gleichem musikalischen Inhalt.
Das ist nicht eine einzelne Frequenz, sondern immer ein Bereich.

Stabil kann man nicht umdeuten, Low-End auch nicht. Was verstehst du denn daran nicht?
 
In den verlinkten Gehörtrainingsseiten geht es u.a. darum, die Frequenz von Sinussignalen zu erkennen. Einzelsignale...?

Oder aber, z.B. den EQ-Einsatz bei Musikmischungen zu erkennen.
Also darum, subjektiven Klangeindrücken die richtigen technischen Hintergründe (z.B. EQ-Einsatzfrequenz) zuzuordnen.

Genau. Jeder fängt mal klein an. Also immer schön üben...... (;

Naiverweise dachte ich, dass es für ein derartig geschultes Gehör ein leichtes ist, zu sagen, worin denn nun konkret die Klangunterschiede zwischen den Preamps im Video bestehen...

Das haben die Menschen, welche einen Unterschied gehört haben ja auch getan. Nur die Antworten haben Dir nicht gepasst da Du unbedingt Werte aus der Messtechnik lesen wolltest. Die aber Begriffe verwendet haben wie sie durchaus üblich sind bei der Beschreibung von chaotischen, sich ständig verändernden Frequenzgemischen. Zumindest sind sie das für Messgeräte. Für Menschen ist das dann zum Beispiel Musik.

Kann man nichts machen. Ist halt so.

Die grossartige Leistung des menschlichen Gehörs kann man zum Beispiel daran ermessen, dass es dem Dirigenten möglich ist aus diesem chaotischen, sich ständig verändernden Frequenzgemisch einzelne Töne rauszuhören. Falsche Töne. Und die dann auch noch einem einzelnen Instrument oder Instrumentengruppen zuzuordnen.

Mir ist kein Messgerät bekannt, das sowas könnte. Und auch kein Algorithmus. Noch nicht möchte ich hinzufügen. Vielleicht geht das ja mal irgendwann.

Und hier was für Dich:



da kannst Du sehen an welchen Stellschräubchen gedreht wird und dies oder das zu erreichen. Vielleicht ist es Dir ja sogar möglich daraus abzuleiten, das denn nun den typischen Vintage- oder Modern Sound ausmacht. Viel Spass dabei......... :D
 
Das haben die Menschen, welche einen Unterschied gehört haben ja auch getan. Nur die Antworten haben Dir nicht gepasst da Du unbedingt Werte aus der Messtechnik lesen wolltest.´
Nein, das wollte ich nicht. Ich dachte nur, ich würde mal etwas konkreteres lesen.
Z.B.: "Die Höhen ab ca. 8kHz sind stärker ausgeprägt." Oder: "Es klingt, als würde die Sängerin leicht lispeln." Oder auch, z.B.: "Es klingt, als sei das Schlagzeug stärker dynamisch komprimiert". Oder was auch immer, aber eben einigermassen konkreter. Und nicht so diffus und ungreifbar.
Die grossartige Leistung des menschlichen Gehörs kann man zum Beispiel daran ermessen, dass es dem Dirigenten möglich ist aus diesem chaotischen, sich ständig verändernden Frequenzgemisch einzelne Töne rauszuhören. Falsche Töne. Und die dann auch noch einem einzelnen Instrument oder Instrumentengruppen zuzuordnen.

Mir ist kein Messgerät bekannt, das sowas könnte. Und auch kein Algorithmus. Noch nicht möchte ich hinzufügen. Vielleicht geht das ja mal irgendwann.

So etwas gibt es schon. Es gibt Algorithmen und Programme, die fertige Mixe wieder in Stems auseinander entmischen können. Also, z.B. alle ähnlich klingende und an gleicher Panoramaposition hingemischte Gitarren in einen Stem ausgeben.

Das Gehirn und Gehör kann da auch nicht viel mehr machen. Sind z.B. 4 Geigen auf gleiche Panoramaposition im Stereomix gemischt, so kann auch kein Mensch auseinanderhalten, welche Geige welche Töne spielt.

Die Technik, die dahinter steckt, wird "blind source separation" genannt.

Gruss
--- Beiträge wurden zusammengefasst ---
Hör selbst hin:
Bei 15:39 erfolgt der Wechsel bei gleicher Dynamik, gleichem musikalischen Inhalt.
Das ist nicht eine einzelne Frequenz, sondern immer ein Bereich.

Stabil kann man nicht umdeuten, Low-End auch nicht. Was verstehst du denn daran nicht?

Danke,

ich werd's mal hören und versuchen, genauestens auf Details zu achten. Hast du Hinweise oder Tipps, auf welche Details welches Instruments ich besonders achten sollte?
Stabil kann das Low-End ja nicht sein, weil es ja ständig andere Töne in anderer Anschlagstärke (Lautstärke) sind. Was heißt da also "stabil" im Zusammenhang eines sich "chaotisch änderndes Signals, das der Mensch Musik nennt", wie es @adrachin formuliert hat?

Gruss
 
das würde mich auch interessieren... vor allem wie praxistauglich das ist.
Die mir bekannten Vertreter von Celemony, Izotope und Zynaptiq (früher Prosoniq) kommen nicht ohne manuelle Steuerung aus.
Vor gut 15 Jahren hat Prosoniq eine Stimm-Freistellung gezeigt, die für 3 Minuten Peter Gabriel rund 4 Stunden Bearbeitung benötige - bei einem eher einfachen Mix.
Ähnliches gab es später von Celemony als Beispielvideo mit einem Adele-Mix.
Man hat das letztlich nicht weiterverfolgt (in Bezug auf 'natürlichen' Klang), sondern Produkte zur Mix-Optimierung (UnmixDrums) oder mit bewusst künstlichem Sound (Pitchmap) veröffentlicht.
 
Wir lassen uns gerne von demjenigen informieren, der das ins Feld geführt hat. Keiner will hier dumm sterben.

Also?

Banjo
--- Beiträge wurden zusammengefasst ---
Im Übrigen hab ich zu dem Thema auch noch was. Leider finde ich den Link nicht mehr, aber kurz gesagt ging es um eine Studie neulich, die zeigte, dass das Ohr besser ist als konventionelle Messtechnik bei einem wichtigen Aspekt, dem Kompromiss zwischen zeitlicher und spektraler Auflösung.

Dabei geht es darum, dass ich mit kurzen Messungen keine hohe spektrale Auflösung erreichen kann oder umgekehrt, wenn ich eine hohe Frequenzauflösung brauche, kein feine zeitliche Auflösung habe. Da gibt es mathematisch klar definierte Grenzen. Bei eine Fourier-Trafnsformation zum Beispiel brauche ich mehr Messpunkte, also ein längeres Messintervall um ein feineres Frequenzraster zu erreichen, analoge Messfilter schwingen umso länger, je steiler und schmalbandiger sie sein sollen.

Das menschliche Ohr kann nun Frequenzen besser bzw. in kürzerer Zeit erkennen als dies in den mathematischen Modellen vorhergesagt wird. Der Grund ist die nichtlineare Verarbeitung im Ohr, also die Verzerrungen. Dadurch kann das Ohr kleine Frequenzunterschiede in kürzeren Signalen erkennen, als dies mit einem Fourier-Analyzer möglich ist.

Banjo
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4 Benutzer
der zeitliche Aspekt dürfte eine wichtige Rolle spielen.
An der Auflösung sollte es (modellmässig) nicht scheitern - die oben erwähnte Prosoniq Software arbeitete (iirc) mit Spektralauflösungen von bis zu 1/100 cent. Das wurde seinerzeit offline durchgeführt, dh die Software abslysierte einige Sekunden Audio und man konnte mit der Bearbeitung beginnen, während im Hintergrund weiter analysiert wurde. Trotz Einsatz von neuronalen Netzen war der Erkennungsprozess ohne menschliches Eingreifen nicht zielführend.
 
Bis Burkie aus dem Quark kommt mal was zum Thema harmonische "Verzerrungen". Die bösen die. SSL setzt das bei seinem aktuellen Pult ein:

SSL Variable Harmonic Drive (VHD)

Also von Super Clean bis Dirty (Burkie bitte selbstständig Messwerte für diese Bezeichnung einsetzen) geht alles. Plus Regler zwischen "2nd or 3rd harmonic distortion or a blend of the two". Realisiert auf der analogen Seite.

weiterführender Link:

Lifing the Veil:
The Science Behind the SSL Sound


Ein kleiner Einblick was die so treiben. Schnell mal ein IC einsetzen und gut ist scheint es jedenfalls nicht zu sein. Eher andersrum. SSL gibt den Chip Herstellern den Input wie sie ihre Chips besser machen können.
 
Ich hab's mir mehrfach angehört, und auf die Bässe dabei geachtet, auf den E-Bass.
Nicht ausschließlich auf den E-Bass, sondern auch auf den tiefen "Impact" der Kick-Drum und den Punch der Snare.
Du darfst dich dabei nicht auf einzelne Instrumente konzentrieren sondern den Gesamtsound. Gedankliches Fenster von 20 bis 250 Hz aufmachen und darauf scharf stellen.

Was heisst, scharf stellen...eher so, wie du die 3D Bilder (weiß den Namen grad nicht) betrachten würdest, um darin einzelne Figuren zu erkennen.
Andere Gehirnhälfte würde ich sagen...
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Und nicht die Laptop Speaker nehmen...... :evil:
 
Laptop Speaker halte ich für unterbewertet. Persönlich halte ich Smartphones für noch geeigneter.
Die Beurteilung des LowEnds darauf ist eine wahre Freude, die Midrange darauf abzuhören ist erhellend.

Um das Gehör zu unterstützen, was sich nur zu leicht ablenken lässt, lasse ich Goniometer, Analyzer, Korrelation etc. mitlaufen, um das im Auge zu behalten.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich dachte immer, man hört amtlich korrekt auf einem Küchenradio ab, damit man über die Monokompatibilität orientiert ist.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
So lustig ihr euch auch darüber macht. Ich nutze ein Handy mit grottigem Monolautsprecher oft um zu prüfen ob der Sound darauf auch noch geht. Gerade die Bassarmut gegen Hifi Bassbums Kopfhörer ist da schön als Vergleich.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich dachte immer, man hört amtlich korrekt auf einem Küchenradio ab, damit man über die Monokompatibilität orientiert ist.
Geht aber auch gut über Smartphones, moderne Laptop-Speaker sind zum Teil ja auch Stereolautsprecher.
Damit geht das nicht so gut, was die Monokompatibilität betrifft.
Dem kann man entgegentreten, in dem man Musik mehr in Mono macht. So ginge das auch.
 
Hör selbst hin:
Bei 15:39 erfolgt der Wechsel bei gleicher Dynamik, gleichem musikalischen Inhalt.
Hatte etwas Zeit, bei der angegebenen Stelle mal rein zu hören. Bei 15.33 wird der "Real Neve" eingeblendet, bei 15:50 komm wieder der "UAD Neve". Ich stimme zu, dass beim Wechsel an 15:33 die Spielweisen gut vergleichbar sind, bei 15:50 geht es dann aber wieder in einer anderen Dynamik und in einem anderen Ausdruck weiter.
Und tatsächlich höre ich im Video ab 15:33 auch einen klanglichen Unterschied. Vor allem der Bass und der Low-End-Bereich klingen beim Real Neve etwas leiser als beim UAD direkt davor. Das wirkt dadurch auch klanglich weicher.
Es ist nun aber so, dass ich mich mit der Feststellung alleine, dass es diesen klanglichen Unterschied gibt, nicht zufrieden geben würde. Ich würde dann versuchen, der Sache auf den Grund zu gehen. Es ist vorher irgendwo im Video kurz davon die Rede, dass auch am EQ der Geräte Einstellungen vorgenommen wurden. Leider wird nicht näher mitgeteilt, welche. Nun besitzt das UAD-Plugin ja auch einen Clone der Optik der Originalgeräte, zeigt also optisch dieselben EQ-Pegelsteller wie das Original. Wenn man nun am originalen Neve bestimmte Einstellungen vorgenommen und diese dann 1:1 auf den Clone übertragen hat, dann wahrscheinlich derart, dass man dort die virtuellen Drehknöpfe auf dieselben Skalen-Strichpositionen gestellt hat wie bei den Hardware-Knöpfen.
Wer sagt nun aber, dass UAD das Original so perfekt geklont hat, dass an den selben Skalenpositionen exakt dieselben EQ-Eingriffe erfolgen? Es könnte doch sein, dass hier z.B. der Bass-Boost an derselben Position beim UAD ein wenig stärker anhebt als beim Original? Dann müsste man entweder den UAD etwas knapper einstellen oder am Real Neve den Regler ein wenig höher stellen und hätte dann womöglich doch dasselbe klangliche Ergebnis?

Wenn ich diese Geräte beide hätte und mir dieser Unterschied auffallen würde, dann würde ich zur Klärung des Sachverhalts durch beide Geräte einen Frequenz-Sweep schicken und auf eine Oszilloskop die ausgegebenen Signale/Kurven übereinander legen. Mit der Methode sieht man dann ganz schnell, wo sie nicht mehr deckungsgleich sind und ob und wie man sie mit einer geänderten Einstellung doch deckungsgleich bekommt. Damit könnte man eventuelle Abweichung in den Skalen auch quantitativ ermitteln.

So habe ich auch einmal die Abweichung genauer ermittelt, die bei einem Zoom H6 zwischen den Potis für Kanal 1 und 2 bestehen und die mir gehörsmäßig aufgefallen waren. Bei einer Stereomikrofonanordnung müssen ja beide Kanäle technisch genau gleich gepegelt werden. Falls aus irgendwelchen Gründen ein absoluter Gleichlauf von Pegelstellern erforderlich ist, teste bzw. kalibriere ich das mit dieser Methode.

Mein erstes Fazit bei der Feststellung der Unterschiede zwischen "Real" und "UAD" wäre also nicht "die klingen halt unterschiedlich", sondern "was ist da los, stimmen alle Einstellungen wirklich exakt überein?".

Das Gehirn und Gehör kann da auch nicht viel mehr machen. Sind z.B. 4 Geigen auf gleiche Panoramaposition im Stereomix gemischt, so kann auch kein Mensch auseinanderhalten, welche Geige welche Töne spielt.
Wenn die 4 Geigen unisono spielen, dann sicher nicht. Wenn sie aber einen vierstimmigen Satz spielen, sollte man recht leicht jede Geige ermitteln können, zumal, wenn man die Noten des Satzes vorliegen hat.

Im Übrigen hab ich zu dem Thema auch noch was. Leider finde ich den Link nicht mehr, aber kurz gesagt ging es um eine Studie neulich, die zeigte, dass das Ohr besser ist als konventionelle Messtechnik bei einem wichtigen Aspekt, dem Kompromiss zwischen zeitlicher und spektraler Auflösung.
Das Ohr ist wie auch alle anderen unserer Sinnesorgane kein Messinstrument, funktioniert nicht so und wurde von der Natur auch nicht dazu konzipiert. Das Ohr/der Gehörs-Sinn ist ein "Erkennungs-Instrument". Wir erkennen aus dem Gehörten Details, Zusammenhänge, Klänge, Worte usw.
In dieser Hinsicht sind unsere Sinne Messinstrumenten grundsätzlich überlegen. Aber das Erkennen will geschult werden, wir können nur erkennen, was wir kennen oder etwas, das an unsere bisherigen Erfahrungen anknüpfen kann.
Wer nicht darin geschult ist, was ein vierstimmiger Satz ist und wie der vorliegende Satz (den man auch noch Lesen können muss) klingen soll, der wird die vier Geigen in dem Satz nicht auseinanderhalten.
Ansonsten sind Messinstrumente aber in ihrer jeweiligen Spezialdisziplin den menschlichen Sinnen mehr als haushoch überlegen. Für die Messungen im Zeitbereich nimmt man im übrigen z.B. ein Oszilloskop, für den Frequenzbereich einen Spektrums-Analyser.

Mir scheint, dass hier immer wieder ein Gegensatz zwischen dem Hören und der Gehörbildung und dem technisch-Faktischen wie z.B. Messwerte, sorgfältiges Vorgehen bei Vergleichen usw. konstruiert wird.
Der Forderung nach guter, intensiver und fortwährender Schulung des Gehörs habe ich hier nie widersprochen. Wie sollte ich auch, denn ich unterrichte an einer Musikschule u.a. das Fach Theorie/Gehörbildung wo ich Schüler im Rahmen der Studienvorbereitung auf die Aufnahmeprüfung an einer Musikhochschule vorbereite. Deren Bedingungen sind mir daher gut bekannt, im letzten Jahr hat eine Schülerin aus meinem Kurs die Aufnahmeprüfung für das Toningenieur-Studium an der Musikhochschule Düsseldorf gemacht - und bestanden.

Aber ebenso seriös ist und bleibt für mich die Forderung, bei einem Vergleich - und eben darum geht es ja explizit in dem Video - alle Daten offen und transparent offen zu legen (wie z.B. EQ-Einstellungen, komplettes Equipment, Effekte in den Spuren usw.), wobei in den konkreten zu vergleichenden Tracks die Geräte selbstverständlich anonymisiert werden müssen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben