Signale auf OH,ROOM und AMBIENCE

  • Ersteller 5daysWeekend
  • Erstellt am
5daysWeekend
5daysWeekend
Registrierter Benutzer
Zuletzt hier
15.04.24
Registriert
26.08.05
Beiträge
941
Kekse
512
Ort
Mülheim an der Ruhr
Servus Leute,

Habe mit meiner Band Drums für eine Demo programiert.

Klingt auch wirklich gut. Dynamisch und nicht wie Konserve.

Man hat neben den direkt signalen die Möglichkeit jedes trockene Signal auf den Overhead, den Room und den Ambience Weg zu routen. Zudem kann man auch die Distance dieser drei Mikros erstellen.

Da wir das Material später zum mixen aus der Hand geben werden, möchte ich natürlich die bestmögliche Qualität liefern (24bit, 96khz).

Die Frage ist nun ... welche Signale gehören tendenziell auf welches mikro gibt es da irgendwelche richtilinien?

Ich habe bis jetzt das trockene Set und es klingt gut.
Möchte die drei Mikros nur quasi bereitstellen, damit derjenige der es uns mixt eine gute ausgangslage hat.

Also ihr "Profis" (!) was hättet ihr gerne auf den o.g. Wegen?

Grüße!
 
Eigenschaft
 
also das ist ja im prinzip schon ein prozess des mixes, wenn man das mit der software so schön routen kann. Warum fragst du das den Mischer nicht selber? der muss damit zurechtkommen und soll sagen, wie er es haben will. alles andere ist doch schwachsinn. jeder hat da seine ganz eigene philosophie.

falls der Mensch die software selbst hat, gib ihm doch eure miditracks mit deinen einstellungen und lass es ihn selber machen. falls nicht, lass ihn bei dir vorbeikommen und mach es mit ihm zusammen.
 
Auch eine Variante ... hätte ich so auch getan - oder werde ich tun.

Zur Zeit steht nur noch nicht fest, wo es gemacht wird.

Sind dabei alles in Ruhe zu proggen und die Gitarren/Bass zu recorden ...


war vorbereitend gedacht :)

danke trotzdem...
 
Da wir das Material später zum mixen aus der Hand geben werden, möchte ich natürlich die bestmögliche Qualität liefern (24bit, 96khz).
Was ist das Zielmedium? CD (44,1kHz) oder DVD (48kHz)?

Die 24-Bit sind gut. 96kHz nehme ich nie auf. Das mag zwar für die digitale Bearbeitung (wenn auch 96kHz-fähige Effekte benutzt werden) zwar ein Vorteil sein, ist aber beim Exportieren am Schluss ein Nachteil, da gewisse Wellenformen/Werte unschön von 96kHz auf 48kHz oder 44,1kHz "gerundet" werden müssen.

Ich nehme immer in der Frequenz des Zielmediums auf, also 44,1kHz mit 24Bit.
 
ohne jetzt eine (gott bewahre) sampleratendiskussion lostreten zu wollen:


Das mag zwar für die digitale Bearbeitung (wenn auch 96kHz-fähige Effekte benutzt werden) zwar ein Vorteil sein, ist aber beim Exportieren am Schluss ein Nachteil, da gewisse Wellenformen/Werte unschön von 96kHz auf 48kHz oder 44,1kHz "gerundet" werden müssen.

gerundet wird da gar nichts. da wird interpoliert. und wenn das richtig gemacht wird, dann tritt auch keinerlei Qualitätsverlust beim runterrechnen gegenüber direkt im niedrigeren Zielmedium aufnehmen auf.
Sinnvoll ist es natürlich trotzdem, sich vorher darüber gedanken zu machen, ist schließlich ein weiterer Arbeitsschritt. Den Rest kann man so stehen lassen.
 
ohne jetzt eine (gott bewahre) sampleratendiskussion lostreten zu wollen
zu spät.

jede Art von Wandlung oder Umrechnung bringt Qualitätverluste. Wie bemerkbar die sind, ist eine andere Sache. Aber wenn man drauf verzichten kann, umso besser. Geradzahliges Umrechnen ist noch einfach (halbe/doppelte Samplerate), weil einfach jeder zweite Samplepunkt ausgelassen werden kann, während das Interpolieren von 48 auf 44,1 kHz einen derartig krummen Faktor hat, dass die Samplepunkte wild verschoben werden müssen.
"keinerlei Qualitätsverlust" ist also Quatsch.
 
sicher hat man leichte Rechenungenauigkeiten drin. die hast du übrigens in fast jedem Schritt, in dem du Audiosignale bearbeitest :rolleyes:
trotzdem glaube ich kaum, dass man da einen Unterschied im Blindtest hören wird. Wenn ich die Tage mal zeit hab, werd ich vielleicht kurz was ausprobieren.
 
ist ja letztendlich egal, ob und wem es auffällt, wenn man's ganz einfach durch kurzes Vorausdenken komplett verhindern kann.
 
Stifflers Mom:

Da liegst du nicht richtig. Bspweise für eine CD-Produktion ist es sehr wohl problembehaftet, wenn man ein 96kHz auf ein 44.1kHz Signal runterpeitscht.

96kHz ist nicht teilbar durch 44.1kHz.

Das Wort:
wikipedia schrieb:
(lat. interpolare "auffrischen", "umgestalten", "verfälschen")

Dazu kommt, dass ein 96kHz Signal anders tönt als ein 44,1kHz Signal. Das kann beim Mischen/Mastern sehr wohl ein Problem werden. Vor dem Runterrechnen tönt oft alles toll, nachher nicht mehr. Man würde mit einem 44,1kHz Signal anders mischen, will ich sagen.


Falls ihm, Gott bewahre, mal etwas zustossen sollte :) .
 
Da liegst du nicht richtig. Bspweise für eine CD-Produktion ist es sehr wohl problembehaftet, wenn man ein 96kHz auf ein 44.1kHz Signal runterpeitscht.

Jeder Rechenschritt ist "problembehaftet". Der Punkt ist, ob das mathematisch und hörbar ins Gewicht fällt. Wenn die Anti-Aliasing Filter ordentlich gemacht sind, ist das kein Thema.


96kHz ist nicht teilbar durch 44.1kHz.

Ich weiß. dafür gibts die erfindung der floating point Berechnung ;)
Außerdem sind die Probleme durch das entstehende Aliasing viel schwerwiegender als ein paar kommastellen-Rundungsfehler.



Interpolieren ist eine simple mathematische Operation. Wenn dann nimm bitte den richtigen Wiki Artikel: Interpolation


Dazu kommt, dass ein 96kHz Signal anders tönt als ein 44,1kHz Signal. Das kann beim Mischen/Mastern sehr wohl ein Problem werden. Vor dem Runterrechnen tönt oft alles toll, nachher nicht mehr. Man würde mit einem 44,1kHz Signal anders mischen, will ich sagen.

Hast du ein Hörbeispiel?
dass ein hörbarer Unterschied zwischen Signalen mit 44,1 und 96kHz Abtastrate besteht, bezweifle ich nicht. Ich glaube jedoch, dass die Vorteile einer Produktion, die man in 96k fährt und am Ende auf 44,1 runterrechnet - auch mit in Kauf nehmen der Konvertierung - gegenüber einer komplett in 44,1k aufgenommenen Produktion überwiegen.
 
Es werden da ja nicht stumpf Punkte weg gelassen oder hin und her geschoben. Man kann sich das eher wie eine interne d/a - a/d Wandlung vorstellen, mal gaaaaanz simpel ausgedrückt. Programmierer verbocken zwar durchaus mal einiges, aber das Artefaktfrei hin zu bekommen sollten wir ihnen schon noch zutrauen...

Aber davon abgesehen: Was bringt es einem Frequenzinformationen aufzunehmen die man am Ende wieder raus wirft? 24 bit ergibt ja noch Sinn solange man bearbeitet weil man eben nicht so stark aussteuert wie am Ende auf dem Zielmedium, aber was will man mit mehr Bandbreite wenn man sie hinterher eh nicht speichert? Abgesehen von der Sinnhaftigkeit, denn kaum ein Mikrofon liefert da noch was noch ist da musikalisch was verwertbares noch geben die wenigstens Anlagen das wieder noch hört irgendeiner von uns da oben noch was...

Ich denke mal das ist wirklich der allerletzte Punkt über den man sich noch Gedanken machen sollte.



Also: 24 bit geht ok, wenn das Signal schon gut ausgesteuert ist reichen auch 16 (immerhin noch 90 dB über dem Noisefloor) - wobei es natürlich auch keinerlei Notwendigkeit gibt so weit runter zu gehen, Samplerate das was am Ende aufs Zielmedium soll. Ich sag mal, gerade im Kontext von zuhause aufgenommenen Gitarren und programmierten Drums hört das wirklich kein Schwein und ist das letzte was irgendjemanden interessiert.
Mal ganz provokativ ausgedrückt.
 
bei höherer Samplerate werden gerade schnelle Transienten besser aufgelöst und können dementsprechend feiner bearbeitet werden. Ob die Signalkette das allerdings hergibt steht auf einem anderen Blatt... Gerade bei Filtern (PlugIns) kann eine höhere Anzahl an Stützpunkten zu einem besseren Endergebnis führen, da nicht so viel interpoliert werden muß, das kann sich sogar in kürzeren Rechenzeiten niederschlagen, trotz größerer Datenmenge.

Man sollte aber für Audio-Produktionen dann eher 88.2KHz nehmen.
 
Aber davon abgesehen: Was bringt es einem Frequenzinformationen aufzunehmen die man am Ende wieder raus wirft?

Eigentlich nichts. Für Homerecording schon mal gar nicht. Ich bin absolut kein Verfechter der ultrahohen Abtstraten mit 96k und mehr, ich nehm selbst eigentlich immer in 44.1/48 auf.

Aber:
- Audiosignale von Mikrofonen können sehr wohl Transienten enthalten, die mit 44.1k nicht mehr korrekt darstellbar sind.
- Es gibt viele moderne Plugins, die intern auf höhere Abtastraten hochsamplen. Das spart, wie Pico schon geschrieben hat, Rechenzeit und nutzt die Vorteile dessen besser.

Wenn man das entsprechende Equipment hat und sich mit dem Mehraufwand an Datenmenge herumschlagen will, dann ist die Nutzung von höheren Abtastraten durchaus gerechtfertigt.
Ich zähle mich nicht dazu, genauso wie wahrscheinlich 99% der User hier im Forum.
 
- Audiosignale von Mikrofonen können sehr wohl Transienten enthalten, die mit 44.1k nicht mehr korrekt darstellbar sind.
Da bleibt die Frage wie wichtig diese hochfrequenten Anteile der Transienten sind. Ich meine, wir können sie nicht hören. Vielleicht könnte man damit Katzen verscheuchen....


Aber im Endeffekt, Speicherplatz ist kein Problem, wenn die Hardware das unterstützt soll jeder gerne in jeder Samplerate aufnehmen die er mag, hauptsache man macht sich darum keine Gedanken.
 
Zuletzt bearbeitet von einem Moderator:
Da bleibt die Frage wie wichtig diese hochfrequenten Anteile der Transienten sind. Ich meine, wir können sie nicht hören. Vielleicht könnte man damit Katzen verscheuchen....

Ganz genau. "Schnellere Transienten" sind ja nichts anderes als höhere Frequenzanteile. Ich empfehle diese Lektüre von einem der absoluten Gurus des Metiers:
http://lavryengineering.com/documents/Sampling_Theory.pdf

Und das ein Plugin scheinbar schneller rechnet kommt einfach daher, dass mit höherer Abtastrate, die Werte zum Rechnen entsprechend schneller durchgenudelt werden (müssen). Und damit sinkt die Latenz. Gerade für Algorithmen wie Filter, die eine ziemlich feste Anzahl von Rechenschritten pro Sample haben.
 
Da bleibt die Frage wie wichtig diese hochfrequenten Anteile der Transienten sind. Ich meine, wir können sie nicht hören. Vielleicht könnte man damit Katzen verscheuchen....


Aber im Endeffekt, Speicherplatz ist kein Problem, wenn die Hardware das unterstützt soll jeder gerne in jeder Samplerate aufnehmen die er mag, hauptsache man macht sich darum keine Gedanken.

wie kommt denn da jetzt mein Name ins Zitat?


[Hab das mal korrigiert. Banjo]
 
Zuletzt bearbeitet von einem Moderator:
Jeder Rechenschritt ist "problembehaftet". Der Punkt ist, ob das mathematisch und hörbar ins Gewicht fällt. Wenn die Anti-Aliasing Filter ordentlich gemacht sind, ist das kein Thema.
Niemand macht 4 Schritte, wenn er weiss, mit 3 Schritten ist ein besseres Ergebnis erzielbar.

Ich weiß. dafür gibts die erfindung der floating point Berechnung
Außerdem sind die Probleme durch das entstehende Aliasing viel schwerwiegender als ein paar kommastellen-Rundungsfehler.
Siehe oben.

Interpolieren ist eine simple mathematische Operation. Wenn dann nimm bitte den richtigen Wiki Artikel: Interpolation
... stimmt, simple mathematische Operation. Und nicht grundlos heisst es Polynominterpolation. Die Daten werden u.a. "verfälscht". Das gehört zur Numerik und Numerik ist ungenau, da sie mit Computern arbeitet. Habe das im letzten Beitrag erklärt. Um mehr gings ja auch nicht.

Hast du ein Hörbeispiel?
...Nein, aber du gibst dir die Antwort selber:

dass ein hörbarer Unterschied zwischen Signalen mit 44,1 und 96kHz Abtastrate besteht, bezweifle ich nicht. Ich glaube jedoch, dass die Vorteile einer Produktion, die man in 96k fährt und am Ende auf 44,1 runterrechnet - auch mit in Kauf nehmen der Konvertierung - gegenüber einer komplett in 44,1k aufgenommenen Produktion überwiegen.


Es existiert also ein hörbarer Unterschied? Logisch würde man das etwas anders mischen bei verschiedenen Qualitäten. Ob und inwiefern es ins Gewicht fällt, ist unterschiedlich. Dass es aber so ist, wird dir jeder Toningenieur mit guten Gehör bestätigen. Mit etwas anderem macht man etwas anderes.

Aber auch hier war gemeint: Niemand macht 4 Schritte, wenn er weiss, mit 3 Schritten ist ein besseres ( / mindestens gleich gutes) Ergebnis erzielbar.


So dann en schönen Abend.
 
Niemand macht 4 Schritte, wenn er weiss, mit 3 Schritten ist ein besseres Ergebnis erzielbar.

Hab ich denn was anderes behauptet?


... stimmt, simple mathematische Operation. Und nicht grundlos heisst es Polynominterpolation. Die Daten werden u.a. "verfälscht". Das gehört zur Numerik und Numerik ist ungenau, da sie mit Computern arbeitet. Habe das im letzten Beitrag erklärt. Um mehr gings ja auch nicht.

Natürlich werden sie "verfälscht" (hier unangebrachter ausdruck), damit sind sie bei der Zielabtastrate ja wieder richtig. :gruebel:


...Nein, aber du gibst dir die Antwort selber:

Nein, deine Aussage war, dass die Umrechnung eines 96k Mixes auf 44.1k den Mix völlig zerstört (übertrieben). Da geht es um Nuancen und Feinheiten, die wahrscheinlich 50 % aller Menschen überhaupt nicht wahrnehmen. Ein guter Mix wird in 44.1 genauso gut klingen, wie eine schlecht gemischte 96k Aufnahme dadurch auch nicht besser klingt.



Es existiert also ein hörbarer Unterschied?

Ja, Feinheiten.



Logisch würde man das etwas anders mischen bei verschiedenen Qualitäten. Ob und inwiefern es ins Gewicht fällt, ist unterschiedlich.

Das fällt sicher nicht ins Gewicht. Ich würde dadurch nicht anders mischen.


Dass es aber so ist, wird dir jeder Toningenieur mit guten Gehör bestätigen. Mit etwas anderem macht man etwas anderes.

Ich hab gerade meinen Bachelor im Toningenieur abgeschlossen. Und mein Gehör ist glaube ich zumindest brauchbar ;)


Was auch immer das hörbare bei fs > 48kHz ist, seien es Intermodulationsverzerrungen oder Aliasing-ähnliche Effekte im Gehör, besser wird die Musik dadurch auch nicht.


So dann en schönen Abend.

und eine gute Nacht!
 
ich denke es ist jetzt ziemlich alles gesagt und den Schlagabtausch macht bitte per PN - hier läuft das OT
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben