Recording-Stammtisch

  • Ersteller livebox
  • Erstellt am
@monsy: hm, die "weniger ist mehr"-Mentalität ist sehr löblich, bzw. beschäftigt mich grade schon.. Ich frage mich, wo fängt die an und wie weit geht die?
Was betrachtest du denn als Maximum "zulässiger" Plugins auf ner Spur, bevor es zuviel verbogen wird? (natürlich nur so als Anhaltspunkt)

Das ist ne schwierige Frage und ich kann darüber ja mal ein bischen drauflos philosophieren wie ich persönlich die Dinge sehe (respektive höre ;) )....

Ich find alles fängt eigentlich schon mit dem Arrangement und mit dem Editing an....
Wenn man z.b. Stille bei den verzerrten Gitarren per Hand schneidet (statt Gate), hat man schonmal volle Kontrolle darüber. An manchen Stellen kanns gut sein, wenns noch durchrauscht um dem Gesamtsound zu "füllen"... bei staccato-break-kram is natürlich meistens super wenn direkt Stille is.... bei anderen Dingen ists dann gut, wenn das Rauschen langsam ausfadet. Solche Dinge lassen sich auf alles übertragen.... hat man bei den Vocals nen paar Silben/Wörter/Segmente die krass rausstechen/abfallen, kann/sollte man diese Fragmente auch "von Hand" angleichen und überlegen ob es nicht auch Automationen an vielen Stellen tun.
Ist man bei all diesen Dingen schon gründlich, dann brauch man am Ende schon keine Plugins mehr, die man dazu benutzt um irgendwelche "Fehler" zu kompensieren.

Danach sollte man beim Arrangement sich klare Prioritäten setzen und überlegen welche Elemente für den Charakter des Songs besonders wichtig sind und diesen die meiste Aufmerksamkeit schenken. Nen Limp Bizkit-Song ohne überfette Drums würd nicht punchen.... nen Black Metal-Song wiederum mit zu fetten Drums würde keine dichte Atmosphäre aufbauen können. Bei nem Popsong würden sich Vocals nicht ausreichend auf allen Medien durchsetzen, wenn die Vocals nicht hart genug komprimiert sind und genug tiefe Frequenzen haben etc etc etc etc.... alles natürlich immer situations- und songabhängig.

Ich finde oft, dass viele Leute den Fehler machen, dass sie "Details" nicht "Details" sein lassen. Die sind dann so stolz auf irgendwelche schlauen Effekte oder Add-Synthies/Melodien etc, dass sie die unbedingt im Mix deutlich präsentieren wollen...

Was die Anzahl an Plugins angeht, kommt es dann natürlich auch noch drauf an wieviel an "Effekten" man letzendlich benutzt. Ich finds da wichtig, dass man sich genau überlegt was eine Sache braucht und nicht "aus prinzip" alles vollpackt. Wenn irgendne Spur gut klingt und funktioniert... super... wozu dann z.B. noch komprimieren?
Allgemein bin ich der Ansicht, dass nahezu alles einen Lowcut braucht und auch Highcuts sollte man nicht unterschätzen. Wenn das bei allem stimmt, dann gehz eigentlich "nur noch" darum im Frequenzbereich dazwischen verschiedene Dinge aufzuteilen.

Dann bin ich der Ansicht, dass man mit allen Effekten die irgendwas psychoakustisches machen oder Dinge unnatürlich bearbeiten extrem vorsichtig sein sollte und es mit diesen nicht übertreiben sollte. Sowas wie Expander, Exciter, Stereoerweiterung, Doublereffekte etc. etc. Wenn man sowas zu ausschweifend benutzt, dann klingts am Ende auch nicht mehr homogen, sondern halt digital und drüber.

Bei der Tiefenstaffelung und Delayeffekten sollte man dann meiner Ansicht nach auch genau nachdenken. Hat man einen Hall auf einem Element der wunderschön klingt, ist das völlig für die Katz, wenn man gleichzeitig auf anderen Elementen auch noch auffällige Halleffekte hat... dann überlagern sich die Hallfrequenzen wiederum so, dass der ursprünglich "schöne" Hall auf der Snare oder auf den Vocals oder auf dem Solo oder wodrauf auch immer nicht mehr "durchscheint".
Delayeffekte find ich auch extrem wichtig um Songs zu "füllen" ohne dabei mehr Elemente hinzuzufügen. Jene entsprechend einzusetzen und (mit kopfhörern) genau hinzuhören wieviel % vom Delay passend sind... in welchem Rhythmus und ob stereo/mono/pingpong-delay etc. grad am besten is, is auch noch brutal wichtig... selbst wenn solche Effekte auf vielen kommerziellen Produktionen kaum wahrzunehmen sind, ist das eben das Resultat daraus, dass sie einfach homogen eingestellt sind.

Dazu kommen halt noch selbstverständliche Dinge wie ein ausgewogenes Stereobild.... keine krassen Halleffekte einzelnen Seitenelementen oder zuviel Bassfrequenzen an den Seiten etc. etc.


Das sind jetz alles ultra banale Dinge... aber wenn man in jedem Bereich bei solchen Banalitäten gründlich ist, dann ergibt sich daraus nen homogenes Bild.

Ich versuch inzwischen eigentlich immer mehr "nachzudenken" statt einfach "irgendwas zu machen" oder auszuprobieren.

So... genug geschwafelt... falls iwer iwas anders sieht... haut mich gerne dafür. Ich bin ja kein Dozent an ner Tontechnikschule oder hab ne goldene Schallplatte anner Wand ;)
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Nach meiner sehr beschränkten Studioerfahrung (ich war bislang Livemensch, und da waren Plugins noch echte Hardware die man in den Sideracks haben und verkabeln mußte): Ab 3 bekomme ich Stirnrunzeln, ab 5 geht die Rote Lampe an. Letzteres merkt man gut da ich dafür in Pro Tools das zweite Set Inserts (6-10) aufmachen muß. :)

Ansonsten kann ich monsy weitgehend zustimmen. Ich erwische mich bisweilen ebenfalls, Dinge per Plug-In korrigieren zu wollen, anstatt es entsprechend zu editieren oder zu automatisieren. Gefährlich, da meistens mit (nicht direkt bemerktem) Kollateralschaden einhergehend. Und ja, je mieser die Aufnahme des Instruments ist, desto mehr Plug-Ins finden sich dann zumeist drauf (Tendenz, nicht pauschalisierbar)... auch hier gilt in Abwandlung des alten FOHler-Spruchs: "Das ist eine DAW, kein Klärwerk".
 
  • Gefällt mir
Reaktionen: 1 Benutzer
@Deltafox: Da gabs keinen Subtext. Für mich als Anfänger ists einfach spannend, anhand eines Fallbeispiels diesen Austausch mitlesen zu können. Und der Tonfall hier gefällt mir auch gut. Auch, dass du dich trotz der nicht nur positiven Kritik traust, dich weiterhin hier zu stellen. Außerdem sind diese Gedanken "overprocessed" vs. "natürlicher Mix" extrem spannend. In diesem Sinne: Weitermachen!

Ich persönlich habe mir zu deinem Mix gedacht, dass irgendetwas nicht stimmen kann, wenn ich auf meinem Macbook Pro 13" auf dem 5. Lautstärkebalken zwei Stufen leiser schalte. Es gibt 16.

Verbesserungsvorschläge zum Mix kann ich mangels Kompetenz leider nicht geben. Ich scheitere immer daran, meine Audioaufnahmen laut auf Laptopboxen klingen zu lassen, damit Freunde es auch mal (rein musikalisch) beurteilen können. :D Auf meinen Kopfhörern und Nahfeldmonitoren habe ich einfach mehr Headroom.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Sehr gute Diskussion hier.

Ich vertrete den Standpunkt "so wenig wie möglich, aber so viel wie nötig".
Versuche zwar auch wie monsy die Anzahl von Plug-ins und extreme Bearbeitungen zu beschränken, aber ich scheue mich trotzdem nicht, auch mal ordentlich hinzulangen oder sogar tief in die Trickkiste zu greifen, wenn es sein muss, um etwas brauchbar klingen zu lassen.

Zuletzt habe ich einen Song zum Mischen bekommen, bei dem die Bassgitarre unfassbar grottig aufgenommen wurde.
Ich weiß nicht wie die das angestellt haben, aber der Bass hatte über 1 kHz eigentlich so gut wie überhaupt keine Anteile mehr.
Entsprechend klang auch das Ganze, komplett dumpf, undefiniert und leblos.

Habe mich dann so beholfen, dass ich mit Melodyne den Bass in MIDI gewandelt, und dann in Trilian einen Bass ausgesucht habe, der den Originalbass in den oberen Frequenzen ergänzt, und beide dann zusammen auf einem Bus bearbeitet, als wären sie nur ein Instrument.
Das erst hat den Bass im Mix hörbar gemacht.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Habe mich dann so beholfen, dass ich mit Melodyne den Bass in MIDI gewandelt, und dann in Trilian einen Bass ausgesucht habe, der den Originalbass in den oberen Frequenzen ergänzt, und beide dann zusammen auf einem Bus bearbeitet, als wären sie nur ein Instrument.
Das erst hat den Bass im Mix hörbar gemacht.

Intelligente Lösung.

Unendlich lange Signalketten oder extreme Bearbeitung können in Ausnahmefällen natürlich auch mal Sinn ergeben.

Effekte die zur Klangformung beitragen können da ne Kette auch mal lang machen.

Mal angenommen ich möchte einer dichten Synthiefläche "oben drauf" noch etwas dezente Bewegung geben und mache dafür einen arpeggiator-klang "von Hand" den ich dann leise dazu mische. Da könnte ne Kette dann auch so aussehen:

1. VSTi
2. comp
3. eq
4. sat
5. sidechain comp
6. vibrato
7. fx-eq
8. delay
9. autopan
10. reverb

teil 1:
Als Basis dient irgendein VSTi indem der Klang erzeugt wird. Danach wird das Signal leicht komprimiert, damit es etwas mehr "steht" und nich zuviel Bewegung entwickelt. Anschließend kommt das grundsätzliche EQing. Lowcut, 2 Resonanzen rausgezogen, kleiner push in den höherne Frequenzen, bissel tiefmitten weg.

teil2:
Ich möchte, dass das ganze nen bischen mehr dirty is und pack deswegen irgendnen Saturation/Zerr-Plugin drauf. Dazu möchte ich, dass das Signal rhythmisch auf halbe Noten fast weggeht. Deswegen erstell ich einen Sidechaincomp, den ich mit irgendner Phantomspur trigger. Als nächstes möchte ich, dass das Signal etwas "leiert" damit es irgendwie älter und kaputter klingt und pack deswegen ein Gitarrenvibrato drauf. Um dem ganzen nen bischen nen "wah"-effekt zu geben nehm ich dann einen EQ und nehm einen nicht zu breit und schmalbandigen Boost, den ich per Automation durch das Frequenzspektrum hin und her fahren lassen. Danach ein leichtes (mono)-delay um den Sound aufzufüllen. Mit nem Autopan wandert dann der Sound leicht von 30%L zu 30%R im 4takt-rhythmus oder sowas.. und damit das ganze nicht zu sehr vorne klebt, kommt es noch durch ein leichtes Reverb (welches man scho auf anderen Elementen verwendet hat).

Is jetz alles mal son auf die schnelle ausgedachtes Szenario. Da ist dann für mich Teil 1 die Bearbeitung, die eigentlich dann quasi mehr die "tontechnische" Seite des Ganzen darstellt und Teil 2 jene Bearbeitung, die dann die kreative Seite repräsentiert.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
8. delay
9. autopan
10. reverb
Die Frage aller Frage: Zuerst Delay und dann Reverb oder umgekehrt? Also nicht konkret beim Synth, sondern generell. Klar, kommt auf das Instrument und gewünschten Sound darauf an, aber ich frage mich das immer..... Vor allem bei cleanen Gitarren, die sowohl Reverb als auch Delay ganz dezent als Send drauf haben. Ich probiere immer beides, einen riesen Unterschied höre ich nicht. Meistens mach ich zuerst Reverb und dann Delay. Machst insofern Sinn, denke ich, weil der Reverb ja der kürzere von den beiden ist. Was sagt ihr dazu?
 
gutes Beispiel - mein Ansatz wäre 180 Grad entgegengesetzt :D
die Aversion gegen solche Ketten hat ihre Ursache beim Bass.

Da ist mir mal aufgefallen, dass jedes beliebige Plugin den Sound negativ beeinflusst hat. Speziell natürlich Amp-Simulationen, aber auch Dinge wie durchaus namhafte 1176 Emulationen. Am Ende habe ich alles wieder rausgenommen und das pure DI Signal benutzt. Ein einzelner EQ ist natürlich kein Drama, aber als Konsequenz benutze ich (meist) einen von 3 Precision Bässen, bei denen jeder 'seine' individuell optimale Besaitung hat.

Nur nebenbei (es war an anderer Stelle schon Thema genug) war das bei mir auch das 'Ereignis' was die Akzeptanz des iPads als vollwertigen Soundprozessor etabliert hat.
Da benutze ich tatsächlich oft eine Fender Bassman oder Acoustic 360 Emulation ohne das Gefühl zu haben, das Signal wäre flacher oder 'abgeschliffen' und das landet auch im Ergebnis als vollwertige virtuelle Mikrofonierung. (hat mich seinerzeit fast wie ein Schlag getroffen)

apropos Schleifen: das Reverb am Ende der Kette ist bei Synth Flächen quasi obligatorisch für den gewünschten Effekt, aber es wirkt extrem 'glättend'... und bestimmt den Sound zu weit über 50%.
Insofern passt auch die Aussage: ich nehme ein beliebiges VSTi
Man könnte auch eine Casio Tischhupe mit der gleichen Wirkung einsetzen...
(soll jetzt kein Witz sein - die Dinger haben teilweise sehr durchsetzungsfähige Klänge, denen so der 'cheese' ausgetrieben werden kann)

Die exzessive Bearbeitung solcher Ketten bleibt aber nie ohne Wirkung auf das Ausgangsmaterial.
In meinen Ohren ist sie idR negativ - andere legen ihre Track möglicherweise auch bewusst so an.
Ist Geschmacksache und/oder vom Ziel des Tracks abhängig.
Ich habe aber oft den Eindruck, dass viele Anwender 'Digitalverbeitung' für eine Art verlustfreien Prozess halten, speziell wenn zwischen den Zeilen etwas von 'floating point Auflösung' steht...

cheers, Tom
 
Die Frage aller Frage: Zuerst Delay und dann Reverb oder umgekehrt?
Das macht keinen Unterschied. Als Send sowieso nicht, denn der verändert das Signal im Kanalzug ja nicht. Aber auch als Insert, also in Serie geschaltet, macht es keinen Unterschied, was zuerst kommt.

Das alles voraussetzend, dass zwischen den beiden Sends oder Inserts kein anderer Effekt dazwischen hängt, wie der Autopan im Beispiel.

Banjo
 
Die Reihenfolge in meiner hypothethischen Kette is natürlich auch variabel. Es wäre ja z.b. auch denkbar die Zerre/Sättigung später zu benutzen (vll sogar am Ende um Delay und Hall mit zu zerren)... oder auch den am Ende Vibratoeffekt um "alles" leiern zu lasse oder oder.

Ich benutze Delays eigentlich immer vor Reverbs, weil ich nicht den Hall "wiederholen" möchte, sondern das Signal ansich und dann das wiederholte Signal "im Hall" haben möchte... gibt aber auch Situationen wo es andersrum sicher cool sein kann. Grade wenn der Hall irgendwie sehr charakteristisch is... mit nem "ekligen springreverb" kann ich mir das z.b. als Effektelement gut vorstellen, wenn man das Delay erst danach benutzt.
 
das kann ich nicht bestätigen... ein Reverb kann ein Delay komplett auswaschen... ;)
hängt natürlich auch von den Zeiten ab und ob das Delay selbst im Ausklang bereits 'reverbartig' klingt

cheers, Tom
 
Monsy, das Delay dann als Insert, der Hall als Send, oder?

Banjo
 
hmm... ja.

Ich benutz ja Tracktion wo alles nen bischen anders ist, da muss ich erstmal ein wenig umdenken und dann auch überlegen wie es bei ner "normalen" DAW ist ;)

Ich hab meine beschriebene Signalkette überings mal schnell gebaut. In 3 Varianten...

Variante 1: Delay vor Reverb
Variante 2: Reverb vor Delay
Variante 3: wie 2 nur mit Zerrplugin am Ende der Kette



Ich hör aber grade auf dem rechten Ohr nix, weil es verstopft ist. Muss da gleich zur Apotheke... ich hab deswegen auch nicht "hingehört" (geht ja eh nich :D ), sondern einfach genau das gemacht was ich geschrieben habe (was der Sache ja dienlich ist).

Dieses Beispiel einer langen Signalkette sollte aber auch nur für so ein Beispiel als "Ergänzungslayer" dienen. Deswegen nun noch mit Strings dazu:



und nun auch noch mit Kontext:


Ich hoffe es ist klar, dass das natürlich musikalisch völliger bullshit ist und nur der Anschauung dient :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: 1 Benutzer
prinzipiell ist es einem Impuls ja egal, ob er erst eine Reverbfahne bekommt und dann dieses Signal ganz oft wiederholt wird, oder ob der Impuls erst ganz oft wiederholt wird, wobei jeder dieser Impulse wieder eine Reverbfahne abbekommt.

Der Unterschied wird hier in erster Linie im Stereo-Processing liegen (oder sonstigen Imperfektionen, die die Plugins - vermutlich gewollt - vornehmen).

Aber reine Theorie, widersprecht mir!
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Da widersprech ich nicht, genau so ist es.

Banjo
 
klar - dem Impuls ist es wurscht...
aber wir hören ja nicht nur diesen (Auslöser) sondern auch alles, was in der Folge 'angestossen' wird
(samt Interaktion)
meine Ausgangstaktik war mal standardmässig in etwa '... ich packe das Delay in den Raum des Reverbs...'
das Ergebnis war teilweise ziehmlich entäuschend

ich muss allerdings anfügen, dass ich als Delay praktisch nie reine Digital/Sample Delays benutze
es sind meist Emulationen von Bandechos oder analogen Delays, die selbst einen starken Eigenklang haben

cheers, Tom
 
Also wenn die Delay und Reverb hintereinander hängen ist die Reihenfolge absolut egal, vorausgesetzt es handelt sich um reine lineare Effekte, also keine Zerre im Spiel, kein erzeugtes Rauschen und auch keine Modulation, wie sie manche Hall-Algorithmen machen.

Da ist die Theorie glasklar. Für die Bandechos und Analog-Emulationen sieht das anders aus, weil sie eben die Kriterien oben nicht erfüllen.

Banjo
 
So... genug geschwafelt... falls iwer iwas anders sieht... haut mich gerne dafür. Ich bin ja kein Dozent an ner Tontechnikschule oder hab ne goldene Schallplatte anner Wand ;)

haue dich nicht, im Gegenteil, sehr schön auf den Punkt gebracht (Oder besser "die Punkte")

Gruss
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Also wenn die Delay und Reverb hintereinander hängen ist die Reihenfolge absolut egal, vorausgesetzt es handelt sich um reine lineare Effekte, also keine Zerre im Spiel, kein erzeugtes Rauschen und auch keine Modulation, wie sie manche Hall-Algorithmen machen.

Da liegt aber der entscheidende Punkt.
Meines Wissens haben so gut wie alle algorithmischen Reverbs Modulation, manche mehr, manche weniger.
Bei manchen kann man den Grad natürlich auch einstellen.

Wenn man ein verhalltes Signal in ein Delay schickt, wird der immer gleiche Hall wiederholt.
Wenn man aber ein Delay in den Hall schickt, wird der Hall von jeder Wiederholung neu und (das ist der Punkt) unterschiedlich angeregt, da ja auch die Wiederholungen immer geringere Pegel haben.
Bei einem Ping-Pong Delay und einem True Stereo Reverb kommt dann noch die Platzierung im Panorama dazu, die vom Reverb auch mitberücksichtigt wird.
Also bei Gitarreneffektpedalen kommt bei mir immer der Hall an letzter Stelle.

In der DAW arbeiten wir ja in der Regel anders, da wir ja Sends einsetzen, wo sich Reverb und Delay ja nicht gegenseitig beeinflussen.
Lange Zeit bin ich überhaupt nicht auf den Gedanken gekommen, dass man die Delays an einen Reverb weiterschicken könnte.
Das ist aber das "Geheimnis", wenn man Delays schön in den Mix einbetten möchte.

Ich hoffe es ist klar, dass das natürlich musikalisch völliger bullshit ist und nur der Anschauung dient

Was?? :eek:
Der beste Song, den ich seit langem gehört habe :D
 
hmm... ja.

Ich benutz ja Tracktion wo alles nen bischen anders ist, da muss ich erstmal ein wenig umdenken und dann auch überlegen wie es bei ner "normalen" DAW ist ;)

Ich hab meine beschriebene Signalkette überings mal schnell gebaut. In 3 Varianten...

Variante 1: Delay vor Reverb
Variante 2: Reverb vor Delay
Variante 3: wie 2 nur mit Zerrplugin am Ende der Kette

Hmmja, subtil aber hörbar, bei Variante 1 steht der Ausklang mMn mehr im Raum, also will sagen der Synth bleibt an der Panoramastelle stehen und klingt dort aus, während bei Variante 2 das Signal "bewegter" wirkt, es klingt für mich, als wandert der Ausklang mehr mit dem Originalsignal mit...
vielleicht weil der Reverb diffuser ist als das Delay und damit weniger exakt ortbar im Stereobild...

will sagen: Durch den Reverb wird erst die Räumlichkeit im Stereobild erzeugt und bei V1 wird das Delay an je einer bestimmten Pan-Position vom Reverb abgebildet, während bei V2 nur der Originalimpuls abgebildet wird und diese 'verwaschene' Stereo-Information dann wiederholt wird.

Oder nochmal anders gesagt: Das Delay macht erstmal "mehr Klang" an die Stelle des Panoramas (an der sich der AutoPan-Synth gerade befindet), so dass dann im Reverb-Ausklang die Position besser ortbar ist, als wenn nur der Dry-Synth-Impuls an den Reverb gefüttert wird...

Schwer zu erklären..
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben