„Rendern oder nicht rendern, das ist hier die Frage“

Mr. Mattes
Mr. Mattes
Registrierter Benutzer
Zuletzt hier
12.05.24
Registriert
28.03.17
Beiträge
48
Kekse
0
Hallo liebe Musikfreunde,

ich habe eigentlich eine einfache Cubase-Anfängerfrage.

Warum soll (muss?) man die VST also die virtuellen Klangerzeugerspuren vor dem Mixing- und Masteringprozess rendern?

In diversen Internetforen habe ich hauptsächlich zwei Gründe gefunden:
1. Die Rechnerleistung wird optimiert,
2. Der Gleichspannungsversatz wird entfernt


Und jetzt seid Ihr dran.
„Rendern oder nicht rendern, das ist hier die Frage“


Und noch eine kurze Frage am Rande. Stimmt diese Angabe?
Bouncen: bedeutet mehrere Spuren zusammenrechnen.
Rendern: bedeutet VST in eine Audiodatei umwandeln

Gruß
Mattes
 
Eigenschaft
 
Warum soll (muss?) man die VST also die virtuellen Klangerzeugerspuren vor dem Mixing- und Masteringprozess rendern?

Soll / muss man nicht. Kann man. DC Offset? Bei VSTi? Noch nie gehört. Rechenleistung ja. Aber wenn genug da ist und das Projekt rund läuft entfällt der Grund.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ja, stimmt alles.

Der Gleichspannungsversatz wird aber natürlich nicht automatisch entfernt, das muss man schon selbst machen.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
"Bouncen" kommt eigentlich noch aus der analog Zeit, wo man eine Spur auf eine andere überspielt hat und oft noch ein anderes Signal dazugemischt hat. Das war vor allem sinnvoll, wenn man wenig Spuren hatte, wie bei den damals verbreiteten Vier-Spur-Recordern. (Ja, das waren noch Zeiten...:rolleyes:)

"Rendern" heißt, aus einer oder mehreren Spuren (Midi, Audio mit Effekten, (VST-)Klangerzeuger, etc.) eine Audio Datei zu erzeugen, die dann alles enthält aber nicht mehr veränderlich ist. Aber eben auch kaum noch Rechenpower benötigt - außer zum Abspielen.

Gleichspannungsversatz hat damit nix zu tun. Falls man den tatsächlich mal hat, kann man ihn mit einem Filter entfernen (heißt meist DC-Offset).
 
ein Grund warum ich das mache ist das ja bei vielen VSTis vorallem den Samplebasierten wie Schlagzeug. diese randomisiert werden, dh, bei jeden mal abspielen werden andere Samples abgespielt und das Ergebniss variert, insofern tut man sich beim mixen dann leichter weil man mit fixierten Audiodateien immer den selben IST Zustand hat.
Auch kann man hier optisch besser sehen wie die unterschiedlichen Spuren zeitlich zueinanderliegen um ggf. noch etwas mit dem Microtiming der Spuren zu arbeiten um die Phasenkonsistenz zwischen den Spuren zu verbessern.

Es gib auch VSTis, die von sich aus Fehler einbauen, zb Nebengeräusche wie zb Saitenrutschen oder Scheppern, oder bei Klavier Tastenlärm oder ein Poltern, oder auch humanisieren, da ist dann auch jedes mal das Signal ein anderes.
 
Zuletzt bearbeitet:
Ist - wie oben schon gesagt - eine Frage der Rechnerleistung. Manchmal hat man bei einzelnen Spuren zig Effekte drauf, die dann evtl. auch noch besonders ressourcenhungrig sind und die CPU-Last deutlich erhöhen. Wenn das in einer Produktionsphase ist, wo noch zig andere Recordings folgen, macht Rendern Sinn. Ich nehme die gerenderte Spur in den Mix auf und schalte das Original stumm. Für die Endabmischung kann man das dann wieder umdrehen, sofern noch Details im Original anzupassen sind.

Spezieller Fall ist, wenn der Song eigentlich fertig ist und "nur" noch z.B. das fette Gitarrensolo fehlt oder der Gesang. Sowas kann ja dauern ... Dann rendere ich den kompletten Mix, nehme den als Playback, ist dann für den Rechner nur noch eine simple Stereodatei, weil man die rechenintensiven Originale ja komplett weggeschaltet hat. Schont dann nicht nur die Festplatte, sondern vor allem: Man kann die DAW mit Interface latenzmäßig aufnahmeoptimiert einstellen. Denn bei starker CPU-Belastung durch viele Spuren und Effekte kommt evtl irgendwann der Punkt, wo entweder Wiedergabe oder Aufnahme nicht mehr optimal eingestellt werden können.

Für den Endmix nehme ich Renderungen meist wieder raus und lasse die Originalspuren laufen, sofern die CPU mitspielt. Das hat den Vorteil, dass man überall noch Korrekturen vornehmen kann.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Die Hauptgründe warum ich vor dem Mixing rendere:

-Ordnung im Projekt / Übersicht
-Modulationseffekte. Jedes mal wenn der Song abgespielt wird, klingt er verschieden, wenn das vorher nicht gerendert wird.
-Schneiden, kopieren und verschieben geht wesentlich einfacher wenn man sieht was man tut.
-Einige Sampler arbeiten nicht exakt im Takt (fällt mir oft bei Kontakt auf). Auch das lässt sich am einfachsten korrigieren wenn man optisch sieht, was man tut. Sprich: es muss vorher gerendert werden.
-Bei elektronischer Musik: Da finde ich wichtig, dass der Bass bei jedem Anschlag exakt die gleiche Phasenlage hat. Wenn das Instument von einem Oszillator gespeist wird, ist das nicht zwingend der Fall. Daher: vorher rendern, sich ein einzelnen Ton rauschneiden, und den kopieren. Dann ist jeder Anschlag immer exakt gleich.

-Rechnerleistung, wurde jedoch schon genannt.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Und in Cubase werden VSTi gefreezed. .
"Schnee" von gestern. Heutzutage benutzt man "Render in Place":D

Noch ein Grund zum Rendern ist, dass man gezielt Audiobearbeitungen machen möchte, die auf Midi-Ebene nicht funktionieren.
z.B. möchte man bestimmte Teile eines Beats invertieren (Sprich rückwärts laufen lassen) Es gibt zwar auch plugins, die das machen können, dass ist aber umständlich und nicht sonderlich zuverlässig. Das gleiche mit Stutter-Effekten. Geht wesentlich besser, wenn man Audioslices hat.
Auch das rearrangieren eine Beats durch das Erstellen von Audioslices kann man dann machen. Diese Audioslices könnte man dann wiederum in einem Sampler "Groove Agent SE" z.B. auf Pads legen und daraus ein neues Drumpatch erzeugen.
Warping (Timestreching) als Effekt ist ebenfalls ein Grund in Audio zu rendern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Laut deiner Sig arbeitest du doch auch mit 7,8 und 9:gruebel:
 
Laut deiner Sig arbeitest du doch auch mit 7,8 und
Nö da steht nur das ich sie habe, ich arbeite nicht mit C9 weil es keine 32bit Plugins mehr unterstützt
Und der Virtual Bassist sich mit meiner JBridge nicht bridgen lässt. Deshalb recorde und arbeite ich noch mit C6 Und das Mischpult ab C7 ist furchtbar.
 
Wozu kauft man sich Cubase 7,8,9 wenn man sie nicht benutzt?
Und ich fand das Mischpult am Anfang auch "gewöhnungsbedürftig". Möchte es jetzt aber nicht mehr missen, da es viele Workflow-Verbesserungen mit sich bringt, die einem das Leben entscheidend leichter machen.

nun gut:)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
OT ;)

Und das Mischpult ab C7 ist furchtbar.
zustimm ;)
bin auch in der Situation das ich bis C9.5 upgedatet habe aber noch immer C6.5 für alles nutze, da es es performancemässig auf meiner fast 6 Jahre alten DAW (i72600k) noch sehr fein läuft, während alles ab C7 mühsam langsam wurde für mich und das für mich zum Workflowkiller wurde . Wenn ich mir allerdings dann mal in der Zukfunft einen neuen DAW Rechner gönnen werde, werde ich gleich auf C9.5 durchstarten da mich einige der neuen Funktionen seit der 7er Version doch sehr reizen
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Hallo Zusammen,

Vielen Dank für die zahlreichen Antworten und Anregungen!
Die erkennbare Tendenz lautet: rendern.

Wie wird es mit den Insert- und Sendeffekten gemacht?
Zuerst eine Spur rendern und dann durch die Effekte jagen, oder die Effekte beim rendern „mitnehmen“?
Die Midi-Effekte (z.B. Arpeggiator) muss ich wohl „mitrendern“, weil die bei Audio logischerweise nutzlos sind.

Zum Thema Gleichspannungsversatz möchte ich einen neuen Beitrag im Forum öffnen.

Gruß
Mattes
 
Das kann man so nicht sagen. Ob rendern oder nicht ist immer ein zweischneidiges schwert. Besonders bei instrumenten verlierst du natürlich Flexibilität. Auch wärend des mixens hab ich häufiger mal den Umstand, dass ich doch etwas umarrangieren muss weil man es irgendwie nicht in den mix bekommt. Da möchte ich die streicher doch eine oktave tiefer damit sie sich nicht mit anderen dingen beißen. Weil man es nicht vernünftig im mix unterbekommt. Wenn du nicht explizit audioediting an der wellenform machen musst und auch nicht mit Rechenleistung geizen musst, Ist es nicht wirklich notwendig
 
Ich rendere zum Einen, weil ich es gewohnt bin.(es gab Zeiten, da hat man mit der unglaublichen Rechenleistung gebibbert, daß man diesen endgeilen Synthsound hoffentlich einmal knackfei exportiert bekommt :rolleyes: ) Und zum anderen aus Selbstdisziplin: Um vorwärts zu kommen, muß man Punkte stzen, wo es kein Zurück gibt. Entweder der sound oder das Signal ist mischfertig, oder nicht.
Auf Arbeit muß ich auch vorm Abschneiden überlegen, ob die Länge stimmt, und mich dann halt festlegen.
Ist bei den jüngeren Kollegen mitunter das Problem, daß sie die undo-Taste an der Handkreissäge suchen....
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Wie wird es mit den Insert- und Sendeffekten gemacht?

Sollte es einfach zu machen sein, nicht mit einrechnen. Ziel sollte sein, aus der Midi Spur eine Audio Spur zu machen. Also das was aus dem VSTi rauskommt. Alles andere kann man belassen und dann jederzeit bei Bedarf was drehen.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben