DAW + Analoge Hardware: Wie/Warum?

von loochardt, 07.08.19.

Sponsored by
QSC
  1. loochardt

    loochardt Registrierter Benutzer

    Im Board seit:
    13.04.06
    Zuletzt hier:
    15.12.19
    Beiträge:
    224
    Ort:
    Gelsenkirchen
    Zustimmungen:
    23
    Kekse:
    424
    Erstellt: 07.08.19   #1
    Hi zusammen,
    ich bin gerade über ein Video von Hannes Bieger gestoßen.
    Mich interessiert dadurch das "analoge Studsiosetup". Ich bin kein Profi, aber auch nicht ganz auf den Kopf gefallen, verstehe nur trotzdem ein paar Punkte in der Umsetzung nicht, und hoffe hier auf Eure freundliche Hilfe, um meinen Wissensdurst zu stillen :)

    Ich gehe davon aus, dass ein Song in einer DAW platz gefunden hat, und nun das Mixing auf externer, analoger Hardware passiert.

    1. Routing
    Wie realisiere ich denn, dass ein bestimmter Bus die DAW verlässt und in ein eine spezielle Effektkette geschleift wird? Welche Hardware-Voraussetzungen bräuchte ich für sowas?
    2. Mixdown
    Wie hält man den analogen Mix denn fest? Wird dieser wieder zurück in die DAW geschleift? Wenn das eine Möglichkeit ist, wird das Signal nicht wieder digitalisiert, wodurch die analoge Eigenschaft verloren geht?

    Schonmal vielen Dank für Eure Antworten!
     
  2. Rescue

    Rescue Registrierter Benutzer

    Im Board seit:
    02.10.07
    Zuletzt hier:
    15.12.19
    Beiträge:
    3.355
    Ort:
    Kiel
    Zustimmungen:
    595
    Kekse:
    3.958
    Erstellt: 07.08.19   #2
    Dafür gibts es Audio Interface mit dementsprechender Anzahl von Analogen Ausgängen
    Entweder ein Analoges Band, oder ein Digitaler Recorder
     
    gefällt mir nicht mehr 1 Person(en) gefällt das
  3. Telefunky

    Telefunky Registrierter Benutzer

    Im Board seit:
    25.08.11
    Zuletzt hier:
    16.12.19
    Beiträge:
    15.416
    Zustimmungen:
    5.607
    Kekse:
    42.575
    Erstellt: 07.08.19   #3
    Spätestens am Schallwandler ist das Ausgangssignal immer analog... wenn es gehört werden soll ;)

    Es ist relativ egal, ob man während des Mixes externe Hardware in analoger, digitaler oder gemischter Ausführungen einsetzt. Letztlich ist das Aufwand - und den treibt man nur, wenn das zu erwartende Ergebnis diesen rechtfertigt.

    Ein bekanntes Beispiel ist das Lexicon L480 Reverb (ein digitaler Signalprozessor), bei dem üblicherweise die analogen Ausgänge zurück in die DAW mit sehr hochwertigen Wandlern erneut digitalisiert werden um den speziellen Sound der original Wandler mit aufzuzeichnen.
    Die Kette sieht also folgendermassen aus:
    digitaler Mixbus (Reverb) von der DAW wird analog gewandelt und geht in den Eingang des L480
    das L480 wandelt auf digital, verarbeitet die Daten und wandelt wieder in analog
    dieses analoge Signal wird dann von den DAW Eingangswandlern erneut digitalisiert
    (schon schräg... oder Fetischismus oder was auch immer, aber keineswegs unüblich) ;)

    Eine andere Anwendung (die der ursprünglichen Frage näher liegt) ist die Nutzung hochwertiger Analoghardware für den Mixprozess. Hochwertig meint dabei nicht zwangsweise Präzision, sondern eher ein charakteristisches Klangverhalten.
    Ein (auch für den 'Hausgebrauch') taugliches Beispiel ist der Einsatz eines 4-8 Spur Tascam PortaStudio.
    Die Dinger haben einen sehr markanten Effekt auf den Mix - ob man den mag ist Geschmacksache.
    Bei höheren Ansprüchen werden entsprechend teure Bandmaschinen eingesetzt.
    Auch die typische Geräteausstattung früherer Rundfunkstudios wird gern für solche Zwecke genutzt.
    (die beiden letztgenannten Alternativen gehen schnell in den 5-stelligen Kostenbereich und sind wartungsintensiv)

    In jedem dieser Fälle wird aber der 'analoge Charakter' der jeweiligen Anwendung von guten Wandlern auf dem Rückweg in die DAW erhalten.

    Inzwischen ist die Entwicklung von Emulationssoftware allerdings auf einem Stand angekommen, dass der Unterschied zu realer Hardware fast zu vernachlässigen ist.
     
  4. loochardt

    loochardt Threadersteller Registrierter Benutzer

    Im Board seit:
    13.04.06
    Zuletzt hier:
    15.12.19
    Beiträge:
    224
    Ort:
    Gelsenkirchen
    Zustimmungen:
    23
    Kekse:
    424
    Erstellt: 07.08.19   #4
    Ouch, da hätte ich ja selbst drauf kommen können.:facepalm1:
    Drei Fragen dazu:

    1. Wo sammele ich am Ende die einzelnen Signalwege?
    2. Wie würde man beispielsweise bei dem https://www.thomann.de/de/focusrite_scarlett_18i20_2nd_gen.htm die 20 Ausgänge realisieren?
    Müsste eine weitere Hardwarekomponente an den S/PDIF oder ADAT anschließen?
    3. Ist dieses interface überhaupt geeignet, um so ein Vorhaben zu starten,
    oder schau ich da in einer völlig falschen Kategorie Interfaces nach?

    Danke!

    Jo, das dachte ich mir auch schon fast. ich habe (noch) nicht die Absicht mir son Zeug zuzulegen, wobei ich schon gerne haptisch arbeiten würde. Der Monetäre Aufwand würde dem vermutlich nicht gerecht. Aber in dem Post ging es auch eher um Wissen sammeln, als wirklich vorhaben.
     
  5. Telefunky

    Telefunky Registrierter Benutzer

    Im Board seit:
    25.08.11
    Zuletzt hier:
    16.12.19
    Beiträge:
    15.416
    Zustimmungen:
    5.607
    Kekse:
    42.575
    Erstellt: 07.08.19   #5
    Das Problem der 'haptischen Sachen' ist ihre Latenz. Egal wie niedrig sie auch ist: sie kann nie vernachlässigt werden.
    In einer DAW sind alle Audio-Datenströme (im Idealfall) auf Sample-Level miteinander synchronisiert.
    Fehler können überall mal vorkommen, aber das Arbeitsprinzip ist ausnahmslos so definiert.
    Werden Daten über ein DSP gestütztes System ohne Asio-Nutzung ausgespielt und zurückgeführt, dauert so ein roundtrip ca 2-4 ms.
    Die DAW kann das idR nicht messen, folglich müssen die Werte manuell ermittelt und eingetragen werden, was man dann für ein bestimmtes Setup als Preset speichert. Ist nicht erheiternd... aber relativ zuverlässig (weil unabhängig von Rechner und Betriebssystem).

    Bei reiner CPU Nutzung und Asio müsste man die entsprechenden Latenzwerte des Treibers verwenden, was neben erheblich grösseren Werten auch mehr Schwankungen mit sich bringt (Abhängig von Rechner, Betriebssystem und Treiber-Software).
    Deswegen ist das Verfahren nicht sonderlich populär... und man lässt den Mix-Prozess lieber 'in der Box'.

    Interessanter ist imho eher das Einbeziehen externer Klangquellen und Prozessoren auf Kanal-Ebene.
    Das lässt sich viel einfacher kontrollieren und bietet dennoch deutliche Varianten der Klanggestaltung.
     
    gefällt mir nicht mehr 1 Person(en) gefällt das
  6. loochardt

    loochardt Threadersteller Registrierter Benutzer

    Im Board seit:
    13.04.06
    Zuletzt hier:
    15.12.19
    Beiträge:
    224
    Ort:
    Gelsenkirchen
    Zustimmungen:
    23
    Kekse:
    424
    Erstellt: 07.08.19   #6
    Was meinst du genau? Wie sähe der Aufbau dann aus?
     
  7. Telefunky

    Telefunky Registrierter Benutzer

    Im Board seit:
    25.08.11
    Zuletzt hier:
    16.12.19
    Beiträge:
    15.416
    Zustimmungen:
    5.607
    Kekse:
    42.575
    Erstellt: 07.08.19   #7
    Vom Aufbau her ist das identisch zum bereits von @Rescue erwähnten externen Mix-Bus.
    Aber es landet eben vor der eigentlichen DAW Mix-Engine auf einer normalen Spur, so als hätte man ein Instrument eingespielt.
    Die Latenz lässt sich so (bei Bedarf) durch einfaches Vorziehen dieser Spur auf der timeline ausgleichen.

    Ein 'nach draussen' verlegter Mixbus betrifft dagegen den kompletten Inhalt des Tracks.
    Dh wenn der aus 4 Stereo Bussen besteht, ist 100% synchrones Verhalten bei 4 Wandlern, die doppelt durchlaufen werden (zumindest bei Budget Equipment) nicht gewährleistet.
    Zusätzlich müsste die DAW dafür auf Echtzeit-Betrieb gesetzt werden, weil sie nicht mehr 'rendern' kann (den Mix anhand der reinen Daten erstellen).
    Neben dem reinen Zeitgewinn verhindert das Rendern auch Überlastungen, weil das 'Mithören' entfällt.

    Was man von aussen zuführt (Instrument, Effektgerät, anderes Rechersystem) ist Geschmacksache.
    Man kann natürlich auch eine Spur der DAW über ein externes System/Gerät verarbeiten und wieder an die DAW zurückschicken (ist eine VST Standardfunktion).
    Als Beispiel: ich nutze für Delays gern das Lexicon Vortex mit seinem 16bit Festkomma DSP, also eine ziehmlich krude Mathematik, die man in VSTs eher nicht findet, sowie einen Yamaha TX-7, Casio SK-2, Boss ME-5 oder auch ein iPad für Granular-Effekte und bestimmte Synths.
     
  8. Signalschwarz

    Signalschwarz Registrierter Benutzer

    Im Board seit:
    19.02.11
    Zuletzt hier:
    14.12.19
    Beiträge:
    9.555
    Zustimmungen:
    4.369
    Kekse:
    20.015
    Erstellt: 07.08.19   #8
    Also Cubase/Nuendo und (tatsächlich! :D) ProTools haben kein Problem den Versatz korrekt zu ermitteln und korrekt auszugleichen. Der ist dann auch nicht anders, als bei reinem itb.
     
    gefällt mir nicht mehr 1 Person(en) gefällt das
  9. Telefunky

    Telefunky Registrierter Benutzer

    Im Board seit:
    25.08.11
    Zuletzt hier:
    16.12.19
    Beiträge:
    15.416
    Zustimmungen:
    5.607
    Kekse:
    42.575
    Erstellt: 07.08.19   #9
    Dein Wort in Gottes Ohr...
    (wenn ich überlege wie lange Digidesign/Avid gebraucht haben um nur die Latenz innerhalb von Pro Tools automatisch zu korrigieren) :D
    dumme Frage: ab welcher Version funktioniert das ?
     
    gefällt mir nicht mehr 1 Person(en) gefällt das
  10. Signalschwarz

    Signalschwarz Registrierter Benutzer

    Im Board seit:
    19.02.11
    Zuletzt hier:
    14.12.19
    Beiträge:
    9.555
    Zustimmungen:
    4.369
    Kekse:
    20.015
    Erstellt: 07.08.19   #10
    Und was das Rendering angeht: Das findet doch im Echtzeit-Modus ebenso statt, da auch Rechner-intern Bearbeitung stattfindet und sei es nur Anwendung von Pegel- und Panorama-Einstellungen und Summierung.

    Und Geschwindigkeitsvorteil, na ja. Da finde ich den resultierenden Mehraufwand für Total Recall erwähnenswerter.
    --- Beiträge zusammengefasst, 07.08.19, Datum Originalbeitrag: 07.08.19 ---
    Ja, ein Armutszeugnis. :)

    Ich glaube ab v10.
     
  11. Telefunky

    Telefunky Registrierter Benutzer

    Im Board seit:
    25.08.11
    Zuletzt hier:
    16.12.19
    Beiträge:
    15.416
    Zustimmungen:
    5.607
    Kekse:
    42.575
    Erstellt: 07.08.19   #11
    sprachlich hast du natürlich Recht, da habe ich schlampig formuliert.
    Rendern assoziiere ich automatisch mit dem offline Prozess, bei dem die Toleranz für Überlastung weit höher liegt als im Echtzeit Modus. ;)
     
    gefällt mir nicht mehr 1 Person(en) gefällt das
  12. WolleBolle

    WolleBolle Studio & Video MOD Moderator HFU

    Im Board seit:
    18.11.05
    Zuletzt hier:
    12.12.19
    Beiträge:
    11.574
    Ort:
    Hamburg
    Zustimmungen:
    2.587
    Kekse:
    60.031
    Erstellt: 08.08.19   #12
    Moin!

    Also in Studio One kann man auch analog mixen. Das geht über das Pipeline Modul. Funktioniert super in Echtzeit. Man muss nur das Plugin und digitale Denken verlassen. Ich habe ja die Focusrites Interface und 32 Ins und 32 Outs, da kann man eben die 32 Outs an ein Analogpult schicken und dort den Mix machen. Am Pult setzt man dann wie gewohnt seine Comps, FX what ever, schickt dort seine Signale vom Pult rüber, und wieder zurück ins Pult und vom Pult wieder zurück in die DAW. Nur sollte man dann keine Plugins im Mix integrieren die einem die Time versauen. Solange man keine Latenzgeschichten digital einsetzt bist du sauber. Das macht man erst hinterher. Fakt ist, habe ich einen 7 Minuten Track und will den mit Lexiconhall versehen, dann brauche ich eben 7 Minuten um den Hall aufzunehmen und wenn er mir nicht gefällt schraube ich am Lex andere Parameter rein und sitze wieder 7 Minuten bis die Aufnahme im Kasten ist. Mal eben hier mal ein Parameter ändern und dort mal einen Regler ziehen, ist nicht! Ich muss immer wieder zurück zu der Version an der ich etwas gedreht habe. Das ist aufwändig und macht nur Sinn, wenn man High End Analogkram hat oder zumindest gutes Mittelmaß.

    Greets Wolle
     
  13. Zelo01

    Zelo01 Registrierter Benutzer

    Im Board seit:
    13.01.15
    Zuletzt hier:
    15.12.19
    Beiträge:
    1.661
    Zustimmungen:
    783
    Kekse:
    4.732
    Erstellt: 08.08.19   #13
    Da hast du absolut recht, nur, es kommt auch drauf an. Wenn man die DAW ausschliesslich als virtuelle Bandmaschine nutzt, alle Spuren auf ein analoges Pult schickt, und eben nicht mehr als Einzelspuren zurück in die DAW, sondern den kompletten Mix analog bearbeitet, und zu Stereo summiert, noch bevor man es zurück in die DAW schickt, sind die Latenzen absolut vernachlässigbar. Klar entsteht auch eine Latenz bei der D/A-Wandlung, aber sie ist bei allen Spuren/Kanälen gleich gross, dann hebt sich das wieder auf. Elektrischer Strom im anaogen Pult hat nahezu Lichtgeschwindigkeit. Das sind ca 300'000 km/sek.
     
  14. WolleBolle

    WolleBolle Studio & Video MOD Moderator HFU

    Im Board seit:
    18.11.05
    Zuletzt hier:
    12.12.19
    Beiträge:
    11.574
    Ort:
    Hamburg
    Zustimmungen:
    2.587
    Kekse:
    60.031
    Erstellt: 08.08.19   #14
    Das muss man nicht auf Stereo summieren, man kann auch die Einzelspuren senden. Wie es geht habe ich im letzten Post geschrieben.

    Greets Wolle
     
  15. Zelo01

    Zelo01 Registrierter Benutzer

    Im Board seit:
    13.01.15
    Zuletzt hier:
    15.12.19
    Beiträge:
    1.661
    Zustimmungen:
    783
    Kekse:
    4.732
    Erstellt: 08.08.19   #15
    Ja stimmt, aber nicht jedem der eine DAW hat, steht Studio One zur Verfügung.
     
  16. Signalschwarz

    Signalschwarz Registrierter Benutzer

    Im Board seit:
    19.02.11
    Zuletzt hier:
    14.12.19
    Beiträge:
    9.555
    Zustimmungen:
    4.369
    Kekse:
    20.015
    Erstellt: 08.08.19   #16
    Sowas ist nicht abhängig von der DAW-Software, mal von abgespeckten Versionen mit eventuell vorhandenen Einschränkungen abgesehen.
     
  17. Telefunky

    Telefunky Registrierter Benutzer

    Im Board seit:
    25.08.11
    Zuletzt hier:
    16.12.19
    Beiträge:
    15.416
    Zustimmungen:
    5.607
    Kekse:
    42.575
    Erstellt: 08.08.19   #17
    Wie @WolleBolle schon angemerkt hat, wird die Sache dann tricky, wenn man eben doch DAW Plugins gleichzeitig nutzen will.
    Die wenigsten haben ein halbes Dutzend Kompressoren und Hardware Reverbs zur Hand...

    Mit Latenz habe ich aber den nicht unmittelbar auffälligen Anteil gemeint.
    3 ms liest sich gering, entspricht bei 44.1 khz aber 133 Samples. Bereits 3-5 Samples Versatz können einen Mix sehr deutlich verändern, was man aber in der Praxis nicht direkt bemerkt.

    Der zweite Aspekt ist die Synchronisierung der Wandler, die im optimalen Fall natürlich synchron zur DAW Clock arbeiten. Müssen sie aber nicht... und auch nicht in jedem 8-Kanal Wandler arbeiten die parallel angeordneten Chips mit ihren Nachbarn synchron.
    Die Idealsituation werden nur die wenigsten Anwender überprüfen können/wollen.
     
    gefällt mir nicht mehr 1 Person(en) gefällt das
  18. Signalschwarz

    Signalschwarz Registrierter Benutzer

    Im Board seit:
    19.02.11
    Zuletzt hier:
    14.12.19
    Beiträge:
    9.555
    Zustimmungen:
    4.369
    Kekse:
    20.015
    Erstellt: 08.08.19   #18
    Ich kann die hier heraufbeschworenen Problematiken aus der eigenen Erfahrung heraus nicht nachvollziehen.:nix:
     
  19. WolleBolle

    WolleBolle Studio & Video MOD Moderator HFU

    Im Board seit:
    18.11.05
    Zuletzt hier:
    12.12.19
    Beiträge:
    11.574
    Ort:
    Hamburg
    Zustimmungen:
    2.587
    Kekse:
    60.031
    Erstellt: 09.08.19   #19
    Moin!

    Welche Problematiken?

    Greets Wolle
     
  20. Telefunky

    Telefunky Registrierter Benutzer

    Im Board seit:
    25.08.11
    Zuletzt hier:
    16.12.19
    Beiträge:
    15.416
    Zustimmungen:
    5.607
    Kekse:
    42.575
    Erstellt: 09.08.19   #20
    Er meint vermutlich mein Gefasel über mögliche Clock-Abweichungen und übersehene 'mini-Latenzen' ;)
    Das ist (zugegeben) vielleicht nicht ganz praxisgerecht, weil es stark anwendungs-abhängig ist.
    Bei live mitgeschnittenen Rohspuren ist es quasi egal, bei intensivem layern von Quellen kann es sich deutlich auswirken.
    IdR bekommt man es nicht mit, weil die Abhörmöglichkeit bei rein nativen Lösungen eingeschränkt sind (vereinfacht ausgedrückt).

    Mir ist es nur aufgefallen, weil ich ua ein Hardware DSP System nutze, bei dem an jeder Stelle des Signalwegs der Datenstrom sample-genau kontrolliert und ggf justiert werden kann.
    Speziell bei outboard Equipment waren minimale Abweichungen in der Wirkung oft verblüffend.
    (ich schiebe oft Daten zwischen Creamware Scope, Pro Tools TDM und IOS per live Audio hin und her)

    Das soll aber keine Einladung zur allgemeinen Gespensterjagd sein... :D
    Es ist einfach ein Faktor, der beim Vergleich von 'in the box' versus 'outboard' berücksichtigt werden sollte.
    Mit Studio-Clock und entsprechend hochwertigen Wandlern kein Thema, aber bei den gängigen Budget Geräten würde ich nicht drauf wetten wollen.
     
Die Seite wird geladen...

mapping