Zweckentfremdung: Reaper als IEM Digitalmixer

  • Ersteller Mr. Pickles
  • Erstellt am
Mr. Pickles
Mr. Pickles
Registrierter Benutzer
Zuletzt hier
24.04.24
Registriert
29.03.12
Beiträge
2.866
Kekse
8.599
Ort
Bayern
Moin Leute!

Ich bin aktuell am überlegen ein ultra Kompaktes "Notfallrig / Flyrig" zu basteln.
Generell nutze ich für IEM Gitarrenmodeller und XR18, aber falls das mal ausfallen sollte bin ich angeschi**en.

Da ich mir ohnehin ein Notebook zulegen will und eine Behringer UMC1820 bereits habe kam die Idee auf, ein Kabelgebundenes Minimalsetup zu erstellen.
die UMC1820 bietet 8 Inputs und 10 Outputs, d.H. anschlusstechnisch würde das ganz knapp klappen:
Input 1-4 Drums
Input 5-8 Gitarrren, Bass, Vocals

IEM:
Output 1-5 IEM Mono Mixes

FOH:
Output 6&7 Gitarren
Output 8 Bass
Output 9 Vocals
Output 10 Samples Mono

Gitarren und Bassound würde ich über VST Plugins Realisieren
Effekte für Vocals ebenfalls
Samples wären als WAV Track am Rechner.

Drummikros fürs FOH würden vom Veranstalter kommen, die von uns platzierten Drummikros sind ausschließlich für unseren IEM Mix.

d.H. Reaper intern wären Routingtechnisch alle Kanäle vom Main entfernt. die Input Kanäle würden dann die VST Bearbeitung bekommen und einmal weiter auf die eigentlichen IEM Mix Gruppen gehen und die würden dann auf die Direct outs gehen, bzw. gleichzeitig würden die Gitarren und Gesang auch als Direct outs ans FOH gehen.
IEM Mix Einstellungen kann man ja über WLAN und Tablet über Remote individuell und unabhängig vom Rechner erstellen.

Prinzipiell wäre das über die ADA8200 Adat Karte sogar nochmal erweiterbar (stereo IEM mixes und so krams)


Jetzt die Frage: ist das als Backuplösung im möglichst kleinen Formfaktor sinnvoll, oder ist das ne sau dumme idee und ich sollte das wieder verwerfen? wenn die Idee sau dumm ist, dann bitte anregungen wo ihr Probleme seht.

Grüße Sebi
 
Eigenschaft
 
Der Mix innerhalb von Reaper und obenauf noch die Nutzung von VST dürfte für eine ziemliche Latenz sorgen. Also entweder ein (sehr) gutes Laptop oder ein zweites X-Air als Backup (imho sinnvoller)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Am Desktoprechner (Ryzen 3600 / Neural DSP Plugins für Gitarre und Bass) läuft ein derartiges Szenario problemlos auch mit reichlich Luft nach oben, Notebooktechnisch hatte ich an Macbook Air mit M1 oder Matebook mit Ryzen 4600H gedacht.

Also das Notebook benötige ich sowieso, daher die Überlegung.
 
Am Desktoprechner (Ryzen 3600 / Neural DSP Plugins für Gitarre und Bass) läuft ein derartiges Szenario problemlos auch mit reichlich Luft nach oben
Hast Du das mit der kompletten Band in einem quasi live Szenario getestet?

Die Frage ist ja nicht, wieviel Rechenpower generell zur Verfügung steht, sondern wie sich das in diesem live Szenario dabei mit der Gesamt-Latenz verhält.
Die spezialisierte Digitalmischer-Fraktion kriegt das in der Regel in deutlich unter 5 ms hin.
Damit kann man noch stressfrei Mucke machen.

Ab 10 ms Latenz kommt mein "Grillhirnchen" aber schon in´s "Straucheln", da vergeht mir der Schbass.

Aber wennste Dir eh nen neuen Schleppi kaufst -> Einfach in der Realität ausprobieren, in wieweit sich die Latenz im AudioTreiber runterschrauben lässt!

Ergebnis würde mich echt interessieren, magst Du das dann hier mitteilen?

Cheers :)
 
also bisheriges Setup war immer zu Hause, da waren zugegebenermaßen zwei Gitarren dran, aber alle Audiospuren die als Backing liefen waren DI spuren, als FX Bearbeitung war live
ebenso waren da die Drums via Samplebasierten VST, bei realistischer Liveanwendung dürfte das auch vergleichbar sein.

Bei reaper hatte ich Buffersize 64 und kam auf Input latenz 2.5ms (Output hab ich nicht im Kopf), solange es Kabelgebunden bleibt wäre die Latenz stressfrei, bei Funk müsste man testen.

Laptop kauf ich erst mitte/ende des Jahres, weil ja doch einiges nochmal rauskommen soll bei Mac der M2 und für Windows kommt der RYZEN 6900HS, d.H. ich hoffe dass die 5000er Serie ggf. nochmal im Preis fällt.
Erfahrungsbericht würde ich aber tatsächlich dann auch posten 😉
 
Das XR18 hat eine Latenz von 0,8 ms von Eingang zu Ausgang (so lange man keinen Effekt aus dem FX Rack als Insert-Effekt im Signalfluss verwendet). Das ist ein heute üblicher Wert bei Digitalpulten. Das schaffst du mit einem USB Audio-Interface und dann noch Plugins nie und nimmer, Rechnerleistung hin oder her. Ab ca 2,5 ms Latenz zwischen Signalquelle und IEM Hörer kann es, speziell bei Sängern, zu Problemen mit Phasing usw kommen, da zum Signal aus dem Ohrhörer ja auch der Körperschall im Kopf, der null Latenz hat, dazu kommt. Das war auch lange der Grund warum einige Künstler vor 10 und mehr Jahren, als die Pultlatenz größer oder gleich 2,5ms lag, lieber noch mit analogen IEM Pulten gearbeitet haben. Denn einige Keute sind da schon sehr empfindlich.
Du solltest also, bevor du da zu viel Zeit und Geld investierst, mal den Versuch mit Gesang+Plugins+IEM durchführen. Da könntedann eine böse Überraschung auf dich warten.
Eventuell wäre es da sinnvoller ein zweites XR18 als Backup zu besorgen.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Eventuell wäre es da sinnvoller ein zweites XR18 als Backup zu besorgen.

Notebook ist eine geplante sowieso anstehende Anschaffung, ein Komplettes Backup Rack für die Band kommt eher nicht in Frage, XR18+Splitter+Multifx+Racks, etc... für ein sehr unrealistisches Szenario wären dann wohl doch recht teuer, die Überlegung geht wie gesagt nur deshalb dahin, weil nach dem Kauf eines Notebooks alles zur realisierung sowieso da wäre. 😉

Live Addieren sich ja mit aktuellem Setup die Latenzen zu Minimum 3.7ms und das ist an sich kein Problem
- 2.4GHz Funke (2.9ms)
- Ampmodeller (Unbekannt)
- XR18 (0.8ms)
- MEI 1000 G2 (Unbekannt)

der Einwand mit Gesang muss tatsächlich nochmal gecheckt werden, ebenso Drums. Aber ich denke Gesang ist bei der Musik die ich mache nicht so timingkritisch wei der Rest.
wie gesagt, ich teste das dann mal im Sommer/Herbst wenn ich mir das Notebook zulege, außer ein wenig Zeit kostets ja nix
 
Aber ich denke Gesang ist bei der Musik die ich mache nicht so timingkritisch wei der Rest.
Da gehts nicht um das (musikalische) Timing an sich, das bewegt sich ohnehin in einem anderen Bereich. Vielmehr geht es darum, dass das selbe Signal, die Stimme, einmal direkt über den Kopfknochen ans Gehör kommt (mit null Latenz) und verzögert über die Ohrhörer. Probiere mal aus was passiert wenn du die Stimme einmal direkt und einmal über ein, sagen wir mal 8 ms Delay laufen lässt und die zusammen mischt. Genau das passiert dann auch im Ohr des Sängers. Das kann der Sänger dann als extrem unangenehm empfinden.
Bei anderen Signalen, wie die Gitarre usw. macht das dagegen nichts aus, im Gegenteil, durch die höhere Latenz sitzen die Gitarren besser am Beat, da ja Gitarristen immer einiges weiter vor der Eins spielen. :devilish:
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ab ca 2,5 ms Latenz zwischen Signalquelle und IEM Hörer kann es, speziell bei Sängern, zu Problemen mit Phasing usw kommen,
Könntest du das genauer erläutern? Bei 2,5 ms sollte eine auslöschung bei etwa 400hz stattfinden. Wenn ich richtig gerechnet hab… aber wie kommt ein phasing zustande? Also bei iem wo der Abstand zum „Lautsprecher“ immer gleich bleibt?
 
Also bei iem wo der Abstand zum „Lautsprecher“ immer gleich bleibt?
Du hast zwei Signalquellen, den Kopfknochen und dien Ohrhörer. Und wenn da die Verzögerung zueinander größer wird, dann passieren eben diese Laufzeitprobleme, ob das jetzt Phasing, Flanging, Kammfilter oder was auch immer genau es ist, ist da irrelevant, Es ist auf jeden Fall unangenehm.
Edit: Man mache folgenden Versuch: Ein Mikro an ein Digitalpult angesteckt, Das Signal an Main senden, den Kopfhörer auf um Main abzuhören und dann am Eingang das Inputdelay langsam aufdrehen. Da kann man dann recht gut hören was da so abgeht.
 
Grund: Ergänzung
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Allright, das mit Resonanz beim Singen im Kopf hatte ich nicht geckeckt, Vocals muss dann auf jeden Fall gecheckt werden.

wie gesagt, Notebook brauch ich ab Mitte/Ende des Jahres sowieso, d.H. Testen werde ich nach notebookkauf das Setup sowieso 😉
 
ob das jetzt Phasing, Flanging, Kammfilter oder was auch immer genau es ist, ist da irrelevant
Seh ich anders. Das sind ja schon unterschiedliche Sachen. Klar ist alles unangenehm, keine Frage. Meiner Meinung nach hat man hier einen klassischen kammfilter, der bei 400hz beginnt und die jeweiligen Oktaven aufwärts einschließt, phasing entsteht nur, wenn sich der Abstand und damit auch die Laufzeit ändert. Oder übersehe ich was bzw. Hab einen Denkfehler?
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben