Mainstage 3 als Do It All für kleine Band (FOH, Mixer, Processing etc.)

  • Ersteller eltorro
  • Erstellt am
eltorro
eltorro
Registrierter Benutzer
Zuletzt hier
12.11.19
Registriert
19.11.15
Beiträge
18
Kekse
173
Hallo Allerseits,

ich arbeite mich gerade in Mainstage ein, um Garageband für unsere kleine 3 Mann Hobby-Coverband abzulösen. Dabei habe ich noch ein paar Fragen/Probleme.

Zunächst mal kurz unsere Ausgangslage:
Wir?
1 Sängerin+Gitarre, 1 Bassist und 1 Gitarrist+Tech-Nerd (ich)

Was?
PopRock-Cover mit Backingtracks/Drums aus der Dose

Equipment?
  • E-Gitarre + Röhrenamp
  • 2 Gesangsmics (später mal 3) + 1 E-Bass + weitere Gitarren (E, Western und Akustik)
  • RME Fireface UC
  • MacBook Pro, iPad
  • Software: Mainstage, Garageband, TotalMix, diverse Waves-Plugins
  • Seebug TSM Mini PA + Yorkville AP4020 Endstufe
Das ist aktuell unsere Ausstattung zum Proben. Wir fangen gerade erst an mit kleineren Auftritten und nutzen dann das was der DJ bietet. Jetzt steht aber der erste selbst organisierte Gig an und da bin ich jetzt mit der Technik gefordert.

Ziel?
  • Mainstage als Mixer für alle Signale (Mics und Intrumente inkl. FX-Processing, Monitor, FOH, InEars ...)
  • iPad mit TouchOSC als Controller für alle Einstellungen in Mainstage
  • Idealerweise Mainstage per Miditrack als Controller für ein paar LED-Bars über DMXIS (ich weiß, nen Midiplayer gibts in Mainstage leider nicht, oder gibts da inzwischen nen Workaround)?

Die Signalkette sieht zur Zeit so aus:
Meine E-Git geht direkt in den Amp, ist also für Mainstage erstmal außen vor. Ich steh nicht so auf die Amp-Simulationen ... Für größere Gigs (hoffentlich :p ) muss ich dann aber künftig wohl den Amp per Mic abnehmen und auch zu Mainstage schicken.
  • Die beiden Mics, der Bass und weitere Gitarren gehen je nach Song direkt ins Interface. Bastle gerade noch an ner Bo Hansen DI Box, damit ich die weiteren Line Eingänge vom FireFace nutzen kann.
  • In Mainstage wird alles gemixt und geht dann raus an die PA, die wir aktuell zum Proben und damit zum Monitoring nutzen.
  • Für die Zukunft soll unsere PA dann "nur" als Monitor Anlage dienen und für die Beschallung der Menge nutzen wir dann ein zweites System. Zudem würde ich gerne InEars oder Kopfhörer für nen Click etablieren. Zumindest meine Wenigkeit bräuchte den beim ein oder anderen Lied zum Taktgenauen Einstieg als Hilfestellung.
Wie ihr seht, steht da nirgends ein externer Mixer. Das würde ich gerne digital mit Mainstage lösen. Jetzt habe ich da schonmal ein Layout gebastelt um Mainstage als FOH Mixer nutzen zu können. Dafür ist Mainstage zwar nicht wirklich gebaut, glaube ich, aber so grob hat es schon geklappt.

Hier mal ein paar Screens:
Channel-Strip:
Channel-Strip-1.png Channel-Strip-2.png

Aktuelles Perfomance-Layout:
Layout-reduziert.png

Ursprüngliches Performance Layout mit größerem Mixer:
Layout-full.png

Vom letzten layout habe ich wieder Abstand genommen, da das Mapping sehr umfangreich war und Mainstage etwas überfordert hat. Zudem brauche ich die Einstellungen eigentlich nicht immer alle auf dem Screen.

Der Plan ist sowieso, die Mixer-Einstellungen alle über TouchOSC-Bridge und TouchOSC am iPad per Midi zu steuern.

Jetzt zu meinen Fragen und Problemen:
  1. Allgemein: Nutzt jemand Mainstage in einem ähnlichen Szenario und wenn ja, wie sind die Erfahrungen?
  2. Channelstrips per Patch? Das Fireface hat 2 Mic Eingänge und noch 6 Line-Eingänge. Ich habe jetzt in einem Master-Patch in Mainstage alle Channel angelegt und mit den Instrumenten belegt, die später einmal angeschlossen werden sollen. Die Channel werden natürlich pro Song (=Patch) nicht immer alle gleichzeitig genutzt, sind ja nur zu dritt. Macht es Sinn das dennoch so anzulegen oder sollte man pro Patch nur immer die genutzten Kanäle mit den jeweiligen Einstellungen anlegen? Z.B. Patch A -> Channel 4 -> Western Gitarre, Patch B -> Channel 4 -> E-Gitarre usw. ... So dass jeder quasi nur ein Kabel auf der Bühne hat, mit dem er in den Mixer geht. Anstatt ein Kabel für jedes Instrument, also eins für die Western-Git, eins für die E-Git und eins für die A-Git ... (wahrscheinlich ne Dummie-Frage :nix:)
  3. Routing/Submix über MS oder TotalMix? Ich habe mehrere Busse für die Ausgangssignale angelegt. Ursprünglich wollte ich den Monitormix anders Mixen als den Main/FOH-Mix. Dafür hätte ich gedacht pro Channel das Signal über einen Send an den BUS "to Monitor" und über einen weiteren Send an den BUS "to MainOut" zu schicken (+ noch ein zwei weitere Busse für IEM etc.). Über den Send-Level des jeweiligen Channels hätte man dann quasi einen eigenen Mix für jeden Bus einstellen können. Das funktioniert aber in der Praxis nicht, irgendwie werden die Sends an die Busse ignoriert oder falsch geroutet. Irgendwie liegt das Signal an allen Ausgängen gleich an. Hab ich da nen Denkfehler? Ihr seht im Channelstrip die deaktivierten B11 und B12 Sends, die für den Submix gedacht waren ...
  4. Sinnvolles Gain-Staging? Es gibt in dem Setup auch noch den TotalMix (leider nicht der FX). Sollte ich lieber die geplanten Submixes und die ganzen Pegel über Total Mix einstellen? Wie würdet ihr das Gain-Staging anlegen? Nach meiner Erfahrung versucht man die Eingangs-Pegel immer so bei -10dbFs zu halten. Nur wie bewerkstellige ich das in Total Mix und dann am sinnvollsten in Mainstage? Überall ein Free-G o.ä. Plugin rein und kontrollieren/nachregeln?
  5. Was gehört auf Patch oder Konzertebene? Ich habe die Aux Channel für die FX sowie die Output Channel auf Konzerteben angelegt. die Eingangs-Kanäle sowie der Backingtrack Kanal werden auf Patch Ebene bzw. über ein Aliase zu einem MASTER-Patch angelegt. Macht das Sinn?
  6. TouchOSC ja oder nein? Haltet ihr die Steuerung von Mainstage über das iPad per TouchOSC für sinnvoll? Leider geht das nur per Midi, also gibts kein Text-Feedback wie z.B. Signalpegel oder Playback-Namen etc. Es gibt auch TouchOSC für ToalMix, da kann ich alles steuern, daher war mein Gedanke das evtl. zu kombinieren. Ein Reiter für die Totalmix Pegel und Submixes, ein andere Reiter für die FX-Sends und EQ-Settings in Mainstage sowie das Playback. Aber ist dieser Kontrollmix ratsam? Oder doch lieber nen Hardware Controller für Mainstage?
  7. Welche Basis-Plugins für Channel? Ich experimentiere zur Zeit noch mit dem Einsatz und der Position der Plugins pro Channel. Aktuell bei den Gesangskanälen: Channel EQ > Rcomp > C6. Mainstage meckert aber jetzt schon wegen der Latenz. :gruebel:
  8. Feedback-EQ wohin? Gehört der grafische EQ für die Feedback-Unterdrückung auf den jeweiligen Mic-Kanal oder auf den Bus bzw. Ausgangskanal der Monitore? Letzteres habe ich aktuell.
Ich habe gefühlt noch tausend Fragen vergessen. Aber der Einstiegsthread ist eh schon wieder viel zu lang, sorry :keks:. Ich hoffe trotzdem auf euer Feedback und ein paar Ideen.

Grüße
Volker
 
Eigenschaft
 
Zuletzt bearbeitet:
Leider schlechte Nachrichten :(
Das wird nicht funktionieren.
Du bekommst auf die analog ins MS gespeisten Signale (Bassgit., Gesang etc.) eine spürbare Delay die sich nicht gänzlich eliminieren lässt.
Das liegt einfach an der Tatsache dass die analoge Signale vom Ursprung bis Ausgabe AD gewandelt, bearbeitet durch PlugIns und wieder DA gewandelt werden.
Der RME in Verbindung mit einem noch so schnellen erschwinglichen Mac wird dir einen Latenz ab 15ms und mehr produzieren.
Verwerfe es.
Nimm einen digitalen Mixer. Gute gebrauchte sind da durchaus für kleinerem Geldbeutel auch zu haben.
Es gibt einige z.B. MOTU 896 da kannst du dann den Mac per USB oder FireWire einbinden, haste 8 analoge In und 8 stereo Out + Main.
Das Teil kannst du per Mac steuern und auch per OSC vom iPad aus bedienen,
MS ist dann als reine Zuspieler.
 
Danke für das Feebdack. Aber Mainstage als reiner Zuspieler? Da gäbe es doch dann deutliche einfachere Tools, oder? Die ganzen Keyboarder und größeren Bands haben doch sicher ne Menge Plugins, Synths etc. da drauf liegen, die sie live nutzen.
Bei unserer letzten Probe gabs mit Latenzen auch noch keine Probleme. Gut, zwei Vocal Kanäle und ein Bass Kanal in der gleichzeitigen Nutzung sind nicht gerade viel. Aber wofür ist Mainstage denn sonst, wenn nicht für Live-Processing und Mixing?
 
Du schreibt es.
MS ist für Keyboarder um Hardware Synths zu ersetzen. Für Live Processing z.B. bei Gesang keine Frage, kann man einsetzen (dabei ist Latenz (delay) oft gewollt) , aber für Mixing ist es keines Falls gedacht.
Hierfür sind Digital-Mixer die erste Wahl. Hier liegen die Latenzen bei 9ms was absolut ok ist.
Als Keyboarder hat man mit MS je nach Mixer die Möglichkeit digital ins Pult zu gehen was in erster Linie 2 analog Kanäle spart. Im Amateur Bereich kann das auch mal wichtig sein.

Es mag schon sein dass es bei dir bis jetzt funktioniert hat. Latenzprobleme tauchen vermehrt mit wachsendem Anforderungen an MS auf.
Damit meine ich, wenn dann live gespielte Keyboard Channelstrips einbindest wobei von MS auch noch Samples von der Festplatte des Rechners adhock abgerufen werden (ist üblich, MS lädt nicht alle Samples einer Instrument sofort in den Speicher, ruft sie erst bei Bedarf ab).

Ein guter Drummer würde mit Sicherheit jetzt schon streiken, weil sein Sound hinterher ist. Da bin ich mir ziemlich sicher.
9ms, 15ms lesen sich erst mal als Kleinigkeiten aber bedenke dass wenn du deine eigene Stimme mit einem delay von 110ms über Kopfhörer hörst wirst kaum noch schaffen frei zu reden !!!!
 
Klingt alles plausibel. Nen Drummer haben wir leider nicht, vielleicht hätte der wirklich schon gemeckert :evil:
Nur jetzt frage ich mal ganz naiv, was einen digitalen Mixer (gemeint sind die Varianten ohne Hardware Fader, richtig?) grundlegend von einem Audiointerface (das Fireface ist in der Klasse eigentlich auch schon halbwegs vernünftig, insbesondere die Software) unterscheidet? Ok, ein paar Effekte sind onboard, aber die könnte ich mir auch mit nem externen Prozessoor von TC oder sowas reinholen, oder? Ne AD/DA Wandlung und zurück findet doch bei beiden statt oder hab ich da nen Denkfehler?

Dann müsste man doch eigentlich konsequenterweise ein analoges Pult nehmen?

Nine Inch Nails nutzen Mainstage für Ihr Keyboard, Gitarren und Vocal Processing - klar der Vergleich hinkt natürlich etwas - aber die Anforderungen sind sicher hoch und wenn Mainstage da versagen würde hätten die bestimmt was anderes im Einsatz. Ok die haben XServer mit PCI Cards und 32 Sample Buffers :w00t:

Klar, nur mit Laptop und Interface ohne Hardware-Backup oder Redundanz birgt ein hohes Ausfall-Risiko. Aber wir reden hier von ner Hobbyband in nem sehr kleinen Mikrokosmos. Und das RME Fireface funktioniert zur Not auch Standalone, also könnte man immer noch Musik ohne Laptop machen. Nur die Feedback-Unterdrückung würde mir dann Sorgen machen. Da wäre ein Hardware G-EQ schon nicht schlecht.
 
Zuletzt bearbeitet:
Der Unterschied ist das gleiche wie 500ps Rennwagen und 500ps potenzbommber aus dem Autosalon.
Der eine ist speziell für die Piste, mit dem anderem kannst bei Mutti eins angeben. :D ;)

Der Mixer ist abgespeckt optimiert für das eine, bei einem Rechner laufen noch aberviele Prozesse im Hintergrund mit.

Die Truppe kenne leider so jetzt nicht aber wie schon erwähnt mann kann MS bedingt und mit Abschlägen die sogar gewollt sein können zur signalprocessing nutzen. Für Gitarre gibt es auch tolle Plugins für MS, aber alles und auch noch über einen einzigen Rechner müsste kurz oder lang unbefriedigende Ergebnisse liefern.
Learning By dooing, probiere aus, die Sachen hast du wohl eh schon da. Sollte es nicht wie geplant funktionieren kannst du über das Geschriebene nachdenken.
 
  • Gefällt mir
Reaktionen: 1 Benutzer

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben