Die leidige Abhängigkeit vom Ton-Menschen

  • Ersteller dr_rollo
  • Erstellt am
Na da bist du aber von dem natürlichen belassenen Klang des Mikros doch schon etwas weiter weg oder von der EQ-Flat-Einstellung. Dann regelst du also doch am Mikrofon nach.
Ja. Ich hab mich glaube ich irgendwo im Thread einfach einmal schlecht ausgedrückt. Ich hab auch versucht, mich danach verständlicher auszudrücken (arbeiten an der Kommunikation). Aber noch mal. Wenn z.B. ein Mikro bei 800hz und bei 3khz eine Anhebung im frequenzgang hat und der Raum in dem alles abspielt bei 200hz stark resoniert und die Pa einen dip bei 6khz hat, dann gleiche ich das mit dem eq aus. So, dass am Ende/Lautsprecher der Input klingt wie der Output. Und Wenn man das hinbekommt, und jetzt kommt ja meine waghalsige Behauptung, dann klingt da jede Stimme gut drüber bzw. Wie sie halt klingt. Und dann muss der eq auch nicht/selten noch angefasst werden.
Ich finde aber, dass es mir als Musiker obliegt, mir auch darüber Gedanken zu machen, wie denn das was ich da produziere im Mix klingen wird.
auf jeden Fall. Eigentlich sogar noch mehr als dem Mischer wenn ich so drüber nachdenke.
Denn nahc wie vor bin ich dert Meinung, dasss die Band den Sound macht und nicht der Techniker.
auch hier volle Zustimmung
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich würde mal provokant formulieren: Wenn der Fader-Up-Mix ganz okay klingt, dann geht anständiges Mischen eigentlich los. Beim Recording gibt's irgendwann den Punkt, an dem 2dB mehr oder weniger bei einem Part im Mix sehr deutlich spürbar werden. Das ist dann auch live so. Dann kann's echt gut klingen. Ich freue mich, wenn es so ist. Oft ist es nicht so.
Sehe ich genauso, die Realität schaut zwar live oft anders aus und dann ists trotzdem unser Job, das Beste draus zu machen, aber ja - Fader Up und es klingt schon nach was ist natürlich beste Voraussetzung. Wobei ich auch da sagen muss, ein bisschen Genrespezifisch wirds auch wieder, weil Metal Drums halt einfach mehr Verbiegen brauchen und weniger mit dem natürlichen akustischen Klang des Kits zu tun haben als diverse andere Genres.

Um mal etwas giftig zu sein. Der einzig wirklich gute Gitarrensound ist bei -∞ dB. :devilish:
Nur so am Rande, welches ist dein präferiertes Instrumente? Dann merk ich mir das sicherheitshalber für die Zukunft :devilish::LOL:

Aber macht es einen Unterschied, wenn da (mal drastisch gesprochen) eine Stimme ist, die im lowmid eh nix bringt, wenn ich es rausgezogen hab? Also ich meine entweder ist die Stimme wie sie ist (natura) oder halt nicht. Macht es deiner Erfahrung nach Sinn einer Stimme lowmids künstlich reinzudrehen obwohl sie keine hat?
Klar! Schließlich kommt da nicht gar nix, sondern wenig und damit kann ich etwas mit EQ bearbeiten, verstärken. Exakt das sehe ich ehrlich gesagt als unseren Job an - wenn die Stimme ein bisschen dünn ist, dadurch leichter im Mix untergeht ist es mein Job, dem entgegenzuwirken. Wenn das durch einen Boost in den Low Mids erreicht wird, warum sollte ich den nicht machen, nur weil es dann nicht mehr "so natürlich klingt, wie davor"?
Am Ende fragt der Kunde, Künstler und das Publikum doch "warum war die Stimme so "leise", schwer verständlich und nicht "warum klang die Stimme voluminöser als in echt"........

Bezüglich Abstand macht der Kompressor schon mal etwas an arbeitserleichterung. Und wenn es zu viel wird Regel ich natürlich mit dem fader nach. Aber dann würde ich auch behaupten, dass der vocalakrobat sein Instrument nicht richtig beherrscht.
Bzgl. Nahbesprechungseffekt leistet mir mein dyn. Eq hervorragende Dienste (vor allem auch in Bezug auf popplaute).
Ich hab mich evtl. nicht exakt genug ausgedrückt, was die dynamischen Änderungen durch Abstand zum Mic und Nahbesprechungseffekt angeht - damit meinte ich nicht die Pegeländerungen = Dynamik sondern die sich dynamisch sprich dauernd ändernden Verhältnisse bzgl. Abstand und u.a. Nahbesprechungseffekt. Dadurch ergibt sich ein sich veränderndes Frequenzspektrum, wesentlich mehr als nur ein Pegelunterschied und damit ist ein Kompressor nur zur Hälfte das richtige Werkzeug (wo wir beim von dir angesprochenen dynamischen EQ landen). Mein Argument zielte aber darauf ab, dass wenn du das gleiche Mikro 3 verschiedenen Menschen gibst, dann haben die nicht nur unterschiedliche Stimmen, sondern gehen unterschiedliche mit dem Mikro um. Wenn jeder einen anderen Abstand zum Mikrofon einhält, hast du dadurch schon eine Variable, die komplett unterschiedliches Low End, Fülle, Grundton - egal wie du es bezeichnest - hervorbringt. Und wenn die 3 Sänger gleichzeitig auf der Bühne sind, wäre dein Job vermutlich alle 3 im Mix durchzubringen und verständlich ans Publikum zu bringen. Und das das mit einem identischen EQ, der nicht auf die Unterschiede der Stimmen und der anderen Variablen eingeht, zum besten Ergebnis führt, stelle ich in Frage, bzw. verneine ich vehement ;)
Beitrag automatisch zusammengefügt:

Keiner will den Sound komplett verändern.
Jeder will das sich das Gesamtergebnis gut anhört.
Und so wie ich das hier gelesen haben, gibt es auch hier viele Wege zum gewünschten Ziel.

Ich glaube, darauf können wir uns alle einigen (y):)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
wenn die Stimme ein bisschen dünn ist, dadurch leichter im Mix untergeht ist es mein Job, dem entgegenzuwirken. Wenn das durch einen Boost in den Low Mids erreicht wird, warum sollte ich den nicht machen, nur weil es dann nicht mehr "so natürlich klingt, wie davor"?
Ok. Ich hab vielleicht lange keine schülerbands mehr gemischt.
Ne, im Ernst, ich persönlich würde das nicht machen. Das ist nicht mein Empfinden und auch nicht das meiner Kunden. Und die Künstler bedanken sich eigentlich immer für den Sound.
Und nur weil eine Stimme dünn klingt, muss sie ja nicht im mix untergehen. Der Zusammenhang erschließt sich mir ehrlich gesagt nicht ganz.
 
  • Haha
Reaktionen: 1 Benutzer
Ich hab mich glaube ich irgendwo im Thread einfach einmal schlecht ausgedrückt.
Nö, finde ich gar nicht. Ich fand es klar formuliert, ich bin allerdings einfach anderer Meinung ;)

Es kommt halt wie so oft auf den Kontext an. Bei halbwegs guter Halle, guter PA und einer Reihe von Redebeiträgen mache ich es genau so, wie Du es beschreibst: eine gute Einstellung für alles, dann klappt's. Mehr muß nicht.

Meistens fängt für mich die Arbeit aber an dieser Stelle erst an. Das klang weiter oben auch schon an.
Ich selbst habe derzeit viel in Kirchen zu tun, somit viel Hall. Da ist mein Ziel, auch dort eine hohe Sprachverständlichkeit zu erreichen. Das geht teils nur mit drastischem Eingreifen am EQ und ich suche die einzelnen Stimmen ab nach verwertbaren Formanten, die recht unterschiedlich liegen können. Speziell die deutsche Sprache verlangt nach klaren Konsonanten, vor allem Zischlaute. Da bin ich dann oft der Anti-Deesser :D
Am Ende zählt da die Nutzbarkeit des Signals, nicht die Natürlichkeit. Nicht ohne Grund klingen die typischen Beschallungszeilen in Kirchen so grauslich wie sie sind. Die sind absichtlich so gemacht. Ich versuche dort, möglichst wenig blechern zu klingen. Das ist oft ein heikler Grat.

Ein anderer Fall ist mehrstimmiger Gesang, wie es @kafkaesque_ auch ansprach. Da ist für mich entscheidend, daß ein runder Satzgesang draus wird und da passe ich die Stimmen klanglich untereinander an. Dort kommen noch zwei weitere Aspekte hinzu.
Zum einen ist für mich eine Stimme über ein Mikrophon und PA keineswegs natürlich. Es gibt ja nicht nur Frequenzgang, sondern auch Ansprechverhalten und anderes.
Zum anderen muß ich Stimmen auch an die jeweilige Band anpassen, um sie passend und durchsetzungsfähig zu machen.

Eine EQ-Einstellung für alle "funktioniert" natürlich. Mein persönlicher Anspruch ist aber ein anderer.
 
  • Gefällt mir
Reaktionen: 4 Benutzer
Also, um vielleicht mal auf Seite 22 nochmal zurückzukehren mehr zum Ursprung: Woher kommt eigentlich der Frust?

Was mich als Mischer frustriert: Wenn ich das Unmögliche möglich machen soll und hinterher vorne oder hintenrum gemosert wird, dass ich das nicht gemacht habe. Was heißt das konkret? Meistens heißt es, die MusikerInnen liefern Signale an, die nicht im Entferntesten das hergeben, was sie sich erträumen. Pauschal gesagt. Leider auch nicht selten heißt es: Das Equipment gibt nicht mehr her. Zwei verschiedene Subwoofer, unterklassige Tops, 6 Monitorboxen von 3 Herstellern, und das Licht streut überall ein (steinalte Starkstromverteiler, FIs sowieso nich, teilw. Mehrfachdosen, die ich sofort entsorge…), während die Lichtler im FOH nervös und lautstark diskutieren während ich versuche, Soundcheck zu machen. (Erneut: Ich denke mir das Beispiel nicht aus.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 5 Benutzer
wenn du das gleiche Mikro 3 verschiedenen Menschen gibst, dann haben die nicht nur unterschiedliche Stimmen, sondern gehen unterschiedliche mit dem Mikro um. Wenn jeder einen anderen Abstand zum Mikrofon einhält, hast du dadurch schon eine Variable, die komplett unterschiedliches Low End, Fülle, Grundton - egal wie du es bezeichnest - hervorbringt. Und wenn die 3 Sänger gleichzeitig auf der Bühne sind, wäre dein Job vermutlich alle 3 im Mix durchzubringen und verständlich ans Publikum zu bringen. Und das das mit einem identischen EQ, der nicht auf die Unterschiede der Stimmen und der anderen Variablen eingeht, zum besten Ergebnis führt, stelle ich in Frage, bzw. verneine ich vehement ;)
Ok, ok. Also nur, damit ich das richtig verstehe: 3x gleiches gesangsmikro, 3 verschiedene vocalisten. Alle singen gleichzeitig (den gleichen Text)?
Ich seh da kein Problem. Wir gehen davon aus, dass ich mit meinen eq-Einstellungen ein komplett lineares Frequenzspektrum erzeugt habe (ist natürlich rein theoretisch). Also aus den Lautsprechern kommt exakt das raus, was ins Mikro reinkommt, nur lauter.
Ich gehe weiter davon aus, dass die Künstler das Mikro grundsätzlich korrekt benutzen (singen nicht von hinten gegen das Kabel) und die richtcharakteristik deshalb keinen Einfluss hat.
Dann wäre nur der nahbesprechungseffekt mein Feind, richtig?
Nun sorgt mein dyn. Eq in der Gruppe dafür, dass der gesamtklang (3x vocals) ausgeglichen bleibt. Natürlich zieht er bei dem, der weiter vom mic weg singt ebenfalls die lowmids raus. Aber die wären ja eh kaum vorhanden.
Der beste weg wäre natürlich ein dyn. Eq pro Kanal. Aber das bieten die Pulte mit denen ich hauptsächlich arbeite nicht. Auf jeden Fall bleibt aber das gesamtsignal ausgeglichen und kann sich so im mix gleichbleibend durchsetzen. Ich behaupte sogar, dass es im Publikum niemand merkt, wenn bei einem vocals die lowmids fehlen, wenn sie durch ein anderes vocals ausgeglichen werden und das Spektrum dadurch „gleich“ bleibt.
Beitrag automatisch zusammengefügt:

ch selbst habe derzeit viel in Kirchen zu tun, somit viel Hall.
Ok. Damit habe ich keine Erfahrung, kann dein Argument aber total nachvollziehen. Hier geht es dann aber meiner Meinung nach um schadensbegrenzung und ich würde vermutlich genau so agieren wie von dir nachfolgend beschrieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
  • Gefällt mir
Reaktionen: 2 Benutzer
Ok. Ich hab vielleicht lange keine schülerbands mehr gemischt.
Ne, im Ernst, ich persönlich würde das nicht machen. Das ist nicht mein Empfinden und auch nicht das meiner Kunden. Und die Künstler bedanken sich eigentlich immer für den Sound.
Und nur weil eine Stimme dünn klingt, muss sie ja nicht im mix untergehen. Der Zusammenhang erschließt sich mir ehrlich gesagt nicht ganz.
Was hat der Klangcharakter, das Timbre einer Stimme damit zu tun, ob der Musiker auf der Bühne Schüler, Angestellter, Arbeitsloser oder der Papst ist? :p
Ich passe ein Signal unabhängig vom Sozialstatus des signal-verursachenden Musikers so an, dass es für mich und im Mix passt.

Ernsthaft: ich arbeite so und es funktioniert für mich und die Künstler und Kunden, mit denen ich zusammenarbeite. Wie schon erwähnt muss das nicht der einzige Weg sein, vollkommen cool, dass du eine andere Herangehensweise hast und die bei dir aber genauso funktioniert!
Meine "Mix Philosophie" ist halt leicht anders.

Der beste weg wäre natürlich ein dyn. Eq pro Kanal. Aber das bieten die Pulte mit denen ich hauptsächlich arbeite nicht.
Und genau so mache ich es. Da ich gerade ausschließlich auf DLive und LV1 unterwegs bin, hab ich natürlich glücklicherweise auch die Möglichkeiten, überall mit Dyn EQs arbeiten zu können, aber deine Herangehensweise verstehe ich genauso, find ich gut und würde ich evtl. ebenso so machen - oder Dyn EQ auf Main Vocals, hängt halt von Anzahl und "Gewichtung" der ganzen Stimmen ab.

Auf jeden Fall bleibt aber das gesamtsignal ausgeglichen und kann sich so im mix gleichbleibend durchsetzen. Ich behaupte sogar, dass es im Publikum niemand merkt, wenn bei einem vocals die lowmids fehlen, wenn sie durch ein anderes vocals ausgeglichen werden und das Spektrum dadurch „gleich“ bleibt.
Richtig, die Vocal Summe bleibt ausgeglichen - aber die Balance im Frequenzspektrum zwischen den 3 Stimmen in unserem Beispiel ändert sich. Und das kann dafür sorgen, dass wenn der Unterschied zwischen den Stimmen zu groß ist, der Grundton der dünnsten Stimme z.B. komplett überlagert wird von der sehr starken Stimme. Und wenn es mehrstimmig ist geht dann, je nach Platz und Dichte der Instrumentierung außen rum im aller schlimmsten Fall sogar die Harmonie flöten.
Ich sage nicht dass es immer so ist, deine Herangehensweise kann auch super funktionieren. Ich möchte nur aufzeigen, warum es zu nicht optimalen Ergebnissen führen kann und warum ich deswegen sage, es ist suboptimal. Und dieser Unterschied, egal ob es im Publikum jemand bemerkt oder nicht oder nur 1er von 1000 - das ist mein persönlicher Anspruch, diese 5 % noch herauszuholen. Wenn ich also das Handwerkszeug und die Zeit habe, das umzusetzen, mache ich es.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Dem schließe ich mich 100% ig an!
 
  • Gefällt mir
Reaktionen: 1 Benutzer
weil Metal Drums halt einfach mehr Verbiegen brauchen und weniger mit dem natürlichen akustischen Klang des Kits zu tun haben als diverse andere Genres.
aber selbst da wird der versierte Metal-Mixer (also nicht ich ;) ) schon daheim wissen wie der den Kanal dafür vorab einstellt. Oder er bekommt sowieso den Sample, der per Drumtrigger abgefeuert wird.

Meine "Mix Philosophie" ist halt leicht anders.
Ich denke, da hat jeder so seinenWeg zum Ziel. Wenn ich, selten genug, Pultsitter bin und dem Kollegen so über die Schulter schaue (es gibt immer etwas das man sich abschauen kann), dann bin ich oft verblüfft, wie viele z.T. Komplett unterschiedliche Herangehensweisen am Ende doch vergleichbare, und vor allem anhörbare, Ergebnisse liefern können. klar, gibt auch selten Tage, da denk ich mir, die hätte es jetzt nicht gebraucht. Da schaut man sich nur ab, wie man es selbst nicht machen will.:)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Und das kann dafür sorgen, dass wenn der Unterschied zwischen den Stimmen zu groß ist, der Grundton der dünnsten Stimme z.B. komplett überlagert wird von der sehr starken Stimme.
Völlig korrekt. Auch von mir absolute Zustimmung. Definitiv ein Kontrapunkt bei meiner Vorgehensweise. Und hätte ich eine Band, die ich fest betreuen würde bei der das der Fall ist, dann würde ich das Konzept/preset überdenken.
Und natürlich auch, wenn ich eine Band auf der Bühne habe, wo genau das der Fall ist. Es ist nicht so, dass ich ein preset im Bedarfsfall nicht auch komplett verwerfen würde. Aber wie schon mal gesagt, meistens funktionieren sie, und das auch gut.
dann bin ich oft verblüfft, wie viele z.T. Komplett unterschiedliche Herangehensweisen am Ende doch vergleichbare, und vor allem anhörbare, Ergebnisse liefern können.
Und das ist wohl der springende Punkt. Auch das fällt mir als Sitter oft auf. Und ja, das eine schaut man sich auch mal ab, das andere probiert man aus, das nächste passt nicht in den eigenen Workflow. Und so hat jeder seinen Weg um das beste rauszuholen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: 1 Benutzer
aber selbst da wird der versierte Metal-Mixer (also nicht ich ;) ) schon daheim wissen wie der den Kanal dafür vorab einstellt. Oder er bekommt sowieso den Sample, der per Drumtrigger abgefeuert wird.
Ich denke, es kommt sehr drauf an, was man mit dem Preset bezwecken möchte und wie man es einsetzt.

Das wogegen ich mich vehement ausspreche, ist ein komplett fixes Presetl inkl. Gain Werten. Ein "vorbereitendes" Preset, das Frequenzen schon mal in die in etwa Regionen schiebt und die Bandbreite voreinstellt, ist ja kein Thema. Aber das erspart mir eben auch nicht das auf das Signal eingehen und anpassen.

So, Frust mit Tonmenschen war eigentlich das Thema, wie kommen wir dahin zurück? :p
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich hatte auch letztens mal Frust mit tonmenschen:
Ich hab den Samstag FoH von einem kleinen Festival (ca. 1500 pax) übernommen. Der Kollege am Freitag hatte sein eigenes Pult dabei. Mein Kunde meinte, dass 9:00 Uhr da sein reicht.
Ich hab den Headliner angerufen und gefragt wann sie load in hätten. 9:00 Uhr.
Ok, also eher um halb 9 da sein.
Als ich um halb 9 ankam war nix vorbereitet, keine Übergabe, Processing im Pult.
Also erst mal Stress. Was ist hier eigentlich wie gepatcht, wo sind eigentlich die Monitore und die Endstufen, am Pult nix beschriftet oder vorbereitet, obwohl ich darum gebeten hatte das festivalpatch zu laden,…
Ein bisschen schreib ich mir das auch zu, denn ich hätte einfach den Mischer vom Freitag mal anrufen sollen. Trotzdem hat’s genervt und war anfangs stressig. Monitore einpfeifen konnte ich gar nicht mehr erledigen. Das musste leider dann kurz (unvermeidbar) während der Show passieren. Und das ist einfach immer ärgerlich.

Also: ich hab mich über die Kommunikation, die schlechte Vorbereitung und meine Kollegen geärgert. Und natürlich auch über mich selbst.
 
Ich lese hier seit geraumer Zeit nur noch Beiträge aus Sicht von Technikern. Wo sind die Musiker geblieben, die unter schlechten Technikern leiden? Sind sie vielleicht aus der mittlerweile recht technischen Diskussion ausgestiegen? Oder kehren sie grad alle vor der eigenen Tür, weil sie merken, dass sie Teil des Problems sein könnten? Ich find ja das Thema nach wie vor spannend :)
 
Hast recht aber wahrscheinlich ist es so, dass sich diejenigen, die auf beiden Seiten die Probleme machen, hier eh nicht oder nicht mehr äußern.
Ich kann mich aber noch recht gut an zwei Threads mit Meinungen von echten Bessermusis erinnern. Da waren die Meinungen über Tonleute so in Stein gemeißelt, dass die Diskussion sinnlos war.
Die sich aus der Mobildiscoecke rekrutierenden VT Firmen, die so typischerweise die musikalisch ahnungslosen Techis an die Front schicken, gibt‘s in diesem Forum hier wahrscheinlich gar nicht.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Aber auch nicht alles.

Ich stell mir gerade den Gig damals in Rahlstedt vor, wo die Locals auf uns absolut unvorbereitet waren. Die hatten ja den Rider erst seit dem Tag vorm Gig, den hatten sie von mir, weil ich da mal vorbeigeguckt hatte, und den hatten sie sich trotzdem bis dahin nicht ein einziges Mal angesehen und rechneten wahrscheinlich mit b/dr/g/g/voc-Einheitsbrei.

Jetzt stell ich mir vor, der Toni hätte z. B. von mir verlangt, ich soll von vier Synths (2 Keyboards + 2 Racksynths) von jetzt auf gleich auf genau einen reduzieren, weil er noch nie jemanden mit Submixer hatte, geschweige denn mit derart vielen Synths, und sowohl einen Submix als auch 8 Key-Signale verweigert hätte. Da wär ich handlungsunfähig gewesen. Ich hatte ja nicht nur vier, fünf Einzelsounds, die ich auch spontan von einem Keyboard hätte spielen können, sondern ein ultrakomplex durchprogrammiertes System, mit dem ich in den zwei Stunden wohl über 50 verschiedene Sounds abgebrannt hab.

Wir waren ja auch die erste Band, die der Toni hatte, mit mehr als einem Keyboarder. Jetzt stell ich mir vor, er hätte sich dagegen geweigert und auch aus Platzgründen* gefordert, daß nur mein leadsingender Kollege seine Keys aufbaut oder womöglich auch davon nur eins, weil er in unserer Preisklasse auch nicht mit mehr als einem Keyboard auf der Bühne gerechnet hätte.

Im Prinzip hätten wir nach Hause fahren können.

*Weil keine Sau vorher den Rider gesehen hatte, war meine Ecke neben dem Drummer mit Cases und anderem Kram so zugemüllt, daß ich da nicht aufbauen konnte, weil kein Platz mehr war. Also mußten wir spiegelverkehrt aufbauen, ich stand vorm Bühnenzugang, und die Locals haben Zeter und Mordio geschrieen, weil unsere Aufstellung nicht mehr dem Rider entsprach.

Das Problem ist ja dass die Band niemals ihr eigenes Spiel vom Platz der Besucher hören kann. Man kann ja nicht zeitgleich spielen und durch den Raum laufen.
Kann man mit Einschränkungen schon.

Mit einem Wireless-Mikro oder einen Wireless-Sender für Gitarre oder Baß kann man von relativ kleinen Musikkaschemmen- oder Stadtfestbühnen mal eben runter in den Publikumsraum oder ins Publikum. Hat unser Leadsänger gemacht, hat unsere Sängerin gemacht, hat vor allem unser Bassist gemacht, der auch fürs Abmischen mitzuständig ist. Beim Bassisten sieht es natürlich doof aus, wenn er während des Gig ins Publikum geht, außer er heißt Mark King, Verdine White, Paul McCartney oder Lemmy Kilmister.

Wenn man dagegen so eine Größenordnung spielt wie Wacken oder Hurricane oder Coachella oder <Sponsor hier einsetzen> Arena, wo man zwei Gehminuten von der Bühne durch den Backstage in den Publikumsraum hat, dann geht das natürlich nicht mehr so leicht.

Klar kann man richtig auf die Schnauze fallen, wenn man dem falschen vertraut. Ich persönlich habe aber die Erfahrung gemacht, das man dem Typen an den Fadern schon vertrauen kann.

Das ist bei jedem so in unserer Band. Ich hab aber auch mantramäßig gebetet, das man den Monitorsound NICHT mit dem FoH Sound gleichsetzen kann. Sind ja auch vom nutzen her komplett unterschiedlich. Mittlerweile ist das angekommen und verfestigt. Wenn wir also irgendwo spielen, ist uns nur der Monitorsound wichtig, beim FoH Sound lassen wir den Toni machen.
Das Risiko dabei ist, daß man z. B. als stark tastenlastige Band, wo die Gitarre nur eine untergeordnete Rolle spielt, einen Toni kriegt, der nur Gitarrenmusik ab Anfang der 90er kennt, also mit Wummerbaß, Bratgitarre und fast unhörbaren Keys, und der einen dann nach vorne raus so abmischt, wie er das kennt. Über die Monitore hörst du dann nicht, was der Toni sich für eine Scheiße zusammenmischt.

Und wenn der Toni meint, das mein Gitarrensound zu schrill sei, dann sag ich ihm, das er ihn entsprechend am EQ nachbearbeiten soll. Da wir Gitarre und Bass über einen Helix Floor laufen lassen, kann ich das nicht so einfach mal nach EQen. Ich habe für jedes Lied ein eigenes Preset (das auch als Setliste für mich dient). Sind zu 90 - 95% die gleichen Sounds, aber mit unterschiedlichen Snapshots, also z.B. "Intro, Rhythm, Solo, Outro" manchmal auch nur "Rhythm", eben das, was ich im Lied brauche. Hat den weiteren Vorteil, das auch alle Sounds vom Lautstärkeverhältnis gleich sind (mit ganz seltenen und ganz geringen unterschieden; die aber gewollt sind). Soll ich also da was am Klang ändern, müsste ich alle Presets ändern, und das würde dauern. Deshalb ist da der EQ am Mischpult die besser Lösung.
Das ging mir genauso, aber nicht als Gitarrist, sondern als Synthmann mit auch mal einem Vielfachen deiner Sounds - und davon auch mal einigen gleichzeitig und/oder im sehr schnellen Wechsel.

Anfangs wurde in dem Faden aber diskutiert, dass es doch sinnvoll ist, auch diese Sachen dem Tonmann zu überlassen.
Keine Premixe und am besten auch vom Keyboard Stems a la Strings, Leads, Bass etc.

Denn wenn Du etwas vorprogrammierst und dann den Mix ablieferst, kann er ja nix mehr machen. Und es hieß, dass Dein Premix im Probenraum evtl. noch super funktionieren könnte, auf der Bühne aber völlig ätzend sein kann.

Ich glaube nicht, dass man diese Detailarbeit aus den Händen geben kann, das greift zu tief ins Musikalische ein und es würde ihn überfordern bzw wären viele meiner Vorbereitungen einfach nichtig.
Vor allem ist es gerade bei a) größeren klanglichen Paletten, wo man nicht nur drei, vier Kategorien hat, und b) größeren Key-Setups technisch gar nicht mehr möglich.

Man bräuchte ja an jedem Instrument für jede Kategorie, die da rauskommt, jeweils dedizierte Ausgänge. Heutzutage kriegt man aber selbst in der absoluten preislichen Oberklasse oder bei extremem Nerd-Nischen-Equipment selten mehr als ein Stereopaar und nie mehr als zwei. Die Zeiten der großen Studio-Racksampler mit 16 Einzelausgängen sind vorbei – ebenso die Zeiten, wo jedes Instrument, was ein Keyboarder auf der Bühne hatte, eh nur eine Art von Sound konnte (Orgel von der Hammond B3 via abmikrofoniertem Leslie, E-Piano vom Rhodes via abmikrofoniertem Jazz Chorus, Streicher vom Mellotron, Synth vom Minimoog, der auch den ganzen Gig über nur einen und denselben Sound liefert...).

Das wäre also allenfalls realisierbar, wenn man in Hardware wirklich nur hochspezialisierte Instrumente hätte (E-Piano, Orgel, Leadsynth) und alles andere von einem Laptop käme mit einem dicken fetten 16-Kanal-Audiointerface dran. Am Ende würde ein einzelner Keyboarder mehr als die Hälfte der Kanäle am 32kanaligen Frontholz für sich beanspruchen, weil er mehr Soundkategorien, also auch mehr Stems, abfährt, als womit gerade der rockorientierte Toni rechnen würde.

Nochmals schwieriger wird es, wenn man mehrere Klangerzeuger hat, die sich in den Kategorien überschneiden. Von meinen letztlich fünf Synths im Bandsetup haben vier Strings geliefert. Der eine konnte die Art von Strings besser, der eine andere, wieder eine andere Kategorie ging überhaupt nur auf diesem einen Gerät. Das hieße im Endeffekt, daß der Keyboarder dann auch noch schlimmstenfalls für jede Kategorie einen Mixer bräuchte. Und dann würde der Toni doch wieder Submixe kriegen.

Zur Veranschaulichung, falls das jemand noch nicht gesehen haben sollte: Bei mir sah es in der Band so aus.

Hab ich nur die Summe, müsste ich es entweder so „bescheiden“, wie es ist, lassen oder bin ständig am Kurbeln für nur ein Signal. Denn genauso wie es bessere und schlechtere Tontechniker gibt, gibt es auch bessere und schlechtere Soundgestalter unter den Musikern. Und wenn man nicht gerade voll abgespacestes Experimenalzeug macht, so ist es Realität dass jede Stilrichtung ihre eigene Soundpalette hat, in der sich die Musiker bewegen. Und dem muss auch ein Tontechniker folgen. Wenn aber dann Sounds daher kommen, die da gar nicht reinpassen, dann versucht man als Techniker zu korrigieren. sollten aber unterschiedliche Sounds über ein Summensignal kommen, die noch dazu eher, hmmm „nicht so tolle“ sind, dann hat man als Techniker die A...karte gezogen. Denn dann kurbelt mann permanent an so einem Problemkanal rum und hat für nix anderes Zeit.
Das wär Teil meines Problems gewesen. Wir hatten ja trotz grundlegender Genre-Ausrichtung doch eine ziemliche klangliche Bandbreite. Das war nicht alles Ende-70er-mäßiger Funk, der sich seitens der Keys auf Hörner, Streicher, E-Piano, A-Piano und Hammond beschränkt. Mittendrin wär auf einmal "Clouds Across The Moon" (RAH Band) gekommen, das aus der Perspektive mittendrin im "voll abgespaceten Experimentalzeug" gesteckt hätte. Oder "I Feel For You" (Chaka Khan), das trotz ein paar Vereinfachungen hart an der Grenze dazu gestanden hätte. Da wär schlagartig Schluß gewesen mit der "eigenen Soundpalette" der einen "Stilrichtung".

Und glaub mir, wenn ich dir die 9 verschiedenen Synth-Signale von "Clouds Across The Moon" alle einzeln ans Pult geschickt hätte, weil zu unterschiedlich für eine pauschale "Synth"-Kategorie, hätte es das für dich eher schwerer als leichter gemacht.

Wenn du jede Kategorie von mir einzeln hättest haben wollen, hättest du mindestens 20 Kategorien für 39 bis 40 FoH-Kanäle bekommen (je nachdem, ob der Vocoder nicht auch mono funktioniert hätte) – wenn das denn für mich überhaupt technisch realisierbar gewesen wäre, was es nicht war (bzw. was es nur dann gewesen wäre, wenn ich mir einige Synths mehrfach zugelegt hätte, um mehr Ausgänge zu haben).

Und nein, ich hätte das nicht vor Ort spontan von jetzt auf gleich für dich auf nur fünf Sounds für den ganzen Abend reduzieren können.

Klar, aber letztendlich brauchts in der Regel wenig unterschiedliche Sounds, die man an einer Hand abzählen kann. Also wirklich unterschiedliche Sounds, da mal ein dB mehr oder weniger ist kein Unterschied. Ich wei, mich werden jetzt die ganzen Gitarrenheroes geißeln, oder Häresie. Aber am Ende des Tages ists, wie es ist.;)
Würdest du dasselbe auch pauschal über Synthleute sagen? Die pro Einzelsound (!) vom Oszillator/Tongenerator bis zum Masterfader des Submixers auch mal weit über 100 – wenn nicht mehrere 100 – regelbare Parameter haben, ganz zu schweigen von einer gegenüber einem Gitarristen eh sehr viel größeren klanglichen Bandbreite?

Ich hab glücklicherweise in den meisten Fällen mit Musikern zu tun die recht genau wissen was sie tun. Und wenn die presets über Jahre in verschiedenen Locations weiterentwickelt haben oder sich Synthesizerburgen bauen und mir einen premix geben, dann funktioniert das. Vielleicht muss man mal den eq oder Kompressor oder den Hall anpassen. Vielleicht auch mal minimal die Lautstärken angleichen. Alles Kleinigkeiten.
Kommt drauf an.

Zu "Analogzeiten", wo Keyboarder selbst in den größten Burgen noch dedizierte Regler für alles hatten, da ging jede Anpassung ruckzuck, zur Not auch on-the-fly mitten im Song, wenn man gerade eine Hand frei hatte. EQ hatte man, wenn überhaupt, nur am nicht speicherbaren Submixer, Kompressor eher gar nicht, und weil damals bei den Synths die Lautstärken noch nicht speicherbar waren, mußten die auch am Submixer nachgeregelt werden.

Heutzutage ist das sehr viel schwieriger, um so schwieriger, je komplexer das ganze Konstrukt ist und je mehr davon gespeichert und zentral abrufbar ist. Bei mir war das wirklich extrem, zumal sich jeder meiner fünf Synths je nach Song auch mal drastisch anders anhören konnte. EQ, Hall oder Lautstärke (Kompressor hatte ich nicht im Einsatz) einmal für den ganzen Gig einstellen, das wär schon deshalb nicht drin gewesen, weil sich diese Einstellungen nicht nur pro Song, sondern pro Einzelsound individuell für jeden Song ändern konnten – genau wie der ganze klangliche Charakter.

Statt eines Soundcheck hätten wir als Amateurband also an Ort und Stelle mit derselben Backline und derselben Mannschaft vorab den ganzen Gig mindestens einmal durchspielen müssen, und dann hätte ich jedes Detail an die Örtlichkeit anpassen können.

Sofern es denn individuell anpaßbar gewesen wäre. Bei zwei meiner Synths ging der EQ nur für die ganze Maschine, für alle Sounds zusammen, also nicht für jeden einzeln individuell. Bei einem dritten wär das ein Effekt gewesen, den ich zusätzlich hätte einhängen müssen – womöglich zu Lasten eines anderen Effekts. Nur einer, der Virus, hatte für 16 Multimode-Parts jeweils einen eigenen individuellen EQ, und der war klanglich spezialisiert.

On the fly wär sowieso schwierig gewesen. Gerade beim so flexiblen Virus hätte jede Einstellung für einzelne Sounds ziemliche Menütaucherei bedeutet, auch das Einstellen individueller Lautstärken, weil der Virus nicht 16 einzelne Lautstärkenregler hat.

Letztlich hätte das Ganze auch noch zu einer Verkettung zahlloser neuer Speicherplätze geführt. Jeder individuell veränderte Sound hätte einen neuen Speicherplatz belegt, um nicht das Original zu überschreiben.

Nun hab ich aber keine Einzelsounds an den Synths jeweils händisch aufgerufen. Das ging alles zum einen ferngesteuert und zum anderen per Multimode: Über meinen MIDI-Router konnte ich MIDI Program Changes an meine fünf Synths verschicken und sie damit alle gleichzeitig umschalten. Vier davon waren aber multitimbral, konnten also mehrere Einzelsounds gleichzeitig nutzen. Das ging wiederum über, man kann sagen, Mehrfachspeicherplätze. Die hat der MIDI-Router ferngesteuert aufgerufen.

Wenn jetzt aber ein Einzelsound geändert wär und auf einem neuen Speicherplatz läge, würden sich auch die Einstellungen im Multimode verändern und ich für den Song einen neuen Mehrfachspeicherplatz brauchen. Damit muß aber auch der MIDI-Router an dem jeweiligen Synth in dem jeweiligen Song einen anderen Mehrfachspeicherplatz aufrufen. Also bräuchte ich für den Song auch im MIDI-Router einen neuen Speicherplatz.

Wohlgemerkt, dieser Riesenaufwand wär schon nötig gewesen nach Anpassung einzelner EQ-Einstellungen. (Bei Lautstärken hätte ich nur neue Mehrfachspeicherplätze gebraucht.)


Martman
 
Aber auch nicht alles.
Irgendwie hab ich das Gefühl dass man/ich hier permanent missverstanden werde. Es geht doch nicht darum eine Band und deren Bedürfnisse komplett umzuschmeissen nur damit es in ein ganz, ganz simples System rein passt. Zumindest nicht bei mir.
Neulich hab ich einen Rider bekommen mit acht Monitorwege und davon fünf jeweils mit zwei Monitore pro Musiker. In Summe stehen da 9 Leute auf der Bühne, z.T mit Instrumenten die deutlich mehr Platz als ein Triangel beanspruchen. Und das ganze auf einer knapp 7x5 Meter Bühne. Und auch noch auf einem Festival, dass nicht gesegnet ist mit Budget ohne Ende. Also werden es halt keine Doppelmonitore sein. Auf der Bühne ist, man bedenke dass da nur relativ laute Naturinstrumente verwendet werden, die Benutzung von acht Monitormischungen via Wedges schon eher overkill. Da kriegst du gar keine ernsthaft individuelle Mixes hin. Aber gut. Da muss halt darüber gesprochen werden.

ich hab auch kein Problem wenn ein Keyboarder mit gefühlt 200 kg Equipment daherkommt um seine Klangkollagen zu basteln (was dent sich ein Keyboarder beim Konzert? Boah hab ich heut aber wieder geile Sounds :moose_head: ). Alles kein Stress. Ich habe nur zu bedenken gegeben dass, falls der absolut selten auftretende Fall eintritt, dass die Sounds halt nur im Kopf des Keyboarders geil sind, eine Stereosumme dieser Gebilde halt dann doch suboptimal sein kann. Dann redet man beim Soundcheck, so es nicht nur einen Linecheck beim Changeover gibt, darüber. Wenn Band/Musiker darauf besteht, dass es so, wie sie meinen, femacht wird, ist es auch gut. Irgendwann gibts da auch noch den Modus „Mischen impossible“. Nicht falsch verstehen, mein Anspruch ist immer, für alle Beteiligten ein optimales Ergebnis zu erzielen. Ich bin aber inzwischen auch durchaus in der Lage Dinge hinzunehmen, die ich nicht ändern kann. Es wird angesprochen und dann muss es auch gut sein.
Über die Monitore hörst du dann nicht, was der Toni sich für eine Scheiße zusammenmischt.
Nochmals, auch Techniker weisen unterschiedlic gut ausgeprägte Skills auf (wie auch Musiker) und wenn man Kontinuität sucht, sucht man sich einen eigenen Techniker, der dann doch wohl „keinen Scheiss“ mischt. Oder man gambelt und hat mal mehr, mal weniger Glück. Bands haben die Wahl, Local Techs haben die nicht. Die müssen das akzeptieren was daher kommt, auch wenn dann nur Müll auf der Bühne produziert wird.
vielleicht ist genau diese mögliche Wahl vonnBands der Knackpunkt. Wenn man irgendwann zum Schluss kommt, dass man als Band ein ach so komplexes Setup hat, dann sollte man auch zumindest den Schritt zu einer eigenen Crew gehen. Einer Ton- und Lichtmensch sollte da obligatorisch sein. Zu denken dass jeder Techniker,den man gerade mal vor einer Stunde kennen gelernt hat, auch antizipiert was wann wo in welchem Song zu tun ist, kann doch nicht funktionieren.
auch da gilt irgendwann „Mischen impossible“.
und ja, ich steh zu meiner Aussage, dass viele Musiker irgendwann so technisch verspielt mit ihren Kisterln und Kasterln immer diffizilere Sound Setups machen, deren Unterschiede Live in der Regel auf eine Handvoll unterscheidbare Sounds reduziert werden können. Aber ich kann mich ja auch da oder dort imkonkreten Fall täuschen und es braucht die, übertrieben gesagt, 2000 unterschiedliche Sounds für 12 Songs. Aber seis drum, wenn sie funktionieren, ist auch das ok.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
dass die Sounds halt nur im Kopf des Keyboarders geil sind, eine Stereosumme dieser Gebilde halt dann doch suboptimal sein kann.

Das trifft genau den Kern und die Aussage des Fadens.
Eigentlich geht es darum, den Musiker zu verbessern. In bester Absicht natürlich.
Und wir quatschen uns die Köppe heiß, ob der fremde Tonmann das überhaupt schaffen kann weil der Musiker so gut und der Mix total komplex und ausgeklügelt ist, oder ob es selbstverständlich besser dem Tonmann überlassen werden sollte, weil er vor Ort viel besser entscheiden kann und der Musiker eh nur Grütze vorbereitet, weil er nix hört.

Überspitzt formuliert.

Man spürt bei dem Vergleich sofort, dass es von Fall höchst unterschiedlich sein wird.

Ich finde nur, dass die Zeit für die vielbeschworene Kommunikation meist viel zu knapp ist und ich entweder volle oder gar keine Verantwortung übernehmen möchte.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
am 32kanaligen Frontholz
Soso, das hört sich ja echt gefährlich an...!

Ich hole mir, wenn's sein muß, 96 Kanäle von der Bühne in mein Pult und mir ist völlig humpe, ob ich zwei oder zweiundvierzig Kanäle von Dir bekomme. Du verhandelst den Zeitplan mit dem Veranstalter und dann üben wir das gerne den ganzen Tag...
 
Klar, mit genug Investition in Material, Zeit und Know-how, gepaart mit der absoluten Bereitschaft aller beteiligten Personen und entsprechendem pekuniären Rückhalt ist vieles möglich.
hier gehts aber doch eher um die Quadratur des Kreises. Da Geld eben nicht unbegrenzt vorhanden ist, wird bei einer Veranstaltung ein möglichst günstiges, und eventuell gerade mal ausreichendes Zeug bereit gestellt. Das bedienen dann auch Leute die es möglichst um kein oder maximal wenig Entlohnung auch noch machen. Dann ist das Team natürlich auch komplett unterbesetzt, wodurch der Stresslevel der beteiligten schon Besorgnis erregende Werte erreicht. Aber die Bands, die ankommen, sind der Meinung mit absoluten Premium Support rechnen zu können, setzen das daher auch bedingungslos voraus. Da diese Diskrepanz zwischen Anspruch und Wirklichkeit bei allen Anwesenden schnell Frust und Unmut auslöst, wird der Ton in der „Kommunikation“ rasant unwirscher. Wenn schon nicht gesagt, so doch gedacht fliegen schnell Begriffe wie „Idiot“, „A...och“ usw herum.
Es ist also so, als ob alle Anwesenden Akteure Paul Watzlawik‘s Standardwerk (Anleitung zum Unglücklich sein) nicht nur gelesen, sondern auch tagtäglich umsetzen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben