Den Sinn von mehreren Audiospuren pro Song gleichzeitig bei Live Auftritten sehe ich jetzt nicht gerade ein. Da geht selbst der ältere und billigere Fantom G schnell in die Knie weil der Sample Speicher dadurch überfüllt wird. Warum reicht nicht eine abgemischte Audiospur pro Song? Dann ist die Auswahl unendlich größer, angefangen bei relativ billigen Tablet Apps (falls Tablet schon vorhanden).
Ich sehe da zwei mögliche Gründe.
Variante 1: Es sind eben keine Audiotracks, die jeweils so lang sind wie der ganze Song, sondern jeweils nur Schnipsel, aber eben länger als das, was man normalerweise von einem MPC abfährt. Also Prinzip DAWless DAW, wie es Ende der 80er mit rackweise Akai S1000 gemacht wurde: Du hast die Backing Vocals für den Gesang nicht als viereinhalbminütiges durchgehendes Stereosample, sondern nur als 20-Sekunden-Stereosample, also so lang wie der Refrain, und das wird dann eben mehrfach eingeflogen – immer dann, wenn es gebraucht wird. Darunter laufen aber noch andere Sachen ab.
Der charmante Vorteil dieser Vorgehensweise gegenüber einem Stereo-Mixdown ist, daß man den Songablauf auch mal spontan variieren kann. Das war auch damals das Killerfeature von Ableton Live gegenüber Cubase und Logic.
Variante 2: Es sind tatsächlich Audiotracks, die jeweils so lang sind wie der ganze Song. Die Idee dahinter ist aber, den Mix nicht vorzubereiten, sondern erst auf der Bühne zu machen.
So oder so glaube ich, wir haben es nicht mit einem Keyboarder in einer üblichen Rock- oder Coverband zu tun, sondern mit einem Elektronik-Solisten, der bisher zu 100% im Rechner ohne jegliches Outboard (außer Abhöre) gearbeitet hat und jetzt was braucht, womit er live auftreten kann, ohne daß er wie David Guetta wirkt. Der hat natürlich einiges an Backing vorproduziert, was er bei seinen Stücken unbedingt dabei haben muß, wenn er sie live aufführt. Fragt sich nur: Wie stellt er das an?
Den Rechner mitnehmen, auf dem das alles produziert wurde, und alles vor Ort live in Echtzeit noch einmal generieren? Eher nein. Zum einen sieht ein Rechner auf der Bühne immer scheiße aus, irgendwie nach "ist alles eigentlich nur MP3-Playback". Zum anderen halte ich es für wahrscheinlich, daß sein Produktionsrechner gar nicht in der Lage ist, das
alles auf einmal zu generieren. Bei der Produktion ist es ja auch alles schön nacheinander als Audio aufgenommen worden.
Die internen Möglichkeiten der Workstation nutzen? Schon gar nicht. Selbst Kronos dürfte nicht das Soundfeuerwerk, das ein paar Dutzend VSTs mit entsprechenden Effektketten im Studio erzeugt haben, live adäquat reproduzieren können – 1:1 schon gar nicht.
Sich dafür mit haufenweise Hardwaresynths und -effekten umgeben, die per MIDI und Sequencer angesteuert werden? Sozusagen à la Kebu? Wäre sexy, aber zum einen teuer. Und zum anderen neigen In-The-Box-Elektronikproduzenten dazu, die technischen Möglichkeiten, die ihnen durch Software gegeben sind, bis zum Anschlag auszureizen. Die Hardware, die nötig wäre, um das alles gleichzeitig in Echtzeit zu reproduzieren, würde eine ganze Garage füllen. Ich meine, finde mal einen Hardwaresynth, der Omnisphere oder Reaktor ersetzen kann. In einer In-The-Box-Produktion kann man auch zig jeweils verschieden eingestellte Instanzen des Lexicon 480L oder Bricasti M7 für ein paar Hunderter nutzen, und sei es nacheinander – live bräuchte man die heute noch sauteuren Originale in entsprechender Stückzahl. Und Kebu hat seine Studioproduktionen mit ziemlich genau dem Kram gemacht, mit dem er auch auftritt.
So bleiben also Audiozuspielungen, zu denen dann das per Hand gespielt wird, was per Hand gespielt werden kann, als einzige Möglichkeit übrig.
Martman