Polyphonie

IngoH.
IngoH.
Registrierter Benutzer
Zuletzt hier
13.04.24
Registriert
16.11.06
Beiträge
90
Kekse
341
Liebe User,

ich wollte hier auch aus eigenem Interesse mal einen neuen Thread eröffnen und eine offene Diskussion in Gang bringen, die keine Aspekte aussperren soll. Hier können sich sowohl Leute zu Wort melden, die einfach nur in der Praxis beim Livespiel Erfahrungen gesammelt haben, aber auch Leute aus dem Business, die uns andren darlegen, warum man für ein Keyboard, Synth oder Workstation diese maximale Polyphonität ausgesucht oder entwickelt hat. Es soll hier weniger um die soundtechnischen Optionen von einzelnen Geräten gehen, sondern mehr um Wünsche, positive und negative Erfahrungen und Motive der Hersteller (z.B. Marktpreis), um auch für deren Politik ein gewisses Verständnis zu entwickeln. Ich bin vor allem auf Beiträge gespannt, in denen User berichten, dass sie Geräte wegen zu geringer Stimmenzahl verkauft, Neuanschaffungen getätigt oder mit weiteren Geräten ergänzt. Hier bringe ich nur mal einen Aspekt an, der in den 80'ern möglich war - nämlich 2 identische Boards zwecks Stimmenverdopplung via Midi zu verbinden (z.B. Alpha Juno). Unbedingt können auch Diejenigen was dazu sagen, die auf VSti oder Plug-ins zurückgreifen und evtl. deswegen überhaupt keine Probleme mehr mit Polyphonität zu tun haben (live). Im Recording mit den aktuellen Audio-Sequenzern spielt das wohl eher keine Rolle mehr.

Ich selbst möchte gerne die Diskussion eröffnen, indem ich Teile aus meiner Keyboard-Historie erzähle, die weniger durch soundtechnische Details sondern mehr durch die Limitierung der Polyphonität bestimmt waren.

Also, es trug sich zu, dass ich anno 1989 nach meiner Bundeswehrzeit den nicht im Mannschaftsheim versoffenen Sold in einen Korg M1 investiert habe um gleich danach bei einer Tanzmucke-Combo anzuheuern. Piano war in erster Linie angesagt und das vom M1 war in dieser Preisrange quasi State of the Art. Aber bald schon machte sich durch den Einsatz eines Sustain-Pedals die maximale Stimmenzahl von 16 unangenehm bemerkbar. Besonders dann, wenn man zum Füllen oder Andicken noch einen 2. OSC mit Pads oder gar eine Combi mit evtl. Bells im Diskant hinzufügte.
Es folgte ein Kassensturz und die Gelegenheit, günstig ein gebrauchtes Kawai K1II & Case zu ergattern, welches dann via Midi die additional Sounds beisteuerte oder aber Teppich legte, wenn der M1 mit seinen damals tollen "akustischen" Solo-Voices (Pan Flute, Saxophon...) glänzte.
Ein paar Jahre spielte ich für einen Freund in seiner Dark-Wave Band als Live-Unterstützung, wo auch der Onboard-Sequenzer des M1 zum Einsatz kam und ein düsteres Intro für alle Gigs abspielen sollte, in dem die 3 Bandmembers die Bühne entern. Wer je einen M1 mit seinem Sequenzer benutzt hat, weiß sicher noch, wie diszipliniert man neben den max. Events auch mit der Stimmenzahl umgehen musste. Da waren kaum 6-stimmige Akkorde möglich, wenn man noch Persussion, Noise, Bass, Seq-Ticker oder Solostimmen hinzufügen wollte; von gestackten Pads mal ganz zu schweigen.

Der Kawai musste also gehen und es wurde ein Korg 01/WFD erstanden, der mit seinen voluminösen Combis genau das Richtige für diese Mucke war. Ich sag nur "Arabian Nights. Und mit dem Sequenzer war auch aufgrund der Polyphonität von 32 Stimmen erstmal ausreichend.

Etliche Jahre später hatte sich die Tanzmucke-Szene stark verändert. Die Bands wurden immer kleiner und es wurden teilweise midi, später sogar audio-backing files eingesetzt. Häufig sollte der Keyboarder einen Bassisten ersetzen und mit der rechten Hand dann ganze Wall of Sounds liefern um dem Gitarristen, Sänger oder Saxophonisten den nötigen Background für Ihre Parts zu liefern. Bläsersätze mit manchmal 4 verschiedenen Sounds wurden gelayert, gesplittet, de-tuned und in Oktaven versetzt. Zu dieser Zeit hatte ich ein Yamaha S80, weil ich mich auch im Rock-Bereich gerne wieder den typischen Sounds wie Piano, Organ, Clavinets aber auch voluminöse Prog-Rock Stacks zuwenden wollte. Das Kurzweil PC88 war schon aufgrund der kaum editierbaren Patches mit seinen nur 32 Stimmen durchgefallen bei mir. Bei dem, was ich vorhatte, waren dann die 64 Stimmen des S80 auch sehr schnell aufgebraucht und die Kompromisse haben mich trotz der guten Soundqualität irgendwann genervt.

Jahre später hatte ich dann kurz nach Erscheinen etwa 2005 den Alesis Fusion 8HD im Blick. Da ich zu dieser Zeit neben der Tanzmucke auch in einer RockCoverband spielte, waren die Features mit verschiedenen Sound-Engines (ROM und RAM Samples, Physical und Analog Modelling, FM) und vor allem die Stimmenzahl von 240 ein Kaufgrund. Keine Ahnung, wie damaligen Leute bei Alesis diesbezüglich einen Quantensprung geschafft haben. Immerhin war zu dieser Zeit eine maximale Stimmenanzahl von 64 oder 128 noch up to date (Yamaha S90).
Vor allem, wenn man bedenkt, dass der Fusion bei Einführung um die 1.500€ gekostet hat. Für mich war das damals der Gegenbeweis, dass eine hohe Polyphonität mehr Prozessorleistung und daraus folgernd zwingend einen höheren Verkaufspreis nach sich zieht.

In den Jahren darauf hat sich bei den Workstation, Synths oder Stagepianos kaum etwas geändert. Ein Schätzchen, das ich noch heute besitze hat ebenfalls aus diesem Polyphonitätsdurchschnitt herausgeragt. Das was das GEM Promega 3 mit 320 Stimmen. Klar, war anno 2001 oder so nicht gerade billig.

Heute habe ich z.B. noch ein Yamaha MOXF 8. Gnadenlos gut mit seinen Features trotz Plastikgehäuse und externem Netzteil. Aber hier sind wir (2012?) wieder bei 128 Stimmen.
Und neuere Modelle haben auch nicht mehr.
Woher kommt das? Braucht der Otto-Normal-Stage-Keyboarder nicht mehr Stimmen?
Warum sind es anscheinend immer die "Außenseiter" wie Alesis, GEM oder zuletzt Casio Privia PX-5s, die einem das bieten, was ich z.B. auf der Bühne für gute füllige Stacks, Layers, im Kopf habe?
 
Eigenschaft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich denke mir einmal die Anzahl der Stimmen muss heute nicht mehr so hoch sein wie damals. Damals war die Klangerzeugung ja recht simpel und einfach. Heute sind die Stimmen viel komplexer und decken viel größere Bereiche ab. Wenn man auch einmal schaut das ein großes Sinfonieorchester aus meist nicht mehr als 100 Musiker besteht und diese damit alles problemlos spielen können, dann frage ich mich was ein einzelner Musiker dann mit noch mehr Stimmen möchte?

Bei den neuen Modellen die ich kenne ist es so das eine Stimme im Prinzip ein Klang ist. Spiele ich den Klang als Akkord dann habe ich zwar drei Töne die gespielt werden, aber es bleibt bei einer Stimme die genutzt wird. Aber das wird wohl jeder anders machen.
 
Danke Christian, für den Einwand. Schon die erste Diskussiongrundlage. Ich meine mich zu erinnern, dass es Keyboards gab, die eine "true" Stimmenzahl hatten, egal wie viele OSC'S involviert waren und eben die großen 3 Roland, Yamaha und Korg. Bei denen ist und/oder war es so, dass eine Dopplung der benötigten Oszillatoren auch immer eine Halbierung der Polyphonität zur Folge hatte. Was sich z.B. neulich beim Editieren von 80'er Jahre Sounds auf meinem MOXF sich wieder bemerkbar machte. Da ging es u.a. um den Intro-Sound von Rio Reisers "König von Deutschland". Bekannterweise kann man im MOXF nur max. 4 Sounds in einer Performance stacken; jede VOICE kann aber bis zu 8 Elemente (8 OSCs) haben. Somit war dann auch Editieren der Voices und Reduzierung der Elemente angesagt.
 
Zuletzt bearbeitet:
Somit war dann auch Editieren der Voices und Reduzierung der Elemente angesagt.
Oder man hat die einzelnen Teile separat eingespielt und aufgenommen zu einem Gesamtbild.

Ich finde es immer schwierig bei Aufzeichnungen zu beurteilen ob es tatsächlich live gespielt ist und nicht im Hintergrund was verändert wurde. Selbst bei einem Liveauftritt kann ja noch ein zweites oder drittes Gerät hinter der Bühne mitspielen. Oder das Gerät war modifiziert. Aber sehr viel wahrscheinlicher kann auch sein das der Musiker sein Instrument genau kennt und weiß wie er das absolute Maximum rausholen kann. Mit den Modernen Möglichkeiten muss sich heute ja kaum jemand mit seiner Musik befassen und kann quasi alles spielen, früher musste man sehr genau schauen was geht und wie ich mein Stück aufbaue damit ich noch etwas mehr machen kann. Eigentlich eine Fähigkeit die man heute bei vielen Jungmusikern vermisst.
 
Gut, das würde aber eher bedeuten, dass man mit Backing Tracks arbeitet, in dem Fall also mit Files Spuren dazu arrangiert oder layert. Auf mich bezogen sehe ich das jetzt mal aus der "reinen" Live-Band" Situation (nicht Studio). Ich bringe mal ein Beispiel, was sicher nicht unüblich ist und auch heutzutage noch viele (vielleicht der überwiegende Teil) Keyboarder machen: Ich war in einer Blues/BluesRock Combo. Genau dafür hatte ich mir ein Budget gesetzt und ein GEM Promega3 sowie einen Roland VR700 erworben. Die Organ Engine des VR ist eh vollpolyphon, aber da drückt man nicht 76 Tasten und steigt aufs Sustain Pedal. Beim Promega hatte ich z.B. so Foster Stacks mit Piano/Rhodes und 2 Pads stereo-panning. Da reißt nix ab, auch wenn man bei Kadenzen mal das Sustainpedal durchhält. Wäre so z.B. auf einem S80/S90, Korg Extreme nicht möglich gewesen. Gut, das sind sicher im wahrsten Sinne des Wortes Extreme. Es ist aber schon ein bißchen so, dass man anders spielt, wenn man sich keine Sorgen um Stimmenauslastung und abgerissene Töne Sorgen machen muss.
 
Zuletzt bearbeitet:
Also ich war ja ca. 15 Jahre früher dran wie @IngoH. Und damals mit einem Micromoog macht man sich über Polyphonie keine Gedanken.

Man muss die - eventuell auch monophonen - Instrumente halt einfach geeignet einsetzen. So haben auch in meinem zweiten Musikerleben ein Moog Voyager und zwei HAMMOND 102100 (einen frühen Minimoog hatte ich auch, aber von dem hab ich mich getrennt) als monophone Maschinen und bis sechs Stimmen leistende Synths (Cheetah MS6 und Oberheim Matrix 6 R) Ihre Daseinsberechtigung - daneben hab ich aber schon noch quasi "unbegrenzt" polyphon spielbare Keys und Expander.

Je nach Musikstil ist es halt auch nicht wichtig, wie viele Töne man gleichzeitig beiträgt (mit der Gitarre reichen ja u.U. auch so genannte Power Chords mit bis zu nur 2 Tönen), es müssen halt die richtigen sein.
 
Okay das mit der Kadenz ist ein gutes Beispiel. Da unterscheiden sich ja die technischen Details. Einige Geräte sagen eben das nur die aktive angeschlagenen Töne einen Ton darstellen, dann hättest du während deiner Kadenz jeweils nur 3 Töne gespielt. Wenn aber die Töne die noch nachklingen auch da mit reinfallen, dann gebe ich dir recht das man mit 100 Stimmen schnell am Limit ist. Zumindest dann wenn man flott spielen kann.

Technisch gesehen kann das ausklingen lassen ja im Hintergrund passieren, da sind ja zumindest bei synthetischen Klängen keine großartigen Berechnungen mehr notwendig. Bei einer akkuraten Klaviersimulation wo man die Schwingungen mit den anderen Tönen genau berechnen will mag das vielleicht anders sein... Aber ab einem gewissen Punkt hört man da eh keine Details mehr.

Es bleibt dann also die Vermutung das man hier künstlich limitiert weil man entweder die Hardware nicht erweitern will oder etwas für mehr Geld verkaufen möchte.
 
Damals war die Klangerzeugung ja recht simpel und einfach.

Darum geht es aber nicht. Es geht darum, dass man pro erzeugter Stimme [mindestens] einen Oszillator benötigt.
Eine aus heutiger Sicht große Einschränkung damals war, dass ein Synthesizer nur monotimbral spielbar war, d. h., dass er nicht mehrere Sounds gleichzeitig erzeugen konnte. Deshalb brauchte man in den Achtzigern ja diese riesigen MIDI-Stacks für Layer-Sounds, die heute jede kleine Workstation hinbekommt.


Wenn man auch einmal schaut das ein großes Sinfonieorchester aus meist nicht mehr als 100 Musiker besteht und diese damit alles problemlos spielen können, dann frage ich mich was ein einzelner Musiker dann mit noch mehr Stimmen möchte?

Das kommt auch auf die Instrumente an.
Eine Pauke klingt nach, d. h. man brauch mehrere freie Stimmen, damit der Klang nicht abrupt abreißt.
Oder denk mal an eine Harfe, die ein Glissando spielt, bei dem alle (!) Saiten gemeinsam klingen.



Bei den neuen Modellen die ich kenne ist es so das eine Stimme im Prinzip ein Klang ist. Spiele ich den Klang als Akkord dann habe ich zwar drei Töne die gespielt werden, aber es bleibt bei einer Stimme die genutzt wird.

Das ist so falsch. Jeder Ton im Akkord, den man spielt, frisst Polyphonie. Du wirst niemals drei Töne gleichzeitig spielen und dabei nur eine Stimme "verbrauchen" können.


Und damals mit einem Micromoog macht man sich über Polyphonie keine Gedanken.
Genau. Dafür gab es zum Ausgleich irgendwann den Polymoog, der - als anderes Extrem - voll polyphon spielbar war, weil er wie elektronische Orgeln einen TOS (Top Octave Synthesizer) nutzte, der nur die 13 Töne einer Oktave erzeugte, die dann per Frequenzteiler heruntergeilt wurden, so dass das Instrument vollpolyphon spielbar war.


Technisch gesehen kann das ausklingen lassen ja im Hintergrund passieren, da sind ja zumindest bei synthetischen Klängen keine großartigen Berechnungen mehr notwendig.

Was heißt "im Hintergrund"?
Entweder hört man die Stimme (noch), oder nicht.
Und wenn man sie noch hört und sie wird plötzlich gekappt, weil dem Instrument die Polyphonie ausgeht, bricht sie abrupt ab und das stört gewaltig.

Um dieses abrupte Beenden eines Tons möglichst wenig störend zu gestalten, haben viele Hersteller recht intelligente "Voice Stealing"-Algorithmen entwickelt, bei denen z. B. der gerade am leisesten klingende Ton geopfert wird. Andere Algorithmen kappen den zuerst angeschlagenen (also am schon am längsten klingenden Ton).

Gerade bei Klaviersounds war früher ein großes Manko, dass sie viel zu schnell ausklangen, was aber im Pop-Live-Kontext meist nicht sehr gestört hat und vor allem polyphoniefreundlich war.
Das heißt: ein modernes Digitalpiano mit sehr langem und realistischem Sustain braucht auch mehr Polyphonie als ein altes, viel schneller verklingendes.

Viele Grüße
Torsten
 
Danke Torsten, Du hast es auf den Punkt gebracht. Beispiel Kawai MP4. Schönes Teil damals. Aber wenn Du Dir die übliche Piano/Pad Kombi gebaut hast und z.B. Parts von Billy Joel spielen wolltest, war es mit den 64 Stimmen schnell zappenduster. Korg hat zumindest begriffen, dass auch für Livekeyboarder mit den lange üblichen 80 0der 120 Stimmen für die tour mit großen Künstlern schnell Ende im Gelände ist. Gut, Ihr alle wisst, dass man sich auch immer noch ein Rack mit Synths zusammenstellen kann oder sehr viele "Hybrid" fahren, also noch ein System mit Tablet und VStis. Aber wenn ich mir so die gängigen LiveRigs von Tour-Keyboardern auf You Tube anschaue, klimpern die Meisten einen beträchtlichen Teil ihrer Parts noch mit "herkömmlichen" Synths oder Workstations.
Und wie soundmunich schon andeutete: Die Stimmenzahl trägt (auch mal leider) zu dem bei, wie und was du spielst. In heutigen RockCover oder Top40 Bands bist du in der Regel der einzige Keybo. Da kann es sehr oft passieren, dass Du bei komplexen Songs mit 3 gedrückten Tasten trotz diverser Stacks einen Flickenteppich hast. Deswegen meinte ich: Polyphonität verändert dein Spiel, bzw. dein Arrangement für Keyboardparts. Da ich aus der klassischen Piano-Ecke stamme, spiele ich schon von Haus aus anders als jemand, der mit DM, Soft Cell oder OMD groß geworden ist (was nicht nur an den Musikstilen liegt).
Bei mir ist es eigentlich generell so, dass ich, um bestimmte Sounds nachzustellen oder "authentischer" zu machen, erst einmal anfange, zu stacken. Wenn ich dann nicht vorankomme, gehe ich an das Editieren von einzelnen Voices. Und genau dieses Stacken verursacht oft einen Stimmenklau, den man hört und der zumindest mich stört. Dann müssen nicht so dominante Elemente dran glauben. Nochmal zum GEM:
Da hatte ich mir so typische TOTO/Paich Kombis gebastelt (und die Pianos sind schon auch heute noch okay). Aber ohne EPiano/Bell&Pad
Gemisch darunter klingt es nicht mal ansatzweise nach Paich.
Mal zu Christians These der Verkaufsstrategie. Beispiel Behringer Deepmind 6 oder 12, oder 12D. Im Vergleich dazu der Waldorf Kyra mit 128Stimmen (aber 3facher Preis des 12D). Ich möchte nur verstehen, welche technischen und marketingstrategischen Überlegungen dahinter stecken, "heutzutage" einen virtuell analogen Synth, der nichts Spezielles kann, rauszubringen mit nur 6 Stimmen. Prozessorleistung oder Kult, dass die analogen eben wenig Stimmen haben? Ich denke, dass ein Kronos oder Montage auch jede Menge Prozessorleistung benötigt, wenn da z.B. komplexe Arpeggios im Combi-Mode mit verschiedenen Sound-Engines laufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Beispiel Behringer Deepmind 6 oder 12, oder 12D. Im Vergleich dazu der Waldorf Kyra mit 128Stimmen (aber 3facher Preis des 12D). Ich möchte nur verstehen, welche technischen und marketingstrategischen Überlegungen dahinter stecken, "heutzutage" einen virtuell analogen Synth, der nichts Spezielles kann, rauszubringen mit nur 6 Stimmen.

Das ist aber tatsächlich ein Vergleich von Äpfeln mit Birnen, denn der DeepMind ist ein echter analoger Synthesizer, d. h. er hat tatsächlich Oszillatoren, deren Anzahl direkten Einfluss auf Aufwand, Platzbedarf und Preis haben.
Wenn man echte analoge Synthesizer möchte, dann ist eine hohe Stimmenanzahl heute noch genau wie früher mit entsprechenden Kosten verbunden.

Ein virtuell analoger Synthesizer, der lediglich ein Modell einer analogen Schaltung darstellt, kann sich entweder exakt an eine Original-Schaltung eines historischen Vorbilds halten (und hat dann zwangsläufig die gleiche Stimmenanzahl) oder aber, bei einem eigenständigen virtuellen Synthesizer, ist die maximale Polyphonie vor allem durch die Rechenleistung beschränkt oder man muss das Modell vereinfachen, um die Polyphonie zu erhöhen.

Viele Grüße
Torsten
 
Genau. Dafür gab es zum Ausgleich irgendwann den Polymoog, der - als anderes Extrem - voll polyphon spielbar war, weil er wie elektronische Orgeln einen TOS (Top Octave Synthesizer) nutzte, der nur die 13 Töne einer Oktave erzeugte, die dann per Frequenzteiler heruntergeilt wurden, so dass das Instrument vollpolyphon spielbar war.
Na ja, trotz viel "Endorsement" (Jarre, Wakeman, Numan, Emerson, Hancock, Corea, Moraz, Carlos, Banks, Downes) wollte den damals schon keiner (dauerhaft - die Künstler, die ihn damals einsetzten, haben das jeweils nur kurz getan) und auch heute interessieren sich eigentlich nur Sammler und nicht Player. Lintronics lehnt Arbeiten am Polymoog ab. Die echte immerhin 6-stimmige Variante war der memorymoog. Ich hatte 2 (LAMMs), also hatte ich 12 Stimmen - wenn man wirklich bei den 6 Stimmen Schwierigkeiten bekommen haben sollte ...

DoubleWhopper.jpg


Ich hab die dann trotzdem abgegeben und nun einen moog ONE 16.
 
Ich würde es ja Poylphonie nennen und nicht Polyphonität.

Und viele Stimmen zur Verfügung zu haben ist ja gut und schön, aber viel wichtiger ist es, diese in jedem Fall endliche Ressource gezielt einzusetzen. Da hatten Digitalpianos meiner Erinnerung nach schon in den 80ern Algorithmen, um den tiefsten Ton auf jeden Fall zu halten und nur im unteren Mittelfeld Töne zu beenden, wenn oben neue dazukamen. Ich weiß nur nicht mehr, wie die Funktion hieß, weiß das jemand?

Mit heutigen Mitteln müsste man eigentlich programmieren/einstellen/"von einer KI entscheiden lassen", welches die unwichtigen Töne für den Akkord sind, die also am ehesten verzichtbar sind. Die werden dann beendet, wenn neue dazukommen. Oder gibt es sowas schon? Das wäre mal ein inhaltlicher Fortschritt.

Ich weiß noch, wie ich beim JV1080 immer auf die bedenklich hohe Zahl der verbrauchten Stimmen gestarrt habe, wenn ich mal einen guten Sound programmiert hatte :oops:
 
Torsten, da gebe ich Dir dann Recht. Mir war das nicht mehr bewusst, dass die Behringer Kisten tatsächliche analoge Synthesizer sind. Will das auch nicht als Kritik an Behringer verstehen. Im Gegenteil finde ich es sehr beachtlich, was Die da mit viel Liebe zum Detail in den letzten Jahren gebaut haben, auch wenn es sich in den meisten Fällen als "Reissues" handelt. Wenn ich Dich also richtig verstehe, dann hat die niedrige Stimmenzahl bei analogen Synths eben mit der Tatsache zu tun, dass man für jede Stimme immer wieder die gleichen Bauteile implantieren muss? Auf dem rein digitalen Sektor könnte man sich aber zig Beispiele heraussuchen, wo es bzgl. riesige Unterschiede gibt.
Mal was Anderes. Ich habe mir mal die Daten vom Korg Grandstage angeguckt. Schaut Euch das mal an, vor allem die Angaben zur Akustik-Piano Engine:
KlangerzeugungSyntheseverfahren und maximale Polyphonie*:
SGX-2 (Acoustic Piano Sound Engine): 60 doppelte Stereo-Noten (entspricht max. 240 Stimmen)
EP-1 (Electric Piano Sound Engine): 100 Stimmen
AL-1 (Analog Modeling Sound Engine): 36 Stimmen
CX-3 (Tonewheel Organ Sound Engine): 128 Stimmen
VOX Organ (Transistor Organ Sound Engine): 100 Stimmen
Compact Organ (Transistor Organ Sound Engine): 100 Stimmen
HD-1 (PCM Sound Engine): 64 Stereo-Noten (entspricht max. 128 Stimmen)

Was heißt das jetzt genau?

Habe ich jetzt 240 Stimmen, oder 120 bei Stereosamples? Was meinen die mit 60 doppelte Stereo-Noten?

Harald S.: Das hatte ich mir vor dem Thread gut überlegt. Polyphonie bedeutet aber nur mehrstimmig. Das erschien mir eher als Gegenteil zur Monophonie und hat nicht so ganz mit meinem Thema zu tun.
Genau das mit den alten Rack-Kisten aus den 80'ern hat mich von Käufen abgehalten, um z.B. mein Promega zu ergänzen mit Brot-und Buttersounds, Synths, Textures.
 
Zuletzt bearbeitet:
Nur mal so ein anderer Aspekt in dem Thema:

Spielt für Euch bei einem Kauf die Stimmenzahl (überhaupt) eine Rolle? Egal ob Neuerscheinung oder vom Gebrauchtmarkt.

Natürlich spielt dieses Feature nicht in der Liga wie Sound, Tastatur, Bedienoberfläche. Aber bei mir zumindest noch vor Aftertouch, Pitch/Mod-Wheel (integriert wie bei Korg oder separat), Display (Größe, Grafik)
 
Kurzweil hat das bei der K Serie schon sehr gut gelöst mit dem Algorithmus. Da ist es fast gar nicht aufgefallen wenn Stimmen weg waren. Mit keinem K2661 mit 48 Stimmen war das schon eine Programmierherausforderung.

Bei Korg heißt das, dass du 240 Samples gleichzeitig spielen kannst. Aus meiner Sicht ist das aber eine schöne Umschreibung für etwas, was absolut sinnfrei ist, denn wenn du eine Taste drückst hast schon vier davon verbraten. Stereo sind zwei und was dann noch an Effekten dabei ist.
 
Das ist für mich das einzige Kriterium, weshalb ich einen Synth habe oder mir zulegen würde.

@IngoH.
Vor allem bei Synthesizern (um ihrer selbst Willen, nicht als elektronische Krücken, die so tun müssen, als seinen sie ein Klavier und am besten noch 20 Instrumente gleichzeitig dazu) gilt doch:

Ein monophoner Synthesizer ist einfach etwas ganz anderes als ein Polysynth und er ermöglicht eine völlig eigenständige Spielweise (nur ein Stichwort: Portamento!) und hat sonstige Vorteile beim Solospiel, z. B. Hüllkurven, die beim Legato-Spielen nicht neu getriggert werden, eine Taste festhalten, so dass der Ton immer lückenlos zwischen beiden gespielten Stimmen "springt" (mir fällt jetzt keine bessere Beschreibung ein).

Nicht umsonst kann man auch bei hochpolyphonen Workstations die Sounderzeugung auf "monophon" umstellen.

Bei einem Polysynth kann große Stimmenzahl zwar nicht schaden (ist eben nur teuer: neben den bereits genannten erforderlichen Oszillatoren pro Stimme benötigt man ja auch eigene Filter pro Stimme und eigene Amps pro Stimme):
Man wird auch nie auf die Idee kommen, zu sagen: "Man kann mit einem Streichquartett keine gute Musik machen, weil es nur vierstimmig ist".


Meine beiden letzten Neuanschaffungen waren allerdings vollpolyphon, weil keine Synthesizer, sondern ein Hammond-Clone auf HX3-Basis und ein Rhodes-Clone mit virtuellem Modell.


Kurzweil hat das bei der K Serie schon sehr gut gelöst mit dem Algorithmus. Da ist es fast gar nicht aufgefallen wenn Stimmen weg waren.

Kann ich voll bestätigen (beim meinem K2500, der immer noch lebt)!
Da gab es auch diesen schönen Übersichtsbildschirm, auf dem man sehen konnte, welche Stimme gerade womit beschäftigt ist.

Viele Grüße
Torsten
 
  • Gefällt mir
Reaktionen: 1 Benutzer
BE-3: Wenn ich mir beispielsweise einen analogen oder virtuellen Synth als Solosynth anschaffen würde, wäre das mit der Polyphonität auch nicht unbedingt ein Riesenthema. Da ich nie ein "originales" Solo von Manfred Mann mit all seinen Eingriffen via Knobs hinkriegen würde.
Aber das Meiste ist da auch monophon, wobei ich besonders toll sein Layer mit Moog und Yamaha VL fand.
Aber eben bei so all-in-one oder Stagepiano Lösungen bin ich da etwas zickig, wenns an Stacken, Layern geht. Egal in welcher Band und mit welchem Piano - so ganz pur ohne Layers will es mir nicht munden. Ich bin kein Jazzer. Aber an das Thema "Vollpolyphon" bin ich dann bei der Blues/BluesRock-Combo gekommen, weswegen es dann statt irgendwelchen Workstations ein VR700 und Promega 3 wurden (hatte mir ein Budget von max. 1500,-€ gesetzt und bin drunter geblieben). Ganz oben auf der Wunschliste hatten die Crumars mit SEVEN und MOJO gestanden. Wenn ich richtig informiert bin, auch beide vollpolyphon.
Ein ganz wichtiges Thema spielt neben dem eigenen Spielstil doch auch, wie die Truppe mit welchen Instrumenten besetzt ist, bzw. wieviele Musiker überhaupt dabei sind und was dann im Programm benötigt wird. Was ich mir da z.B. für den Song "Hungry Heart" von Springsteen gebastelt habe, klang in unserem Arrangement und ohne 2.Keyboarder ganz amtlich. Wäre auf dem SEVEN mangels Sounds und Stack-Optionen nicht möglich gewesen und mit so einer angegrauten Workstation mit evtl. nur 64 Stimmen ebenfalls nicht.

Toeti: Ich kenne viele Korg-Geräte, aber die Stimmenstruktur speziell beim Grandstage nicht. So wie Du es andeutest, klingt das Piano also auch erst richtig authentisch, wenn man Stereosamples plus Effekte benutzt, damit meinst Du dann Stringresonanz, Dampernoise usw.?
Womit ich dann max. bei 60 Stimmen gleichzeitig bin? Gut, immer noch viel auch mit Damper-Einsatz. Könnte dann aber z.B. für das Intro von "I don't like Mondays" von den Boomtown Rats auch enger werden.
 
So sehe ich das.

Glaube aber, dass auch der Algorithmus von korg sehr gut ist und das wenig bis gar nicht auffällt.
 
Ich würde es ja Poylphonie nennen und nicht Polyphonität.

Und viele Stimmen zur Verfügung zu haben ist ja gut und schön, aber viel wichtiger ist es, diese in jedem Fall endliche Ressource gezielt einzusetzen. Da hatten Digitalpianos meiner Erinnerung nach schon in den 80ern Algorithmen, um den tiefsten Ton auf jeden Fall zu halten und nur im unteren Mittelfeld Töne zu beenden, wenn oben neue dazukamen. Ich weiß nur nicht mehr, wie die Funktion hieß, weiß das jemand?
Allgemein ja als "Voice Reserve" bekannt.

Bei Roland wurde die Funktion z.B. "Note Sounding Priority / Partial Reserve" genannt.
Einhergehend mit z.B. der General Midi-Norm wurde sie darüber gelöst, dass werksseitig zunächst einmal die Drums ohnehin die höchste Priorität hatten, bzw. folgend Patch/Part1 die zweithöchste (für z.B. polyphonie hungrige Sounds wie Pianos) und Patch/Part16 die niedrigste Priorität... im Grunde also immer nach Midi-Kanälen 1-16 priorisiert wurde (mit eben Ausnahme der Drums, die trotz Midi-Kanal 10 die höchste Priorität hatten).

Natürlich konnte man auch selbst festlegen, welchem Patch/Part man wie viele Stimmen reservieren wollte, um seine Sounds/Kanäle halt nicht nach einem starren Muster belegen zu müssen.

Ich weiß nicht mehr genau, ob das nun bei den Roländern auch so gewesen war (dazu hatte ich zu viele verschiedene Kisten), aber hinsichtlich Prioritäten konnte man noch festlegen, ob dann bezüglich Voice Reserve zudem die höchste oder niedrigste gespielte Note eine höhere Priorisierung haben sollte.
 
Zuletzt bearbeitet:

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben