Der große Synthese-Diskussions-Thread

  • Ersteller sketch1002
  • Erstellt am
Eine Mischform verschiedener Synthesearten ist wohl momentan der Trend.
Sogar mehrere Synthesearten in einem. Das geht schon so weit, daß Samples als Erreger für PM-Resonatoren genommen werden.

Ich formuliere es mal anders :
Das physikal Modelling wird in Zukunft eine zunehmend groessere Rolle spielen.

Ich waere dagegen nicht abgeneigt.
Und irgendwann muessen sich die Hersteller sich nach einem neuen grossen Knaller
umsehen.
Nehmen wir mal an es gaebe einen PM Algo der ein Klavier besser emuliert als ein Sampel. Damit waeren schon so gut wie alle Seiteninstrumente abgehakt.
Im Brass Bereich ist man schon so weit.
Bei den Streichern wahrscheinlich auch.
Das könnte ruckzuck gehen. Ihr habt das ja vielleicht gesehen, wie schnell ROM-Samples die Herrschaft übernommen haben. Da muß nur ein Hersteller einen reinen PM-Synthi bauen, der aber nicht experimentell auf Deibel komm raus ist wie weiland VL-1, VP-1 und SX-WSA1, sondern der einen mit Butter-und-Brot-Sounds eindeckt. Nur eben ohne Samples und mit 100% PM und ausgereiften Algorithmen. Die Marketingabteilung muß das Ding noch als Ich-kann's-nicht-glauben-daß-es-kein-Rompler-ist-Synthi vermarkten. Und wenn einer das macht – und dann auch noch unterm Preis eines vergleichbaren Romplers, weil man sich die Sampleproduktion gespart hat –, könnte das innerhalb weniger Jahre um sich greifen, und irgendwann werden Samples nur noch mit HipHop assoziiert.

Es wundert mich eher, dass PM momentan so eine kleine Rolle spielt.
Das liegt wohl aber auch daran, dass der User mehr an Masse (1000 Sampels) interessiert ist als an Qualitaet.
Das Geniale ist ja, daß man bei PM gar keine 1000 Algorithmen brauchen wird. Paradebeispiel sind elektromagnetische Instrumente, etwa Rhodes oder Hammond. Da hast du z. B. einen Tonewheel-Algorithmus, den es ja heute schon gibt, dutzendweise Presets, bei denen jeweils nur ein paar Parameter geändert werden, und in der Effektabteilung noch ein PM-Lesile. Man braucht zwar mehr Rechenleistung. Auf der Habenseite hätte man aber einen geringeren Bedarf an ROM bzw. könnte den vorhandenen ROM mit Algorithmen bis zum Gehtnichtmehr füllen, und die Sampleproduktion im Studio entfällt auch. Im Grunde steht und fällt PM mit der Qualität der Algorithmen, der Rechenleistung und den Wandlern, und Updates und Verbesserungen sind erheblich einfacher als beim Sampling. Jedenfalls dürfte es einfacher sein, als PM-Spezi bis in die Puppen wie ein Besessener an einem Klavieralgorithmus zu feilen, als wenn man einen Pianisten tagelang immer wieder ins selbe Studio holt für Tausende Samples in voller Länge, von denen dann 95% Ausschuß sind.


Martman
 
@ boogie

...o.k., mit dem K5k-Formantfilter durch ein Spektrum schwurbeln erzeugt spektakuläre Verläufe, die sinnvollen Einsatzmöglichkeiten dafür sind m.E. indes recht begrenzt...

Formanten und der zeitliche Ablauf sind das "A" und "O" für unser Gehör.
Insofern ist der sinnvolle Einsatz gegeben. Es geht nicht nur um Spektakuläres.

@
PM

Sehe ich auch so. ist sehr flexibel und dynamisch, klingt aber doch oft künstlich und noch nicht am Original.

The Trumpet habe ich mir noch nicht angehört, aber ich denke das Samples in Verbindung mit Additiver Synthese und PM das beste aus beiden Welten sein kann.
Mehr individuelle wirklich unterschiedliche Sounds ( Samples ) in Verbindung mit Dynamik und Kontrolle ( PM ).
 
Hi
Die Meinungen zu PM scheinen tatsaechlich eher geteilt.

Ehrlich...?? Wo gibt's denn die diese tollen Bläser und Streicher zu kaufen?

Den Z1 oder wars VL ? habe ich vor 10 Jahren mal angetestet und das Geblaese hat mich wirklich umgehauen. Von dem Plugin fuer Geblaese hab ich nur mal ein Demo im Netz gehoert.
Fand ich sehr gut. PM ist bezueglich des instrumententypischen Verhaltens vom Prinzip her
unschlagbar. Bei natuerlichen Instrumenten aendert sich das Verhalten auch abhaengig
davon welcher Ton zuvor und in welcher Art gespielt wurde. Das ist mit Sampels nicht realisierbar. Nur indem man die Physik in einem Modell emuliert.
Wie weit man bisher damit ist, ist eine andere Frage.
Bei Strings habe ich geraten. Denn etwas celloartiges kann man schon mit einem Normalen Synthie und einem Feedback Delay erzeugen. Sollte einfach sein.

die liefern nämlich eine riesige Menge flexiblität im Detail, aber einen stets gleichen und häufig unnatürlich Grundklang
Ja, das kann ich mir vorstellen. Die CX3 die ich benutze ist auch virtuell und man sagt der nicht zu unrecht eine gewisse Kalte nach.
Ebenso weist der helicon VP Plus einen PM Stimmenalgo auf. Das Plus kostet zwar fast so viel wie der Vocoder, aber habe ich noch nie benutzt. Die Stimme kriegt dann so einen Touch wie aus dem Operationssaal bei defekter heizung.

Man muesste diesen Effekt des unnatuerlichen, kalten mal analytisch ueber Studien untersuchen. Das waere eine lohnende Sache.

@Boehmorgler
Ich habe nicht gesagt, dass PM nicht realisierbar ist, aber auch diese Sakrakorgel wird einiges an Rechenleistung benoetigen.
So dass man neben der Sakralorgel nicht noch dazu 16 weitere PM Instrumente im Multimode bei 256 facher Polyphonie mit 5 Effekteinheiten ubba Bubba Arp und Warp Antrieb benutzen kann.
Alles was der Mensch so braucht.
Aber danke fuer den Link. Sieht interessant aus.
AELOS: 1 Ghz ist schon einiges.

@Martman
Ich teile deine Meinung. Ob die Entwicklung so verlaufen wird, wird sich zeigen.
So wie du es schilderst ist es aber durchaus vorstellbar.

1000 Algos ist etwas uebertrieben. Aber sagen wir mal 50 perfekte Grundmodelle.
Und daraus lassen sich problemlos 1000 Varianten erstellen.
Das waere das Ende des Samplings.
Und genau. Die Kosten fuer Sampling Bibliotheken sind sicherlich nicht unerheblich.
Sicherlich auch eine Frage des Marketings.
Je weiter man die Sampling Dauerwurst verlaengern kann ist es fuer die hersteller kein Schaden. Man erfindet einfach immer neue Namen fuer die Salami.
So ist das auch in fast allen Konsumbereichen.
Neuer Name= neues Produkt.
Das K2R Fleckenspray wurde nun mit Saugkraftverstaerker und der aktiv Sauerstoffformel ausgestattet.

Viele Gruesse

BTW:
In den Tritons gibt es auch einen Formantfilter in der Effekteinheit.
Dazu die Moeglichkeit die Vokale a e i o u ueber beliebige Controller auszuwaehlen.
EIn recht netter Effekt.
 
Nun denn....

Bei solchen Physikal Modelling Projekten sollte man weggehen von typischen Prozessoren wie sie in PCs benutzt werden. Da braucht man sehr sehr hohe Rechengeschwindigkeiten, wo man schnell an die Grenzen kommt. Hier gilt es parallel zu denken!

Das "Zauberwort" ist hier FPGA (Field Programmable Gate Array). Die sind zwar im Vergleich zu "normalen" PC-Prozessoren recht langsam, aber dennoch leisten diese kleinen Viecher erstaunliches.
Um mal ein Beispiel aus einem anderen Bereich zu nennen. Der Rechner "Copacobana" zum Knacken von Verschlüsslungscodes schafft rund 400 Millionen Schlüssel (DES) pro Sekunde; ein Pentium 4 mit 2GHz schafft gerade mal 2 Millionen Schlüssel pro Sekunde.

Auch in dem Bereich von Fourier-Synthese könnten FPGA das "Mittel der Wahl" sein. Die kann man dann auch prima mit FPAA kombinieren...
 
Nun, sicherlich werden zuküftige Modelle einiges an Rechleistung wegschlucken, die dann in kommenden Rechnergenerationen zur verfügung stehen wird - das ist ja in allen Bereichen so.. Wobei prozessoren in Synthesizern durch ihre spezialisierung viel effizienter waren und mit viel geringerer Leistung auskamen als normale PC-Komponenten. Ich habe irgendwo mal gelesen, daß z.B. ein Kurzweil K2500 die unglaubliche Rechengeschwindigkeit von 25 MHz, also 0.025 GHz aufweist...

Rechenleistung hin oder her:
Es müssen ja erstmal die entsprechenden, komplexen PM-Modelle her, die solches überhaupt erfordern ;) ...hier scheint die Entwicklung nach dem kurzen PM-Boom mitte der 90er etwas eingeschlafen zu sein... der Markt und die Erfordernisse der Musiker haben sich in eine andere Richtung entwickelt.
 
Hallo,

Physical Modeling (die Abkürzung PM bedeutete übrigens bisher für mich Phase Modulation (das ist die "FM", wie sie in den DX-Synthesizern implementiert ist), aber ich kann mich wohl daran gewöhnen ;-)) ist wohl die beste Syntheseform für dynamisch spielbare virtuell-akustische Instrumente. Allerdings ist sie rechenintensiv, und da heutzutage Speicher deutlich einfacher zu vergrössern ist als Rechenleistung, werden wohl Samples noch für einige Jahre die Nase vorn haben.

Allerdings finde ich es schade, wenn hier Klangsynthese auf die Nachbildung akustischer Instrumente reduziert wird. Wenn man etwas weiter gehen will, muss man den musikalischen Klang gedanklich zerlegen in die drei Grundeigenschaften Tonhöhe, Lautstärke und Klangfarbe.

Die klassische subtraktive Architektur mit den drei Kernbereichen Klangerzeugung, Filter und Verstärker bietet daher den direktesten Zugang zur Klanggestaltung und es ist verständlich, dass nahezu jeder Synthesizer seit dem Minimoog (~1970) nach diesem Prinzip aufgebaut ist.
Im klassichen analogen Synthesizer waren die drei Kernbereiche direkt für die drei Klang-Eigenschaften zuständig: man hatte einen Oszillator mit einem sehr breiten Spektrum (Sägezahn), der die Tonhöhe definierte, dann ein Filter für die Klangfarbe und einen Verstärker für die Lautstärke, also die klassische Verschaltung der drei Module VCO –> VCF –> VCA. Später wurde vor allem der erste Kernbereich der Klangerzeugung verfeinert, so dass nun bereits auf dieser Ebene Veränderungen in der Klangfarbe vorgenommen werden konnten (so erlaubten z. B. mehrere VCOs Schwebungen und Cross-Modulationen wie Sync oder FM). In späteren digitalen Synthesizern wie dem DX7 gibt es z. B. überhaupt kein Filter mehr und Tonhöhe und Klangfarbe werden in einem einzigen Bereich definiert.

Heute kann die/der Synthesist/in, vor allem in Software-Synthesizern wie dem Absynth, verschiedene Formen der Klangerzeugung mit komplizierten Filtern (kennt hier noch jemand Emus Z-Plane-Filter? das ist schon was anderes als der Feld-Wald-und-Wiesen-24db-Tiefpass …) verknüpfen, um so ihren/seinen Klangvorstellungen noch näher zu kommen. Mir gefallen besonders die vielfältigen Modulationsmöglichkeiten in den modernen Synthesizern, wie loopbare multi-stage-Hüllkurven (im Gegensatz zu simplen ADSRs) und schnellen LFOs (bis in den Audio-Bereich).

Will ich allerdings schnell einen Klang zusammenschrauben, dann greife ich immer noch zu einem (virtuell-)Analogen mit klassischer Oszillator-Filter-Verstärker-Architektur, in meinem Fall der NordRack 3.

So das reicht erst mal. Später gerne mehr und /discuss

Grüsse
synthos
 
Allerdings finde ich es schade, wenn hier Klangsynthese auf die Nachbildung akustischer Instrumente reduziert wird. Wenn man etwas weiter gehen will, muss man den musikalischen Klang gedanklich zerlegen in die drei Grundeigenschaften Tonhöhe, Lautstärke und Klangfarbe.


Tja, das habe ich mir auch schon gedacht ;) ,
im Grunde muß man, bevor man hier irgendwelche Syntheseformen aufs Treppchen hebt erstmal eine klangliche Zielsetzung eingrenzen - und die muß jetzt nicht zwingend die Imitation von Tröten und Klavieren sein... kann es aber auch. Nur sollte man es vieleicht jeweils dazusagen, um nicht Äpfel mit Marmelade zu vergleichen.

- in dieser Diskussionsrunde hat das irgendwie Schlagseite in Richtung Imitation akustischer Instrumente gekriegt. ...und Gralshüter und Fans der PM (ja! Physical Modeling! ...hieß die Phasenmodulationssynthese der alten Casios nicht "iPD" (InteractivePhaseDistortion)?) werden nicht müde zu betonen, was ein akkurates Modell doch alles zu leisten im Stande ist. Richtig, potentiell und in der Theorie kann man alles modellieren (ich verdiene meine Brötchen im 3d/Rendering-Bereich...), allein, es ist eine Frage des Aufwands; entsprechend nuancenreich detaillierte Modelle sind offenbar (noch?) nicht in Sichtweite.
Gemessen daran, wie unglaublich "weit" sich die Mainstream-Hersteller bis heute von den belibten Vorbild-Blaupausen Minimoog, M1, Nordlead... weiterentwickelt haben, könnte es doch noch ein Momentchen dauern, bis die angesprochenen 50-500 extrem guten Rechenmodelle die entsprechenden WaveROMs ersetzen werden ;)
Oder aber: besteht dafür überhaupt Bedarf? Und wenn ja, von wem?

Ring frei für Staffel 2.0 unserer beliebten Talentshow der Supersynthesen!
 
Mir hatte da grad 'ne Idee...

Das ist eine Alternative zum VA-Purismus, der Synthesizer simuliert, indem Rechenmodelle jedes Transistors, jedes Kondensators (inklusive Alterung durch Austrocknung, das nennt man dann vintage ;)) und so weiter zur Virtualisierung ganzer Maschinen genutzt werden, so daß der VA eigentlich ein Physical-Modeling-Synth ist.

Heutzutage wird doch alles gefaltet. Und was noch nicht gefaltet wurde, kann gefaltet werden. Rohsignal rein, bearbeitetes Signal raus, fertig ist das Faltungsmodell. Wie wär's, das mit Synthesizerelementen zu machen? Vielleicht jetzt nicht mit Oszillatoren, da werden ja allenfalls Steuerspannungen reingeleitet. Aber ein schönes Convolution-Filter vom ARP 2500, ein abmikrofoniertes und gefaltetes DX-II-Röhrenkabinett einer Yamaha GX-1 (bei fettem Breitbandsound darf man keine Kompromisse machen) oder ein mit zwei Signalen ermittelter Convolution-Vocoder auf EMS- oder Korg-Basis, das wär doch was. Programmieraufwand hält sich in Grenzen, und selbst ein Vocoder ist einfacher zu falten, als ein Flügel zu sampeln ist.

Oder komm ich zu spät, und das gibt's schon?


Martman
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben