Roland SuperNatural (u.a.) - Reines Modelling oder eine Kombination aus Samples und "Modelling"

DschoKeys
DschoKeys
HCA Workstation (Yamaha)
HCA
Zuletzt hier
21.05.17
Registriert
04.02.04
Beiträge
2.537
Kekse
9.444
Ort
MG
Hallo Leute,

nachdem das Thema in letzter Zeit häufiger aufgekommen ist (z.B. hier oder hier), ob Rolands SuperNatural im Integra, Jupiter etc. (im Gegensatz z.B. zu den neueren HP-/LX-Pianos, die neuerdings komplett modelliert sind) nun reines Modelling sei, oder eher eine Kombination aus Samples und Modelling, dachte ich, dass man diese Diskussion mal in einen gesonderten Thread auslagern könnte.

Folgendes habe ich dazu gefunden (Quelle ist hier ein Roland-Mitarbeiter):
----------
Zu den SuperNatural-Pianos im RD800/FP-50:

"On the RD800 there are 33 total Supernatural Acoustic pianos on board. All based on an 88 key 4 level multi sample, with Modelling filling in the gaps for 128 total levels of expression. There are 3 total variations of the SuperNatural Acoustic Pianos on the FP-50."

"I had no idea that the SuperNATURAL Acoustic Pianos were sample based, with modelling filling in the velocity level gaps, I thought they were entirely modelled based on the sample."

"It was a total oversimplification of what the modelling tech actually does, but at it's core yes that's what SuperNatural does. Also, all the resonances (String, Hammer, Key-Off, Duplex Scale, etc etc etc.) are also controlled and changed dynamically by SuperNatural. There's more, but I hope this clears it up a bit."

http://www.pianoworld.com/forum/ubb...e:_ROLAND_RD-800_USER_THREAD.html#Post2291419
----------
Anderer Thread zu den neuen HP-/LX-Modellen:

"The piano tone will be familiar to a Roland owner, and someone who liked what the original sampled+modelling SUPERNatural brought to the table."

"So unlike previous SuperNATURAL Pianos, which used attack transients for the beginning of the sound creation process, there is no sampling involved here. "

http://www.pianoworld.com/forum/ubb...:_New_Series_of_HP_and_LX_Pi.html#Post2449710

"Basically in the SuperNatural engine, the attack is sampled. That's it. The rest of the piano tone is done through modelling. (Decay, resonances etc.)"

www.pianoworld.com/forum/ubbthreads.php/topics/2416300/Re:_Yamaha_CLP_5xx_vs_Roland_H.html#Post2416300
----------
Vielleicht haben die beteiligten User (@hairmetal81, @mojkarma, @Michael Burman, @specialplant, @Tolayon...und alle anderen Interessierten natürlich auch) ja Lust, das Ganze hier weiterzuführen. Ich denke, das beschriebene Prinzip lässt sich auch auf die meisten anderen (bisherigen) akustischen (Nicht-Piano-) SuperNatural-Sounds übertragen, und das Thema muss auch nicht unbedingt auf die Firma Roland beschränkt sein... ;)

Viele Grüße, :)

Jo
 
Eigenschaft
 
Zuletzt bearbeitet:
Ja, gern. Danke, interessante Zitate des Roland-Mitarbeiters. So ähnlich habe ich es mir auch vorgestellt. Ich erinnere mich, letztens beim aufmerksamen Spielen des SN-A Piano meines BK-9 irgendetwas im Tonverlauf entdeckt zu haben, irgendeine Unsauberkeit (z.B. scheppernde Saite bei einer einzelnen Taste des ursprünglichen Flügels), das eindeutig auf zugrunde liegende konventionelle Samples hindeutete.
 
Sehr verwunderlich! Sonst wird das Thema an jeder sich bietenden Stelle aufgegriffen ("nein, Roland SuperNatural verwendet keine Samples, sondern ist komplettes Modelling"), und hier herrscht jetzt auf einmal Mäuschenstille...was'n los, @hairmetal81? :tongue: ;)

Viele Grüße, :)

Jo
 
Sind vielleicht gerade mit Fasching beschäftigt (ich als bekennender Muffel aber eher nicht) ;)

Was ich mir wünschen würde - egal, welcher Ansatz nun real ist -, wäre eine stärkere Eingriffsmöglichkeit seitens der User. Zum Teil gab es das schon beim V-Synth, wo man anstelle normaler Filter auch modellierte Resonanzkörper verwenden konnte.
Als mögliches Beispiel nenne ich hier mal ein von einem virtuellen Geigenbogen angstrichenes Klaviersample, welches durch einen simulierten Trompetentrichter geführt und anschließend von einem Bitcrusher schrittweise geschreddert wird (wobei letzterer dann aus der Effektsektion stammen kann und nicht mehr Teil der eigentlichen Klangerzeugung sein muss).

Reine Physical-Modeling-Ansätze erlauben derartige Spielereien seit langem, nur Roland setzt seinen Kunden nur ein Fertiggericht mit allenfalls minimalen Eingriffsmöglichkeiten vor (Ausnahme, soweit ich weiß ist das V-Piano, aber da ist man auch auf das Klavierumfeld beschränkt und kann keine Modelle anderer Instrumente mit einbeziehen).
 
  • Gefällt mir
Reaktionen: 1 Benutzer
100% Modeling kann ich mir ganz und gar nicht vorstellen.

Erstens ist Physical Modeling immer noch sehr leistungshungrig, um so mehr, je detaillierter man es betreibt. Eine Physical-Modeling-Stimme braucht viel mehr Rechenleistung als eine Romplerstimme. Wenn man damit die bei Workstations üblichen 256 oder mehr Stimmen erzeugen will, kann man zum ansonsten geräuschlosen Gerät winke-winke sagen – oder dem Teil ein 100%-Metallgehäuse als Heatsink verpassen.

Zweitens ist Physical Modeling immer noch Uncanny Valley. Es klingt verdammt nah dran, aber da sind diese kleinen Nuancen, die den ganzen Eindruck gleich wieder ins Unechte reißen. Siehe das Saxophon im Yamaha VL-1. Gut, bei Klavier hat man's inzwischen halbwegs im Griff, aber SuperNATURAL ist ja nicht nur Klavier.

Und drittens braucht man irgendwoher ja einen Erreger, der den Modeling-Prozeß in Bewegung setzt. Im Falle eines Klaviers wäre das der Filzhammer, der gegen die Saite(n) schlägt. Und den kann man nicht auch noch modellieren, ohne daß es noch unechter klingt.


Martman
 
Also ich habe mich schon diesbezüglich geäußert und gesagt, dass Rolands SN eine Kombination aus Sampling und Modelling ist ist. Das war für mich auch immer ganz eindeutig. Denn die AttackPhase klingt immer bei jedem der SN akustischen Sounds absolut realistisch ohne Nebeneffekte wie wir sie vom Physical Modelling kennen. Bei akustischen Gitarren mit Metallsaiten kann man den Übergang vom Sample zum modellierten Teil sogar relativ deutlich hören.

Roland geht es aber nicht nur um die Reine Sound "Erstellung", sondern auch um das "Behavior", also das kontexttypische Benehmen des Sounds, und da ist Roland mMn weniger erfolgreich. Das Keyboard analysiert quasi das Spiel und entscheidet dann, wie sich das gespielte Instrument verhält. Typisches Beispiel ist das Erkennen wann jemand Legato spielt. Das funktioniert an sich auch problemlos. Probleme aber treten auf, wenn das Gerät erkennen soll wann man mehrstimmig spielt oder wann man legato von einem Ton zum anderen spielt.
Beispiel:
Wenn man bei einem Flöten Patch eine Taste hält und dann eine weitere Taste anschlägt, dann interpretiert das Gerät das als kurzes Legato und spielt eine Triller Variante des Instruments. Das Problem ist aber wenn man zweistimmig spielt. Da wir keine Maschinen sind, sondern eben Menschen, passiert es oft, dass wir zwei Tasten nicht auf die Millisekunde gleichzeitig drücken, sondern eine nach der anderen in einem sehr kurzen Abstand. Diese überaus kurze und nicht hörbare Zeitspanne interpretiert das Instrument aber nicht als zweistimmiges Spiel sondern als Legato und feuert dann bei der Flöte einen Triller Sound ab, dort wo man ihn gar nicht will. Im Studio kann man das problemlos durch Quantisieren der Midi Noten beheben, aber Live kann man sich nicht helfen.

Rolands SN Technologie ist im Grunde ein begrüßenswerter Ansatz, es ist aber jetzt keine wirklich neue bahnbrechende Technologie. Ähnliches hört man auch aus einem Tyros der letzten Generation oder auch aus NI Kontakt Libraries.

Übrigens, was den Eingriff und Editierungsmöglichkeiten betrifft, bei den ARX Erweiterungen für den Fantom G konnte man wirklich relativ tief in das Klangbild eingreifen. Dies hat man dann im Jupiter und Integra abgeschafft. Keine Ahnung warum.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Erstens ist Physical Modeling immer noch sehr leistungshungrig, um so mehr, je detaillierter man es betreibt. Eine Physical-Modeling-Stimme braucht viel mehr Rechenleistung als eine Romplerstimme. Wenn man damit die bei Workstations üblichen 256 oder mehr Stimmen erzeugen will, kann man zum ansonsten geräuschlosen Gerät winke-winke sagen – oder dem Teil ein 100%-Metallgehäuse als Heatsink verpassen.
Das ist allerdings mal sehr pauschal - und stimmt in den meisten Fällen einfach nicht. Beispiele:
1) HX3 ist komplettes Modeling, und unbegrenzt polyphon (gut, irgendwann liegen alle 91 Tonewheels mit vollem Pegel an den Bussen an, dann ist eh Schluss). Und das ist ein winziger FPGA, der nichtmal einen Kühlkörper braucht.
2) VAs mögen in der Regel auch keine 256 Stimmen haben, aber da kommt es eben auch auf die Komplexität an. Der "dicke" AL1 im Kronos macht 80 Stimmen, der Polysix hingegen gleich mal 180. Jedenfalls sind VAs mit 100% Modeling da deutlich "polyphoner" als jeder Analogsynth.
3) Physis Piano als ein sehr bekannter Vertreter der Modeling-Pianos: die sind bei den Modelling-Engines vollpolyphon, und die "Rompler"-Engine(!) ist beschränkt auf 128 Voices.

Dass es für viele akustische Instrumente noch kein gescheites Modell gibt, ist zwar richtig. Das liegt aber nun wirklich nicht an fehlender Rechenpower, sondern an immer noch mangelndem Verständnis und noch nicht hinreichend detaillierten Algorithmen.
 
Ich habe mich die letzten Tage anlässlich einer Emulation des Dixieland-Klassikers "Midnight in Moscow" (Kenny Ball 1961) wieder mehr mit den SN-A Brass Sounds des Integra beschäftigt und musste wieder feststellen, dass sich teilweise alte Samples der SRX-Library oder auch starre Trompetensamples mit gesampletem Vibrato von Ketron angenehmer und insgesamt authentischer anhören, mit Ausnahme des Legato und Glissando, das bei SN-A teils gut gelungen ist.
Der Tonverlauf der SN-A-Trompeten ist einfach irgendwie zu unorganisch. Bei herkömmlichen starren Samples, die einigermaßen lang sind, ist wenigstens 2-3 Sekunden ein dynamischer Tonverlauf mit den authentischen leichten Pitch-Schwankungen, Vibrato etc. eingefangen. Z.B. schwankt in der ersten Attack-Phase das Pitch einer Trompete oft etwas. Die zugrunde liegenden Modelle für das Modeling scheinen bei SN-A für so etwas einfach zu grob und unrealistisch zu sein.
Teilweise kann man richtig grobgeschlachte Algorithmen hören, Beispiel Mariachi-Trompete aus der SN-A-Brass-Expansion: Dort wird das Mariachi-typische starke Vibrato simuliert, aber erstens klingt es nicht wie ein gesampletes Vibrato, sondern nach einer recht plumpen Mischung von Pitch- und Filter-LFO, und zweitens ist hörbar ein ziemlich lächerlicher Zufallsgenerator beteiligt, der das Tempo der Oszillation schwanken lässt.
Ich glaube, Yamaha verwendet da eher Scripting mit festen Sample-Bausteinen, die je nach Spielweise aneinandergefügt werden, also z.B. ein echt gesampletes Vibrato, und das klingt besser.
 
Zuletzt bearbeitet:
Gerade das wäre ein Fall für weitgehende Eingriffsmöglichkeiten, um ein SA-Instrument falls möglich etwas authentischer machen zu können. Und wenn die zugrunde liegenden Algorithmen das einfach nicht bringen, könnte man die Instrumente immer noch herrlich verfremden und neuartige Synth-Sounds daraus basteln.
 
Das ist allerdings mal sehr pauschal - und stimmt in den meisten Fällen einfach nicht. Beispiele:
1) HX3 ist komplettes Modeling, und unbegrenzt polyphon (gut, irgendwann liegen alle 91 Tonewheels mit vollem Pegel an den Bussen an, dann ist eh Schluss). Und das ist ein winziger FPGA, der nichtmal einen Kühlkörper braucht.
Elektrische Instrumente sind modelingmäßig relativ simpel. Da hast du nicht so irrsinnig viel, was miteinander interagiert und sich gegenseitig anregt. Bei den Pickups ist Schluß.

2) VAs mögen in der Regel auch keine 256 Stimmen haben, aber da kommt es eben auch auf die Komplexität an. Der "dicke" AL1 im Kronos macht 80 Stimmen, der Polysix hingegen gleich mal 180. Jedenfalls sind VAs mit 100% Modeling da deutlich "polyphoner" als jeder Analogsynth.
Kommt drauf an, wie du "Modeling" definierst. Physikalisches Modellieren und Simulieren des Verhaltens der analogen Schaltungen eines Minimoog, eines Curtis CEM3390...? Also, daß wirklich jedes Halbleiterelement und jede Leiterbahn in die Simulation integriert wird, so daß die nichtlinearen Verzerrungen durch Übersteuern gar nicht erst künstlich erzeugt werden müssen, weil sie von ganz alleine kommen?

Wenn der AL1 so komplex wäre wie U-he Diva auf höchster Qualitätseinstellung, hätte er todsicher keine 80 Stimmen.

3) Physis Piano als ein sehr bekannter Vertreter der Modeling-Pianos: die sind bei den Modelling-Engines vollpolyphon, und die "Rompler"-Engine(!) ist beschränkt auf 128 Voices.
Kommt natürlich drauf an, einen wie großen Aufwand Physis betreibt.

Gerade in einem Klavier oder Flügel hast du sehr viel, was einander anregt. Beispielsweise regen sich alle Saiten je nach Abstand zueinander mehr oder weniger gegenseitig zum Mitschwingen an – um so mehr bei Pedaleinsatz. Das hat natürlich den charmanten Vorteil, daß die benötigte Stimmanzahl konstant ist, weil alle Stimmen auf dieselbe Instanz desselben Modells zurückgreifen, nur eben jeweils andere Saiten primär erregen oder dämpfen. Aber die Saiten regen dann auch noch den Korpus und den Resonanzboden an – jeweils unterschiedlich, je nachdem, wo welche Saite liegt. Zum Glück haben Korpus und Resonanzboden keine nennenswerte Eigenschwingung.

Beim akustischen Piano sollte man also von vornherein von Vollpolyphonie ausgehen, weil idealerweise nicht die einzelnen Tasten für sich, sondern immer das ganze Instrument modelliert wird, und zwar genau einmal. Dafür aber muß die Leistung da sein.

Dass es für viele akustische Instrumente noch kein gescheites Modell gibt, ist zwar richtig. Das liegt aber nun wirklich nicht an fehlender Rechenpower, sondern an immer noch mangelndem Verständnis und noch nicht hinreichend detaillierten Algorithmen.
Und bis die gefunden werden, wird noch einiges an Zeit ins Land gehen. Ich meine, Yamaha war ja hier und da schon ziemlich nah dran.


Martman
 
Ach ja, ich vergaß. Für dich ist ein Modeling-Synth ja erst brauchbar, wenn jedes Staubkorn auf der Leiterbahn und die Stromversorgubg bis rubter zur Kraftwerksturbine mitsimuliert wird.

Fakt ist: du hast behauptet, dass eine Modeling-Stimme mehr Ressourcen benötigt als eine "Rompler"-Stimme - und das ist einfach Unsinn so pauschal. Der Flaschenhals ist heutzutage die Speicheranbindung, wenn große Datenmengen gelesen werden müssen, und nicht mehr die CPU. Selbst Winz-Prozessoren stecken heute in Sachen Polyphonie stumpfes Sample-Abspielen locker in die Tasche.

Dass man selbstverständlich die Modelle immer noch verfeinern kann, steht auf einem anderen Blatt. Aber selbst das bedeutet nicht, dass diese Modelle dann länger rechnen oder numerisch komplexer sind. Die Frage ist, wer erstellt und validiert die Modelle, und wieviel Aufwand (und Talent) fließt dann in die Modellreduktion und numerische Aufarbeitung. Wenn das gut gemacht wird, werden dadurch die (numerischen) Modelle nicht aufwändiger - nur deren Herleitung wird länger und komplizierter. Erstens muss nicht alles "live" gerechnet werden, sondern nichtlineare Kennlinien usw. können auch per (ggf. mehrdimensionaler) Lookup-Tables umgesetzt werden - nicht zu verwechseln mit Samples. Und zweitens: für alles andere reicht eigentlich fast immer eine Differentialgleichung höchstens 3. Ordnung pro Stimme - tricky (aber nicht rechenaufwändig) ist lediglich deren (dynamische) Parametrisierung.

Betreffs HX3: wenn du mal über deinen Schatten springen und dich mit sowas "banalem" wie einer B3-Simulation beschäftigen würdest, würdest du feststellen, dass Carsten da sehr wohl auf Bauteil-Level rechnet (z.B. lassen sich fast alle Kondensatoren anpassen, und selbst das für den Key-Click verantwortliche Schalterprellen und das ungleichmäßige Durchschalten der 9 Kontakte pro Taste wird anhand der Anschlagsdynamik live gerechnet!), und die Pickups da eben m.W. durchaus auch dazu gehören.

Und dementsprechend - sorry - ist ein Analogsynth von der Komplexität her nichts, was selbst in 8 oder 16 Stimmen einen mittelgroßen FPGA überfordern würde, selbst wenn man jedes Bauteil einzeln simuliert. Es hat nur noch niemand (kommerziell) diesen Ansatz verfolgt, weil der Weg zu diesem Modell unglaublich viel Entwicklungszeit frisst. Und im Gegensatz zur Orglergemeinde kommen bei Analogsynths dann selbst bei einem perfekten Modell Jungs wie du und mäkeln, dass das nicht wirklich analog ist - deswegen wird das auch keiner machen....
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben