Roland ACB Modelling / Modelling allgemein - Pro&Contra

  • Ersteller Martman
  • Erstellt am
Die technische Seite Eures Disputs kann ich nicht beurteilen.
Aber da das Thema ACB Modelling ist, kann ich trotzdem ja mal ein Feedback als Hörer/User geben.

1. Ich finde, dasss "ACB" nichts weiter als ein Roland Marketing-Wort ist, dass NULL mit einem irgendwo offengelegten Verfahren und noch viel weniger mit irgend einem durch dieses Verfahren belegten Qualitäts-Standard zu tun hat. Es ist einfach nur ein Wort, das eine Reihe von lose in die gleiche Richtung gehenden Roland-Bemühungen um eine Mischung von Sampling-Erfahrungen und Modeling in äußerster Schwammigkeit umschreibt.
Daher ist meine Schlussfolgerung Nummer 1: man kann auf den Marketing-Begriff "ACB" mangels Präzision und Konkretion einfach nur pfeifen - und gleichzeitig Roland viel Glück für ihre Bemühungen wünschen.

2. Unter all den bisherigen Roland ACB-Versuchen ist für mich als Hörer die Streuung der Qualität ziemlich groß und reicht
- von "netter Versuch, aber nein Danke" (viele Boutique-Modelle wie die Junos und Jupiters, System 8 bis zum letzten Update, das ich noch nicht beurteilen kann, bis hin zur TR-8, die mich nie umgehauen hat)
- über "vielleicht nicht völlig überzeugend, aber nah genug und sehr alltagstauglich" (z.B. System 1M)
- bis "erstaunlich gut" (für mich zumindest: SH-01A und TR-S)

Daher ist meine Sichtweise,
- als erstes von dem ganzen Roland ACB-Marketing-Gequatsche erst mal ultimativ unbeeindruckt zu sein und nicht des Kaisers neue Kleider zu sehen, wo nix für mich Überzeugendes dabei herausgekommen ist
- mich trotzdem über jede aus meiner Musiker-Sicht gelungene Emulation zu freuen und Roland alles Gute bei der Weiterentwicklung zu wünschen!

Denn es ist für uns Musiker doch praktisch und gut, wenn Modelling langsam überzeugender wird und uns im praktischen Einsatz mit all seinen Vorteilen Spass macht! :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Dito bei der Simulation von Schaltkreisen. Du erweckst trotz deiner langjährigen Erfahrung hier den Anschein, als gäbe es nur die Stufen "maximale Vereinfachung der Formeln, aber leider physikalisch falsch" und "physikalisch richtig, aber nicht in Echtzeit zu rechnen".

Ja und nein, Ich habe nämlich genau das schon im Detail getan, nämlich elektronische Schaltungen nachgestellt, mit Formel "ab pSpice und aufwärts" wie Du schreibst. Ich habe das auch dahingehend untersucht, wie gross die Abweichungen jeweils sind, wie aufwändig die Schaltung wird, wie weit sie überabgetastet werden muss, mit welchen Auflösungen sie rechen muss und was mit aktuell zu Verfügung stehender Hardware diesbezüglich in Echtzeit geht und was nicht. Selbst der Kunde, für den das seinerzeit entwickelt wurde hatte das so genau und deutlich noch nicht im Hause und das war ein Ausrüster von Simulationssystemen. Eine Anpassung auf aktuelle Hardware und PC-Architekturen findet sich als Auszug hier:
https://www.mikrocontroller.net/articles/Modellierung_analoger_Schaltungen

Von daher habe ich konkrete Zahlen und Diagramme, wie weit sich die einzelnen Modelle an die Realität annähern. Das, was man in Echtzeit berechnen kann, damit die Details herauskommen, die auch die analoge Hardware an Effekten hat, ist leider sehr sehr begrenzt.

Klar kann man da was weglassen. Ich kann von einem Transistorverstärker so ziemlich alles weglassen, wenn ich nur eine lineare Verstärkung haben möchte und ersatzweise eine Multiplikation einsetzen, dann aber brauche ich auch kein physical modelling. Kleine Nichtlinearitäten lassen sich dem Prinzip nach auch mit rein mathematischen Modellen nachstellen, indem man nur die Kurve für ausgewählte Betriebsfälle nachstellt und sie in eine parametrische Kurvenschar überführt. Das ist dann aber funktionelles Nachbilden.

Im aktuellen Thema reden wir ja von ACB, also der Nachbildung der Elektronik. Da muss man sich die Frage stellen, wozu? Warum einen analogen Schaltkreis nachbilden? In den industriellen Anwendungen, die ich angeführt habe und die Genauigkeit erfordern ist der Anspruch der, sie vorauszusagen und zu überwachen, zu regeln und zu korrigieren. Z.B. kann man eine Lautsprechermembran in Konjunktion mit Gehäuse und Elektronik so mitsimulieren, dass man die Signale so modifiziert, dass die Membran ideal schwingt und wenig Eigenleben hat.

Wenn man aber nur den Anspruch hat, die Funktion der Elektronik an sich zu haben, um Klang zu erzeugen, müsste man sie eigentlich nicht mathematisch nachbilden, sondern könnte sie direkt bauen. Warum also die Elektronik der 90er-Jahre-Kisten mathematisch nachbauen und mit Einschränkungen leben, wenn die Elektronik mit heutigen Möglichkeiten einfacher darzustellen wäre? Ist noch zu teuer und geht es mit SW noch billiger?
 
Zuletzt bearbeitet:
Ob es billiger ist, kommt vielleicht drauf an. Flexibler sicherlich - UND: ich möchte ja vielleicht bestimmte Effekte nachbilden, die den Klang erst ausmachen, aber andererseits andere Effekte (oder Einschränkungen), die in echter Hardware schwer in den Griff zu kriegen sind, nicht haben. Ein Beispiel sind die Moogs: DIE Filtercharakteristik (und nicht eine idealisierte 4-pol-Charakteristik) hätte man schon gerne in einem Nachbau - die "Stimmungsschwankungen" eher nicht; bzw. wenn, dann sehr kontrolliert als leichte Schwebung um einen stabilen Mittelwert. Aber sicher möchte man heute keine Kiste mehr, die sich bei Einschalten der Bühnenbeleuchtung um etliche Cent verstimmt, weil's warm wird. Oder bei einer Hammond: einer digitalen Nachbildung kann ich ein 50/60Hz-Weitbereichsnetzteil verpassen und die kann ich auch (wenn nötig) auf einen anderen Kammerton stimmen oder transponieren. Geht beim Original nicht.
 
Da wäre jetzt die Frage, wie die ideale Charakteristik des Moog-Filters aussieht und ob man die wirklich digitial nachbilden kann/muss. Ich meine, es gibt auch Hybride, die die Klangerzeugung per DDS/WT machen und dann analog weiterfiltern, z.B. eben auch mit solchen Transistor-Ladder-Filtern.
 
Zuletzt bearbeitet:
Da wäre jetzt die Frage, wie die ideale Charakteristik des Moog-Filters aussieht und ob man die wirklich digitial nachbilden kann/muss.
Die ideale Charakteristik des Moog-Filters ist eben nicht ideal.

Die ideale Charakteristik des Moog-Filters ist die, die das reale, originale Moog 904A VCF hatte. Oder das Kaskadenfilter eines Minimoog Model D, idealerweise ein hochwertigeres der Baujahre 1970 bis 1973. Und zwar mit jeweils all seinen "Macken" bis hin zu den nichtlinearen Verzerrungen, die beim Minimoog dadurch entstehen, daß am Filtereingang zu starke Signale anliegen. Die allerdings wirklich bis ins Detail und bis in Extremeinstellungen vom Original ununterscheidbar nachzubauen, ist annähernd unmöglich, zumal dieses Verhalten mit keinerlei mathematischen Modellen beschreibbar ist.

Was wäre nun also die Alternative? Ein mathematisch idealisiertes Tiefpaßfilter mit 24 dB/Oktave jedenfalls nicht, das wäre charakter- und gesichtslos und klänge absolut nicht nach Moog. Die einzige Alternative wäre also ein echtes analoges und spannungsgesteuertes vierpoliges Transistorkaskadenfilter nach der Originalschaltung des Minimoog oder des 904A mit nach Möglichkeit den gleichen Bauteilen.

Ich meine, es gibt auch Hybride, die die Klangerzeugung per DDS/WT machen und dann analog weiterfiltern, z.B. eben auch mit solchen Transistor-Ladder-Filtern.
Gibt es, aber der Sound eines Synthesizer lebt nicht nur vom Filter, der Sound eines volldiskreten Analogsynthesizer von Anfang der 70er Jahre schon mal erst recht nicht.

Man kann gern den Extremversuch machen und durch ein Moog 904A erst einen digital generierten, mathematisch idealen, hochauflösenden und geglätteten Sägezahn schicken und dann einen Sägezahn aus einem Moog 901B VCO. Was klingt wohl fetter, was klingt lebendiger, was klingt – subjektiv betrachtet – besser?

Was den Klangcharakter analoger, diskreter VCOs ausmacht, ist eben, daß sie so chaotisch funktionieren, also die (obendrein auch noch mathematisch nicht berechenbaren) Ungenauigkeiten: Drift, langsame chaotische Frequenzschwankungen, und Jitter, extrem schnelle chaotische Frequenzschwankungen. Wie .Jens schon schrieb: Der ideale VCO driftet und jittert wie ein Moog 901B oder wie ein VCO in einem R.A. Moog oder muSonics Minimoog Model D im Originalzustand von 1970/71 (prä-VCO-Board 3046), verliert dabei aber nie gänzlich seine Grundstimmung.

Ich meine, schon in den 80ern, als immer noch analoge, aber quarzgetaktete DCOs aufkamen und die rein spannungsgesteuerten VCOs ablösten, bemerkte man, daß Synthesizer mit DCOs im Vergleich mit solchen mit VCOs irgendwie kalt, klinisch und langweilig klangen, weil ihre DCOs so präzise ihr Tuning hielten. Viele virtuell-analoge und hybride Synthesizer haben für ihre Digitaloszillatoren einen "Analog Feel"-Regler, der die Stimmung zufällig driften läßt, ohne daß man dafür einen oder mehrere LFOs opfern muß.

Und meines Erachtens ist ein Grund (nicht der Grund, aber einer der Gründe), warum Moog-Synthesizer immer noch populärer sind als die Konkurrenzprodukte von ARP (obwohl Moog nie etwas dem ARP 2600 entgegensetzen konnte), daß ARP seine VCOs zu gut im Griff hatte und die Dinger sehr stimmstabil waren, aber aber einen vergleichsweise klinisch-analytischen Klangcharakter hatten.

Was den charakteristischen Sound des Minimoog – gerade der ersten gut 300 Minimoogs – letztlich ausmacht, ist eine Verkettung von konstruktiven Eigenarten, die aus der Sicht eines auf technische Perfektion abzielenden Ingenieurs eigentlich samt und sonders Konstruktionsfehler sind. Die instabile Stimmung der ganz frühen Moog-VCOs, die Fehlberechnung des Minimoog-VCF, die dazu führt, daß es zu heiß angefahren wird, etc.


Martman
 
Und zwar mit jeweils all seinen "Macken" bis hin zu den nichtlinearen Verzerrungen, die beim Minimoog dadurch entstehen, daß am Filtereingang zu starke Signale anliegen. Die allerdings wirklich bis ins Detail und bis in Extremeinstellungen vom Original ununterscheidbar nachzubauen, ist annähernd unmöglich, zumal dieses Verhalten mit keinerlei mathematischen Modellen beschreibbar ist.
Das ist eine kühne - und m.E. völlig falsche - These. Selbstverständlich sind Nichtlinearitäten mathematisch beschreibbar, auch die eines "fehldesignten" Moog-Filters. Meist braucht man gar nicht mal viele zusätzliche Terme, um die Nichtlinearität richtig zu beschreiben, man muss nur wissen, welche. Die Quizfrage ist nur, a) ob man die richtige mathematische Beschreibung im konkreten Fall schon gefunden hat und b) ob die nötigen Gleichungen dann in Echtzeit auf der Hardware, die ins Budget passt, lauffähig sind.

Was wäre nun also die Alternative? Ein mathematisch idealisiertes Tiefpaßfilter mit 24 dB/Oktave jedenfalls nicht, das wäre charakter- und gesichtslos und klänge absolut nicht nach Moog. Die einzige Alternative wäre also ein echtes analoges und spannungsgesteuertes vierpoliges Transistorkaskadenfilter nach der Originalschaltung des Minimoog oder des 904A mit nach Möglichkeit den gleichen Bauteilen.
"Die einzige Alternative" ist das sicher nicht. Vor allem hätte man damit nichts gewonnen - nimmt man halt einen originalen alten :D Einen Moog nachzubauen ist kein Voodoo - weder in Hardware noch in Software. Der Knackpunkt ist immer nur das Budget, die Entwicklungskosten und dann am Ende eine erreichbare Stückzahl, die dann diese Entwicklungskosten auf einen vertretbaren Betrag pro Exemplar runterverteilt. Bisher haben eben nur ein paar Boutique-Läden das zu Mondpreisen gemacht, und jetzt kommt ein anderer Player für ein Zehntel des Preises. Da ist es nur eine Frage der Zeit, bis irgendwo dazwischen sich noch jemand ansiedelt, der dann vielleicht den entscheidenden Mehraufwand gegenüber Behringer macht und gleichzeitig beim Bedrucken des Preisschildes nicht völlig abdreht.

Was Software angeht, zeigen doch die Diva oder ein Minimonsta längst, dass Modeling absolut möglich ist. Dass insbesondere u-he da selbst üppig bestückte Rechner (noch) voll auslastet, ist erstens ein Problem, was die Zeit lösen wird. Zweitens wäre das bei sinnvoll ausgewählter DSP- oder FPGA-Hardware auch wieder was anderes als wenn man stumpf eine dafür herzlich wenig geeignete Allround-CPU bemüht. Ein Blick zu UAD und der Vergleich in Sachen Qualität und Performance zwischen deren DSP-Effekten und den entsprechenden CPU-Pendants zeigt, was man da gewinnen kann. Und drittens ist vielleicht Urs Heckmann (bei allem Respekt) nicht gerade der Beste, wenn es um ressourcensparende Programmierung geht - beurteilen kann ich das mangels Einblick nicht, aber dass so ziemlich alles aus seiner Feder hart am Hardware-Limit segelt, legt diese Vermutung irgendwie nahe.
Es ist also beileibe nicht so, als "ginge es nicht", sondern es hat einfach bislang noch niemand gemacht (im Sinne von wirklich alles ausgereizt). Wenn ich mir ausmale, was ein Joint-Venture von u-he und UAD da ad hoc auf die Beine stellen könnte, würde das dieser Diskussion sofort jede Grundlage entziehen. BTW: die Moog-Filter hat UAD schon im Programm.
 
Die einzige Alternative wäre also ein echtes analoges und spannungsgesteuertes vierpoliges Transistorkaskadenfilter nach der Originalschaltung des Minimoog oder des 904A mit nach Möglichkeit den gleichen Bauteilen.

Das ist es, was ich weiter oben angedeutet hatte: Wozu den Versuch unternehmen, es mathematisch nachzubauen, wenn es mit realen Bauteilen einfacher geht? Ob man jetzt die Orginale nehmen muss, weiß ich nicht, denn auch dann bekommt man nicht wirklich einen identischen Klang sondern landet irgendwann mal mitten in der Streuung. Was man nicht verkennen darf, ist der Einfluss der Platine. Die Schaltung alleine ist noch nicht die ganze Information. Leiterbahnlängen und -führung machen auch im NF-Bereich relevante Effekte. Hinzu kommt die Einbaulage.

Ich würde das Thema daher anders ansetzen und mich fragen, was denn das Eigentliche am Moog-Filter ist und das ist die dedizierte Abstufung. Die könnte man zumindest ansatzweise mit parametrischen Filtern beschreiben. Nur was wäre der Vorteil?

Dann: Mit dem "idealen" Filter meinte ich eigentlich den "idealen" Nachbau. Dass das Filter nicht mathematisch ideal ist, wissen wir. Möglicherweise ist es aber für die Musik "ideal"? Und warum? Oder hat Herr Moog damals einfach nicht mehr hinbekommen?

Für mich besteht der Vorteil in der Mathematik und den zur Verfügung stehenden Methoden darin, etwas ZUSÄTZLICH zu den analogen Systemen zu bauen, was es halt noch nicht gibt. Und dabei spielen solche Dinge wie Stimmstabilität und Verstimmung eine Rolle. Wie du richtig einwirfst, können sterile Klangerzeuger da Probleme aufwerfen, wie konstante Phasenauslöschungen, wenn mehrere polyphone Stimmen vom selben OSC abgeleitet werden, oder es individuelle OSCs gibt, die aber unglücklich getriggert werden. Mein Ansatz dazu war die Verstimmung in die Grundtöne mit reinzunehmen. Damit kann gesteuert werden mit welcher Phase ein Ton beginnt, wenn er gegatet wird und gleichzeitig trotzdem die Schwebung geregelt werden. Das kann kein analoger Synth und meines Wissens auch kein digitaler, es sei denn er sei im tuning programmierbar und verwendet eine entsprechende Stimmung.

Das geht aber jetzt zu weit vom ACB weg.

Nachtrag:

Ich habe mal abgeschätzt, was es an Aufwand wäre, die 12 Transistoren des Moog ladder Filters genügend exakt mit Mathe nachzubilden. Würde von der Rechentiefe für 150kHz reichen und auf einen halben Artix 100 hinauslaufen. Zusammen mit der Umbeschaltung wahrscheinlich auf 2 200er mit noch 60kHz...70kHz Abtastfrequenz. Wenn man das baut und als Gerät rausbringt, landet man bei HSK 300,- und einem Endpreis in Richtung 999,-. Das ist das Hauptproblem: Man kann doch recht Vieles bauen, aber es wird keiner bezahlen.
--- Beiträge wurden zusammengefasst ---
Und drittens ist vielleicht Urs Heckmann (bei allem Respekt) nicht gerade der Beste, wenn es um ressourcensparende Programmierung geht - beurteilen kann ich das mangels Einblick nicht, aber dass so ziemlich alles aus seiner Feder hart am Hardware-Limit segelt, legt diese Vermutung irgendwie nahe.
Könnte es wohl sein, dass der Herr einfach einen tradoff zwischen Leistung und Effizienz macht und die Hardware voll auslastet? Das wäre ein Indiz dafür, dass SW-mässig noch mehr rein müsste, aber nicht drin ist, weil mehr nicht geht. (?)


Wenn ich mir ausmale, was ein Joint-Venture von u-he und UAD da ad hoc auf die Beine stellen könnte, würde das dieser Diskussion sofort jede Grundlage entziehen. BTW: die Moog-Filter hat UAD schon im Programm.
Eher nicht, weil kein Entwickler der Welt die Realitäten überwinden kann und etwas auf die Beine stellt, was Physik und Mathe austrickst. Das einzige, was dabei rauskommen kann, ist ein anderer Kompromiss.

Man darf sich nichts vormachen: Musikelektronik ist keine high-tech-Branche! Das Zeug muss bezahlt werden, es sei denn, es handelt sich um Entwickler wie mich, die für sich selber bauen und rücksichtslos auf Qualität bauen können, auch wenn sie sich niemals lohnt. Alles, was man kommerziell am Markt diesbezüglich kaufen kann, ist kostenoptimiert. Schließlich wird eben nur eine Software gfs mit einem Stück Hardware an eine kleine Gruppe von Nutzern verkauft, die Handel, Werbung und Produktion einspielen muss. Bei vielen Industrieprodukten ist das anders: Oftmals macht die Elektronik im Gerät keine 20% aus. Denke man mal an eine Radaranlage oder Bildverarbeitung fürs Auto. Die haben völlig andere Stückzahlen und -kosten. Ein Kunde von mir hat eine MR-Anlage in den letzten Jahren fast 10.000mal verkauft. Stückpreis 3...8Mio Euro! Da kann man als Entwickler locker mal 1000h Zeit mehr vergraben oder einen 1000,- Euro FPGA aufs PCB eindesignen. Auf solchen Systemen läuft richtige high-tech Mathematik. Das geht bei Consumertechnik nicht. Will heissen: 90% von dem, was man bauen kann, wird es nicht kommerziell geben.

Die Entwickler in bestimmten Branchen und Firmen haben keine Chance, sowas auch nur ansatzweise anzudenken und einzubauen, da gfs Zeit zu investieren, zu forschen und sich da hineinzuentwickeln. Schon solche Sachen wie Kosten für ModelSIM- oder MATLAB-Lizenzen oder auch Simulationstools wie HyperLynx sind da ein Problem, bzw findet man bei kleinen Firmen nicht. Ich sehe ja, was KMUs vorort haben. Entwicklungsabteilungen für Elektronik und FPGA-Technik, die richtig performant sein sollen, haben LogicAnalyzer, Oszilloskope und Networkanalyzer weit jenseits der Mio-Grenze im pool und die tauchen dann trotzdem nur mit <100,- im Endpreis auf.

Um mal ein kleines Beispiel zu bringen: Ich habe mal in einer Firma gearbeitet, die magnetische Sensoren hergestellt hat. Da habe ich Netto 5 Monate nur an Spice-Modellen und Mathematik für solche Werkstoffe gearbeitet und damit Wissen, das man sich nirgendwo sonst hätte erbeiten können, weil das keine normale Firma bezahlen kann, nur damit sie eine Sättigungskennlinie in SW nachbilden kann. Ähnliches gilt für das Detailverhalten von Transistoren und andere Halbleiter.
 
Für mich besteht der Vorteil in der Mathematik und den zur Verfügung stehenden Methoden darin, etwas ZUSÄTZLICH zu den analogen Systemen zu bauen, was es halt noch nicht gibt.
Oder so wie in der Diva: Oszillatoren vom Prophet mit Filtern aus dem Moog, vielleicht auch mal zwei kaskadiert... oder an sich monophone Originale in der Software polyphon ausreizen, solange halt die Hardware mitmacht... Und nicht vergessen: mathematische Modelle brauchen keine Reparaturen, Wartung etc. Allein was man regelmäßig an Technikerstunden bräuchte, um ein großes analoges System (von dessen Transportabilität mal abgesehen) regelmäßig abzugleichen, zu stimmen, zu "intonieren", wenn man so will, dafür kriegt man dann schnell die Hardware für eine zweite Instanz des Modells zusammen.

Ich habe mal abgeschätzt, was es an Aufwand wäre, die 12 Transistoren des Moog ladder Filters genügend exakt mit Mathe nachzubilden.
Genau das war der Knackpunkt weiter oben: Du gehst da rein ingenieurmäßig dran - für dich sind die 12 Transistoren in der Schaltung alle gleich abzubilden, um "genügend exakt" zu sein. Dass man vielleicht einen oder zwei davon ganz besonders präzise modellieren müsste und beim Rest ein simpleres Modell reicht - genau sowas ist der Punkt, weswegen der eine in Echtzeit rechnen kann (weil er seine Ohren entscheiden lässt, wann "exakt genug" erreicht ist) und der andere nicht...

Könnte es wohl sein, dass der Herr einfach einen tradoff zwischen Leistung und Effizienz macht und die Hardware voll auslastet?
Klar, könnte sein. Ich weiß aber auch, dass nicht jeder, der gut modellieren kann, auch gut und effizient programmiert. Und ich weiß auch, dass ein und dasselbe Modell sehr unterschiedlich schnell rechnen kann, wenn man sich etwas mehr oder etwas weniger Gedanken um Datenflüsse, Strukturen, Abläufe macht.
Wie gesagt: ob bei den Modellen von u-he einfach trotz bester Programmierung im Moment nicht mehr zu reißen ist oder ob da in Sachen Effizienz noch Luft nach oben ist, kann man nur beurteilen, wenn man in die Sourcen gucken kann.
Mein Gefühl sagt mir, dass da bei anderer Programmierung mehr geht. Urs Heckmann ist ja nun nach eigenem Bekunden studierter Industriedesigner und hat sich die Programmierung selbst beigebracht. Ich bin selbst in Sachen Programmierung Autodidakt und weiß aus Erfahrung sehr gut, in welche Fallen man läuft - und wann ich mir dann lieber einen IT-Profi dazuhole, der die eigentliche Programmierung besser beherrscht. Vielleicht tue ich ihm auch Unrecht...

Eher nicht, weil kein Entwickler der Welt die Realitäten überwinden kann und etwas auf die Beine stellt, was Physik und Mathe austrickst. Das einzige, was dabei rauskommen kann, ist ein anderer Kompromiss.
Hast du mal die Demos der Moog-Filter gehört? Weißt du, wie die UAD-Sachen im Vergleich zu VST-Effekten klingen und wieviele Instanzen man davon locker auf den paar DSPs in einem Apollo### laufen lassen kann, wo CPU-basierte Effekte längst die Grätsche machen? UAD hat halt bislang nicht viel in Richtung Synth gemacht. Wenn Urs Heckmann seine Modellierung und Erfahrung in diesem Sektor mit einbringt und UAD das hochperformant auf ihre DSP-Plattform übertrüge, wäre da Leistungsmäßig ein Riesensprung zu erwarten. DER Kompromiss dürfte sehr überzeugend sein.
 
Was das Können der selfmade Programmierer angeht, muss Ich Dir Recht geben, zumindest ab dem Punkt, wenn es um effiziente Umsetzung von pipeline, Verwendung von Variablen und Multi-Core Anwendungen geht. GPU ist nochmal was anderes. Allerdings ist da von einigen Ausnahmen mal abgesehen, so arg extrem viel auch nicht drin. Core Balancing , Funktionsoptimierung und Task Budget-Optimierung machen die Compiler schon ganz gut, damit bleibt es eigentlich nur bei der Frage, welches Modell man nimmt und ob man die Mathematik dahinter begreift. Das eigentliche Programmieren wird immer unwichtiger. Einzig bei FPGAs und der Möglichkeit, eigene dynamische! Strukturen zu erzeugen, welche "Rechnen" gibt es noch die Möglichkeit, hocheffiziente Sonderlösungen zu generieren, welche nicht an die Struktur von Hardware gebunden ist, und die kein Compiler oder noch so intelligenter Programmierer optimieren kann, weil er sie nicht im Vorfeld sieht und sie nicht klassifizierbar sind. Das sind aber Sonderlocken, die man erstmal erfinden muss und auf die hin man gezielt optimieren muss.

Zu dem Resourcenthema der UAD kann ich nichts sagen. Ich kenne aber die Thematik der GPU-Optimierung von anderer Seite her und sehe da wieder andere Flaschenhälse, die es verunmöglichen dynamisch Strukturen rechnen zu lassen. GPU sind dann effizient, wenn sie mit statischen Strukturen und vorgefertigten Formeln rechnen können und nicht ständig umgeladen werden müssen - insbesondere, wenn sie Rechnung arbeiten können, für die sie HW implementiert haben. Die eigenen sich aber nur bedingt für die Filteroperationen, wie man beim Audio braucht und die Iterativen Lösungen, die man bei der Elektroniksimulation braucht. Es würden sich dann auch nur sehr kleine Schaltungen optimiert simulieren lassen, d.h. solche, die in die GPU hineinpassen und permanent rechnen. Als Beispiel wäre ein Lösungsalgorithmus für ein Schwingungsystem zu nennen, welches bis zur dritten Ordnung von die 256 units passte und dann mit vollem 1,6GHz Takt iterierte. Lösungen gab es durchschnittlich nach 30...40 Takten. Damit könnte man mit 400MHz abtasten und LO-OSCs für Radar im Bereich von 30MHz in Echtzeit simulieren. Ging man aber her und wollte die komplette Rechnung ableisten mit etwas der 100fachen Schaltungsgrösse, mussten die shader-units umgeladen werden, was die Bandbreite auf ein 8tel reduzierte. Damit kriegt man dann nur noch ein 1/800 tel der Bandbreite hin und landet bei 50kHz. Das wäre gerade für Audio ausreichend. Aber eben nur eine kleine Schaltung.

Der Vergleich brauchte heraus, dass in all diesen Fällen der FPGA überlegen und preiswerter war, sofern die Schaltung in die BRAMs passte. Bei der Hi-Speed-Version der GPU war diese zwar die Preiswerter aber auch nicht die Schnellere. Bei allem, was deutlich mehr RAM braucht ist, die GPU dann die erheblich preiswertere, aber elend langsam. Da kommt man sehr schnell auf eine massive Lösung mit mehr CPU-Kernen. GrundProblem: Billige Grafikchips leisten nichts, was CPU-Grafik-Kerne nicht auch könnten und Teure Grafikchips sitzen in teuren Karten, die mal gleich mehrere Hundert Euro kosten. Da kommt man sehr sehr schnell dahin, einen Teil der Rechnungen auf einen anderen PC auszulagern, statt einen PC mit PCIe und Grafikkarten-traffic zuzuknallen.

Es kann also sein, dass UAD-Power mit der richtigen Software mehr rauszaubert, wie Du vermutest - allerdings dürfte es so sein, dass klassich geschriebene Algos auf einer Multi-Core CPU in einem parallel betriebenen System ohne Anpassungen dasselbe raushauen zu einem ähnlichen oder geringeren Preis. Und der Trend dürfte sich fortsetzen. Ich beobachte die GPU-Szene seit 10 Jahren, als einer meiner Kunden das erste Projekt damit integriert hat. Damals war das ein echter Performance-Gewinn, weill PCIe noch nicht an Anschlag war. Das hat sich aber nicht linear fortgesetzt. Die GPUs sind enorm gewachsen, kommen aber nur mit Daten klar, die parametrisch sind, also rein mit dem Voxelmodell und Shader drüber, Bewegtanimation raus. Diese gigantische Performance bekommt man aber nicht über den Bus, dass man sie voll nutzen könnte. Selbst bei meinem FPGA ist das der Fall: Die interne Bandbreite meines Synths beträgt bei nutzung aller RAMs und DSP-Elemente die Performance von wenigsten 12..15 Intel CPUs und 30..50 DDR-Controllern, d.h. man bräuchte eine entsprechende Zahl von PCs , um selbiges zu leisten. Anders, als bei GPU komme ich aber jederzeit an jede Stelle des FPGAs dran und habe alle Daten parallel verfügbar.

Von daher kann ich ziemlich klar sagen, dass für solche Anwendungen wie Modellierung und Sequenzielle Datenprozessierung der Audisignalverarbeitung und ähnliche Dinge, die FPGAs den GPUs klar überlegen sind und deren Performance habe ich klar vor Augen.

Man muss also Wege finden, Filter oder was auch immer hochauslösend mit FPGAs zu emulieren, um da überhaupt hinzukommen und wenn, finanziell effektiv hinzukommen. Als Planmodell könnte man sich z.b: ein parametrisches Transistormodell denken, welches 64 Takte Latenz hat und je Transistor 4 mal iteriert. Bei 16 Transistoren in den 64 Stufen der pipeline wären das bei 200MHz immerhin 3MHz Abtastrate. Für eine Iteration von 8 kommt man exakt auf pipeline-tiefe wurzel64 und hätte knapp 400kHz solution rate.
Damit kann man Schaltungen bis etwa 100kHz gut genug berechnen.

Meine Pyratone-VA-Synthese läuft nachdiesem 3D-Modell.Das wäre das Effektivste, was man derzeit bauen kann. Jede andere Zahlenkombi sprengt die Randbedingungen und wird ineffektiver.Trotzdem kostet auch diese schon knapp einen Hunni und ja nach Umfang des Modells ist der FPGA dann auch ziemlich zu. Ich sehe da einfach nicht, daß jemand nur für einen Filter, den er auch in echter Hardware billig und gut bekommen kann, einen Digitalschaltung / Emulation nimmt.

Da gibt es anderes ... :D
 

Anhänge

  • pyratone_double_phased_chirp.jpg
    pyratone_double_phased_chirp.jpg
    336 KB · Aufrufe: 137
Du irrst in der Annahme, dass die Originalschaltung "billig und gut" wäre. Immerhin hat bis vor einem Jahr selbst ein vergleichsweise simpler Minimoog-Aufguss in Hardware knapp 3000€ gekostet (in neu). Klar geht das theoretisch billiger, wenn man nur die Bauteile zusammenzählt. Aber das sind Marktpreise, und an denen orientiert sich, was eine digitale Emulation kosten darf.

Und nach wie vor ignorierst du komplett, dass manche Sachen in Hardware einfach nicht gut gehen, und sei es nur, "beliebig" viele Instanzen zu klonen und solche Scherze.

Lassen wir das. Du willst deine Pyratones an den Mann bringen (hast nur in diesem Thread ungewöhnlich lange gebraucht, um sie zu erwähnen), auch gut. Aber auch das ist Modelling, eigentlich solltest du dann ebendieses nicht so schlechtmachen...
 
Die interne Bandbreite meines Synths beträgt bei nutzung aller RAMs und DSP-Elemente die Performance von wenigsten 12..15 Intel CPUs und 30..50 DDR-Controllern, d.h. man bräuchte eine entsprechende Zahl von PCs , um selbiges zu leisten.
Ich meine, auf dem Papier sieht "4096 Stimmen", "384 kHz" etc. beeindruckend aus und ich kann auch verstehen, dass das entsprechende Rechenleistung braucht. Aber wird das Ergebnis denn klanglich auch den Erwartungen gerecht? Oder ist man - selbst wenn man sich die Hardware problemlos leisten könnte - als Musiker mit ein paar Software-Synths für weniger bis gar kein Geld nicht mindestens gleich gut bedient und braucht viele der Features gar nicht erst?

Auf der Webseite zu deinem Synth gibt es unten immerhin eine Sound-Demo. Und für ein Eigenbauprojekt klingt es auch nicht schlecht. Aber ich würde nicht unbedingt sagen, dass aktuelle Synths, die (ob als VA oder Software) anscheinend weniger Rechenaufwand betreiben, sich davor verstecken müssten. Den URLs zufolge sind die Demos auch schon von 2013 und früher, insofern will ich mich nicht zu sehr darauf fixieren, wenn sich in der Zwischenzeit wieder einiges getan hat.

Hast du mal ein paar Vergleiche mit gängigen Synths angestellt? So ein Shoot-Out würde mich wirklich interessieren und wird heutzutage mit fast jedem Synthesizer gemacht, der als neuer Maßstab in punkto Emulation/Modelling gelten will. :)
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Oder hat Herr Moog damals einfach nicht mehr hinbekommen?
Die Übersteuerung des Filters geht tatsächlich zurück auf einen Berechnungsfehler. Bob Moog dachte erst noch daran, das zu korrigieren. Aber die Musiker, die den Minimoog testeten, waren vom aus dem Übersteuern resultierenden "fetten" Sound so begeistert, daß er beschlossen hat, das so zu lassen.


Martman
 
  • Gefällt mir
Reaktionen: 1 Benutzer

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben