Original EPs, PlugIns oder Stage Piano? (Der Nord Stage war's doch nicht)

  • Ersteller nordstern
  • Erstellt am
Im dem Bereich liegen aber auch externe Lösungen. Wir hatten in meiner alten Band ein emagic 6/2, das hatte 4 ms (glaube ich ...). Ich kenne mich da nicht so aus, aber ich würde wetten, dass das noch besser geht.
 
Hallo,

ti2de schrieb:
Der iMac hat keinen PCI-Steckplatz. Deshalb kann ich keine Karte einbauen.
Als ewiger PC-Nutzer bin ich mit MACs gänzlich überfragt. Haben die PCMCIA Slots wie die PC-Notebooks??? Dann wäre das noch ein Alternative zum FireWire Wandler. Siehe z.Bsp. E-MU 1616 http://www.emu.com/products/product.asp?category=505&subcategory=491&product=13552.

Preis: Gleiches Niveau wie externe Firewire-Wandler, also um die 400,- und ebenso XLR-, Mic PreAmp etc. alles drauf. Da hast du aber eine wesentlich höhere Datenrate über die Schnittstelle.

Grüße,
nordstern
 
@Threadstarter:

Ich habe so gut wie jede deiner Möglichkeiten getestet und kann dir folgende Erfahrungswerte vermitteln:

1. Die PC Lösung:
Hierbei bist du am flexibelsten, kannst VST zu und abschalten wie du willst und kannst noch andere Dinge live verwirklichen, z.b. LOGIC mitlaufen lassen (vorausgesetzt der Drummer kann nach Click spielen) Das ganze findet aber immer eine Grenze an a) Den Harwarevoraussetzungen. D.H. mit einem WIN-Laptop um 1GHZ und 512mb Ram wirst du (wenn überhaupt) parallel 2 VSTS laufen lassen können (ich geh jetzt mal von den einigermaßen aufwändigen wie B4 aus, wobei das eigentlich noch geht). Um die Sounds mehrerer VSTS zu Layern müssen sie einen Rewire-Mode Unterstützen (s. Reason/Acid) oder du musst die Programme während dem Auftritt mal kurz so umstellen, dass beide auf den selben Midi-Port hören. Natürlich oberquatsch bei dichten Performances - wo wir gleich beim nächsten Thema wären. Zum Laptop oder PC auf der Bühne gehört natürlich eine exzellente Soundkarte und ein Midi-Interface mit mind. sovielen Ports wie vorhandenen Keyboards die was per Midi senden/empfangen wollen. Zu guter Letzt ist der PC auf der Bühne immer ein Schwachpunkt in Sachen Stabilität was du aber mit den richtigen Betriebssystem und Konfigurationen evtl sogar ausmerzen kannst. Zudem erzeugen manche PC's sehr unschöne, subtile surrgeräusche (auch über eine Symmetrierte Leitung) ans Mischpult. Vorher das unbedingt testen. Im Notfall hilft evtl noch ein Noise Gate. Als nächstes muss man sich natürlich im Klaren sein, dass ein PC auf der Bühne je nach Musikrichtung und Engagement der Band nicht auf "wackligen" Ständern, Stativen, Racks o.ä. stehen sollte. Ich habe meinem 15" Flachbildschirm schon während der Show in Zeitlupe zuschauen können wir er langsam immer weiter nach hintem auf dem Rack wanderte und schliesslich hinten runterfiel. In diesem Fall 2meter Freifall hinter die Bühne (war übrigens zum Glück unbeschädigt)

2. Die Piano Lösung / mit Expandern
stabil, zuverlässig. Größtes Manko, wie du schon bemerkt hast dass die Sounds einfach teilweise gar nicht zufriedenstellen.

3. Die Klassiker Rhodes Wurli etc
Ich spiel live mit einem Wurlitzer EP, das wars dann aber auch schon mit Nostalgie auf der Bühne - möchte das Gerät aber auf keinen Fall mehr missen, ist zwar in vielen Belangen nachteilig (Signalausgang muss durchn NoiseGate sonst gibts zuviel surr und brumm im "nichtspielzustand") aber der Sound und das Feeling... naja das muss ich nicht weiter ausführen ;D.
Bei den Piano Sounds lasse ich mich mit einem Korg abfrühstücken und mal sehen ob sich da noch was tut.

4. Sampler und Co
Die Hammond Sounds und alle anderen Spezialklänge lasse ich von einem Yamaha A3000 teilweise als Akkordriffs, wie eben am PC vorproduziert auf nen Akai MPD laufen... damit auch ein bisschen DJ Feeling aufkommt ;D Die Grenzen mit einem Sampler sind eigentlich nur durch den Speicher begrenzt (bei mir eine interne 4gb Scsi Festplatte). Ich mag den Kontrast zwischen Nostalgie des Wurlitzers und sampling und das inspiriert mich ;)

Wie du im Endeffekt dein Setup erstellst sei ganz dir überlassen. Von einem PC auf der Bühne wirst du aber evtl schnell wieder abkommen, wenn du kein Apple PowerBook G4/G5 dein eigen nennen kannst. Ich würde pers. immer versuchen eine größte Usability und Spielfreude bei geringstem Equipmentaufwand und Ausfallratio zu verwirklichen. Dass die eierlegende Wollmilchsau aber auch zu mir noch nicht gekommen ist, liegt wohl daran dass sie im Bereich Keyboard kaum existiert - viel Glück weiterhin und nicht entmutigen lassen ;)

Grüße donchrizz
 
nordstern schrieb:
Hallo,

Als ewiger PC-Nutzer bin ich mit MACs gänzlich überfragt. Haben die PCMCIA Slots wie die PC-Notebooks???
Leider nein. Dafür einen richtig guten Firewire-Port. Deshalb bleibt nur Firewire.
 
Hallo ti2de!
ti2de schrieb:
Leider nein. Dafür einen richtig guten Firewire-Port. Deshalb bleibt nur Firewire.
Alles klar jetzt! Es gibt zwar ein einziges Firewire-Audio-Interface von RME, von wegen bester Qualität, aber das ist preislich sicher für dich ebenso east of Eden, wie für mich.

Was ich dir mit gutem Gewissen empfehlen kann:
Edirol FA-66 http://www.rolandus.com/products/productdetails.aspx?ObjectId=731&ParentId=114

Hab eben gesehen, daß die Preise sanken (Wollte schon tippen: "um die 400", das war noch der Preis rund um den Jahreswechsel.). Gut für dich! ;) Das Edirol kostet derzeit rund Edirol 340,-. Ist sehr verbreitet unter Musikern mit Laptop.

Es gibt noch das Konkurrenzmodell M-Audio FireWire 410 http://www.m-audio.de/fw410.htm , gleiche Ausstattung, 10 Euro billiger, aber das M-Audio wandelt mit 192kHz SamplingRate nur in der Stereo-Wiedergabe, nicht bei mehr Kanälen und nicht bei der Aufnahme. Das Edirol beherrscht die hohe Samplingrate auch bei der Aufnahme, wenn man statt der an sich 6 mit 4 Kanälen auskommt. D.h. bessere Tonqualität und zukunftssicherer beim Edirol.

Ist bei beiden alles drauf, was so benötigt wird, Midi In/Out, Digital In/Out optisch/coax, 2 FireWire ports, MicPreAmp mit Phantomspeisung etc.

Von M-Audio gibts noch das FireWire 1814 http://www.m-audio.de/fw1814.htm. Das ist in der Qualität dem Edirol noch überlegen. Sehr empfehlenswert! Aber abgesehen vom höheren Preis (rund 480) hat das sehr viele In/Outs und ist dadurch größer. Wenn du nicht 4 physische Klinkenein- und 8 Ausgänge benötigst, geht unnütz Platz verloren. Und laß dich von den Homepage-Preisangabe nicht verwirren, das sind uvRP und keine Straßenpreise, das verlangt kein Händler.

Grüße,
nordstern
 
Hallo!

@donchrizz:
donchrizz schrieb:
Tja, das war ich und herzlichen Dank, daß du noch deine Erfahrungen einbringst! :)
donchrizz schrieb:
Ich spiel live mit einem Wurlitzer EP, ...möchte das Gerät aber auf keinen Fall mehr missen, ...aber der Sound und das Feeling... naja das muss ich nicht weiter ausführen
Nööö, mußt nicht weiter ausführen! ;) Schön, daß die Vintagedinger doch noch immer kräftige Lebenszeichen von sich geben, auch nach 30 Jahren und auch noch auf Bühnen eingesetzt werden! :great:
donchrizz schrieb:
...mit einem WIN-Laptop um 1GHZ und 512mb Ram...
...eine exzellente Soundkarte...
Um die Sounds mehrerer VSTS zu Layern müssen sie einen Rewire-Mode Unterstützen...
Ab Herbst werden es mindestens 3 GHZ CPU und 2-3GB RAM sein. Und eine RME HDSP9932 Soundkarte. Das sollte eigentlich reichen. Hoffe ich!

Punkto Layertechnik per PC fehlt mir noch der Über- und Durchblick. Da muß ich mal ganz laienhaft rückfragen. Offengestanden sagt mir "Rewire-Modus" nichts. Worum gehts denn dabei?

Die Frage richtet sich jetzt an dich, donchrizz, und auch an dich, NothanUmber, du kennst dich auch offenbar hervorragend mit Computermusikkonfig. Fragen aus. Bedeutet Layern per PC, daß beide Softwareinstrumente dann im selben Host (Cubase, Logic, Reason...) als PlugIn synchron ablaufen müssen? Und wie ist das dann mit Softwareinstrumenten, die gar kein PlugIn darstellen, sondern ein Standalone sind? (Bsp. Synthogy's Ivory oder Steinbergs The Grand 2. Die laufen ja auch per eigenem GUI standalone.)

Und wenn ich jetzt zwei Softwareinstrumente standalone laufen hab', dann müßten die ja per Softwaremixer (Praktisch bei jeder Soundkarte dabei.) life mischbar sein, oder nicht? Theoretisch sogar per Zuweisung der Mixerregler auf einen externen Hardwarecontroller, wie das Behringer BCR-2000. Oder überseh ich da was bzw. hab da irgendwas noch nicht begriffen??

Und was würde mehr Rechnerleistung fressen, zwei Softwareinstrumente als PlugIn in einem Hostprogramm oder zwei Softwareinstrumente als zwei getrennte Instanzen synchron als Standalone ablaufend??

Grüße,
nordstern
 
Hallo!

@ alle und @ NothanUmber:
Die diversen post zu den Softwarepianos haben jetzt doch Fragen für mich aufgeworfen, die mich (noch) überfordern. Da dieser thread inzw. schon sehr lange ist und ein Zurückscrollen, um ein Zitat im Original nachlesen zu können, unmöglich bis unbequem, kopier' ich jetzt mal bei all den folgenden Fragen und Zitaten den links des Original-posts dazu. Eine Frage zu einem Zitat von NothanUmber stammt aus einem anderen thread, paßt aber thematisch hier dazu. Der link ist aber ohnehin jedesmal dabei.

NothanUmber https://www.musiker-board.de/vb/showpost.php?p=1298234&postcount=15
NothanUmber schrieb:
zumindest Windows XP kann einem Prozess nur maximal 2 GB zuweisen, und da VSTs nicht als eigenständige Prozesse laufen, sondern im Prozess des Hosts untergebracht werden, können deine Instrumente insgesamt nur 2 GB Speicher nutzen
Klar, ich sah auch bei den von dir empfohlenen Mr.Ray downloads, daß das PlugIn eine .dll ist, auf die das Hostprogramm zugreift.
NothanUmber schrieb:
Es sei denn, du hast eine Soundkarte mit mehreren virtuellen Ausgängen , dann kannst du mehrere Instanzen der Hostsoftware starten und jeder davon dann bis zu 2 GB RAM zuweisen.
Schon Sackgasse fürs Verständnis. Warum können nicht mehrere Instanzen der Hostsoftware auf die Soundkarte zugreifen?? Ich mach' ja auf meinem Compi fast nie Multitasking, hab' aber jetzt extra WinDVD und dann einen WAF/mp3 MediaPlayer gestartet, um zu sehen, was passiert, wenn beide Programme auf die Soundkarte zugreifen. Ergebnis: Kein Absturz eines der Programme, Sound gleichzeitig von beiden Programmen.

https://www.musiker-board.de/vb/showpost.php?p=1334838&postcount=20
NothanUmber schrieb:
Als erstes wird ein sog. "Preload-Puffer" gefüllt. Dazu lädt der Sampler vorweg die ersten (z.B.) 60 KB jedes Samples in den Arbeitsspeicher (das macht bei sagen wir mal 4000 Samples also ca. 240 MB und dauert knapp eine Minute zu laden). Dann kann man erst mal losspielen. Wird dabei eine Taste gedrückt, versucht der Rechner, so schnell wie möglich, den Rest der jeweilig notwendigen Samples in einen "DFD-Puffer" zu laden (dessen Größe kann man ebenfalls einstellen, bei mir sind das so um die 100 MB). (Bei einer Samplefrequenz von 44 KHz und 24 Bit (3 Byte) Auflösung hat der Rechner dazu maximal 60 / (44 * 3) also ungefähr eine halbe Sekunde Zeit bei 100 Stimmen muss die Platte also mindestens so um die 15 MB/s herschaufeln, je höher die Seekzeit (also die Zeit, wo die Platte keine Daten liefert, sondern nur sucht) ist, desto höher muss also die Rate sein. Für ca. 100 Stimmen (die bei Techniken wie Sympathetischen Resonanzeffekten leicht zusammenkommen können) sollte die Platte also für ein einziges Piano schon 20-30 MB/s bei niedriger Seekzeit liefern können.
Samples, die bereits im DFD-Puffer liegen, können im späteren Verlauf natürlich direkt von dort abgespielt werden, wenn man wirklich unterbrechungsfrei spielen will, muss man aber vom "worst case" ausgehen und annehmen, dass wirklich alle über den Preload Puffer hinausgehenden Daten von der Platte nachgeladen werden können müssen (deswegen kann man den DFD-Puffer bei wenig RAM auch relativ klein einstellen und alles funktioniert trotzdem noch - verringert man dagegen den Preload-Puffer, muss die Festplatte entsprechend schneller sein, sonst bricht der Ton nachdem der Preload-Puffer abgespielt wurde einfach ab).
1.) Preload-Puffer und DFD-Puffer liegen im RAM, sehe ich das richtig? In abgegrenzten Bereichen, die ihnen zugewiesen werden?? 2.) Der Preload-Puffer dient dazu, die ersten halbe Sek. beim Anspielen einer Note zu überbrücken, bis der DFD gefüllt ist?? Und der DFD-Puffer seinerseits soll das Auslesen der großen Samples, also das eigentliche Disk-Streaming abfedern?? 3.) Wenn ich dich richtig verstehe, wird der DVD-Puffer nur beim Anspielen einer Note mit dem zugehörigen Samples gefüllt. D.h. bei einem Stück mit breiter Melodieführung müßte der immer mehr anwachsen. Oder bleiben die Samples nicht im DVD-Puffer, sondern werden nach einem FIFO System wieder aus dem Puffer geworfen?? Oder überhaupt mit jedem Tastendruck? 4.) Wie ist das bei Akkorden? Wenn ich da mit der linken einen Dominantseptakk. anspiele und dazu auch nur eine Melodienote rechts bin ich schon bei 5. D.h. während der Preload leerläuft, müssen jetzt ja gleich 5 Samplesätze in den DFD-Puffer geschaufelt werden. Das funktioniert punkto Tempo/Datenstrom?

https://www.musiker-board.de/vb/showpost.php?p=1309315&postcount=46
radar74 schrieb:
Obwohl die Latenz bei einem Puffer von 256 samples schon vieeel zu deutlich zu merken war kamen bei gleichzeitigem Einsatz vieler Töne ganz scheußliche aute Überforderungsgeräusche des PCs raus. ...und das System reinstalliert werden müßte. Dann sei auch ein Buffer von 128 samples möglich (was aber auch noch zuviel wäre).
Endgültige Überforderung meines Wissensstands und Durchblicks! NothanUmber, da schreibst von Puffergrößen in kB pro Sample oder Gesamtgrößen (200 MB), hier ist plötzlich von Puffern mit einer Sampleanzahl die Rede. Was issn da gemeint? radar74's post klingt so, als könnte man Puffer umso kleiner machen, je leistungsfähiger das System und das sei auch besser. Hä????? Wieso ergeben 128 Samples im Buffer weniger Latenz, als 256??? Da hat der Compi doch bereits wesentlich mehr Samples im Preload oder DVD-Puffer vorrätig, ohne nachstreamen zu müssen??? Oder nicht?

https://www.musiker-board.de/vb/showpost.php?p=1298234&postcount=15
NothanUmber schrieb:
die Pedal-Down Samples rausgeschmissen und mache die Pedalsimulation komplett durch das sympathetische Resonanzskript...
Bitte Erklärung, was ist ein sympathetisches Resonanzskript?

So, das war's aber auch, wenn sich diese Fragen jetzt auch noch klären lassen, dann blicke ich wirklich durch! ;)

Liebe Grüße,
nordstern
 
Ok wenn du die Rechenleistung bereit hast, bist schonmal einen Schritt weiter. Wenn du dann noch ein stabiles System draufsetzt (nicht umsonst hat apple den schritt gewagt und das Mac OSX ab v10 auf FreeBSD aufgebaut) hast du den punkt schonmal unter kontrolle

in punkto Layertechnik habe ich selbst noch keine sehr großen eigenerfahrungen gemacht, ich kann dir nur soviel sagen: Der ReWire Modus ermöglicht wie du vermutet hast ein Programm ins andere zu implementieren (bei programmen die dies unterstützen funktioniert das automatisch in der hierarchie wie du sie startest am pc). Das ist dann auch möglich ein Standalone als "plugin" in ein anderes zu portieren (bsp reason in acid und umgekehrt) Ich persönlich würde beim Layern aber zu einem Software-Sampler tendieren der direkt 16MidiChannels als Layer oder Einzelmodus anbietet (bsp steinberg hypersonic) und somit einfach zu konfigurieren ist.

Ich glaube NothanUmber kann dir zu den PC Dingen noch bisschen mehr erzählen. Ich hab da eigentlich schon frühzeitig mit der Live-PC-Nutzung aufgehört, da bei mir Live eigentlich schon alles stehen muss und ich keine Zeit hab und keine 4 hände irgendwas groß einzustellen (außer nen PRGM change am sampler zwischen den liedern)

achja nochwas zu der computersache: eine arbeitsspeicherauslastung von 2gb wirst wohl nur unter größter mutwilliger anstrengung erreichen - ansonsten ist es bei musikproduktion viel wichtiger, dass hardwarekomponente und prozessorarchitektur passen... deswegen ist der mac auch so beliebt - apple stellt sein konzept für eine vorhersehbare hardware (v.a. prozessor) her, microsoft muss mit nem riesen markt an unterschiedlicher hardware fertig werden.
 
Toch,

nordstern schrieb:
Schon Sackgasse fürs Verständnis. Warum können nicht mehrere Instanzen der Hostsoftware auf die Soundkarte zugreifen?? Ich mach' ja auf meinem Compi fast nie Multitasking, hab' aber jetzt extra WinDVD und dann einen WAF/mp3 MediaPlayer gestartet, um zu sehen, was passiert, wenn beide Programme auf die Soundkarte zugreifen. Ergebnis: Kein Absturz eines der Programme, Sound gleichzeitig von beiden Programmen.
Das liegt daran, weil Prozesse unter Windows sich die Soundkarte normalerweise exklusiv reservieren. Fu startest also deinen Sequencer, der krallt sich die Soundkarte und sagt "meins". Wenn du jetzt versuchst, in einem mp3-Player deines Vertrauens nebenher Musik abzuspielen, dann wird das nicht funktionieren, bis der Sequencer das Audiodevice wieder hergibt. (z.B. Sonar kann man sagen, dass es die Soundkarte wieder freigeben soll, sobald es den Focus verliert, die meisten anderen Programme sind da aber besitzergreifender). Nun gibt es Karten wie die Echo Indigo, die das Problem dadurch umgehen, dass sie mehrere "virtuelle Soundkarten" zur Verfügung stellen (im Fall der Indigo 4 Stereokanäle oder 8 Monokanäle) und die dann mit einem auf der Karte sitzenden DSP nach einem einstellbaren Aussteuerungsverhältnis abmischen. So können sich vier Programme jeweils eine dieser Soundkarten schnappen und friedlich nebeneinander Sounds produzieren (dabei muss man dann halt per Hand bei jedem dieser Programme eine andere virtuelle Soundkarte im Audiosetup auswählen, defaultmäßig prügeln sich die nämlich sonst alle um die erste).

nordstern schrieb:
1.) Preload-Puffer und DFD-Puffer liegen im RAM, sehe ich das richtig? In abgegrenzten Bereichen, die ihnen zugewiesen werden??
Ja, die liegen im RAM, die Bereiche werden beim Laden des Samplers (DFD-Speicher) bzw. beim Laden des Instruments (Preload-Puffer) reserviert. Kontakt2 braucht bei 120 MB DFD Puffer also schon ca. 170 MB RAM wenn noch gar kein Instrument geladen ist)

nordstern schrieb:
2.) Der Preload-Puffer dient dazu, die ersten halbe Sek. beim Anspielen einer Note zu überbrücken, bis der DFD gefüllt ist?? Und der DFD-Puffer seinerseits soll das Auslesen der großen Samples, also das eigentliche Disk-Streaming abfedern??
Genau. Der DFD-Puffer soll einerseits wie du gesagt hast die mittlere zu übertragende Datenmenge beim Disk-Streaming ein wenig reduzieren (wobei immer noch der "worst case" (s.o.) berücksichtigt werden muss), andererseits braucht man halt einfach einen Speicherbereich, in den die Samples von der Festplatte bevor man sie abspielt hingeladen werden können.

nordstern schrieb:
3.) Wenn ich dich richtig verstehe, wird der DVD-Puffer nur beim Anspielen einer Note mit dem zugehörigen Samples gefüllt. D.h. bei einem Stück mit breiter Melodieführung müßte der immer mehr anwachsen. Oder bleiben die Samples nicht im DVD-Puffer, sondern werden nach einem FIFO System wieder aus dem Puffer geworfen?? Oder überhaupt mit jedem Tastendruck? 4.) Wie ist das bei Akkorden? Wenn ich da mit der linken einen Dominantseptakk. anspiele und dazu auch nur eine Melodienote rechts bin ich schon bei 5. D.h. während der Preload leerläuft, müssen jetzt ja gleich 5 Samplesätze in den DFD-Puffer geschaufelt werden. Das funktioniert punkto Tempo/Datenstrom?
Der DFD-Puffer wird während des Spielens nicht vergrößert sondern die alten Daten gegebenenfalls immer wieder überschrieben. (vermutlich LIFO-mäßig, also die ältesten Daten werden zuerst wieder gelöscht). Ob das nun bei jedem Tastendruck oder seltener passiert, hängt von der Größe des Puffers ab. Dabei müssen die Samples natürlich nicht komplett im Speicher gehalten werden, sondern minimal der Teil, der noch nicht gespielt wurde. (Bei vielen Pianos ist jedes Sample bis zu 4 MB groß, da würde man bei 120 MB gerade mal 30 Stimmen gleichzeitig spielen können). Ist der DFD Puffer viel zu klein, dann minimiert das natürlich die maximale Polyphonie. (Kontakt gibt für 120 MB DFD-Puffer eine maximale Polyphonie von 480 Stimmen an (Kontakt rechnet die Stimmen im Gegensatz zu GigaStudio in Stereo...), sollte also für ein Piano reichen :) ) Wie oben berechnet, müsste eine moderne Platte ohne größere Probleme ca. 200 gleichzeitige Stimmen ohne Aussetzer packen.

nordstern schrieb:
Endgültige Überforderung meines Wissensstands und Durchblicks! NothanUmber, da schreibst von Puffergrößen in kB pro Sample oder Gesamtgrößen (200 MB), hier ist plötzlich von Puffern mit einer Sampleanzahl die Rede. Was issn da gemeint? radar74's post klingt so, als könnte man Puffer umso kleiner machen, je leistungsfähiger das System und das sei auch besser. Hä????? Wieso ergeben 128 Samples im Buffer weniger Latenz, als 256??? Da hat der Compi doch bereits wesentlich mehr Samples im Preload oder DVD-Puffer vorrätig, ohne nachstreamen zu müssen??? Oder nicht?
radar74 redet da vom Audio-Puffer. Das ist ein Speicherbereich in der Soundkarte, in den die Programme ihre Audiodaten schreiben, bevor sie von der Soundkarte ausgegeben werden. (Meistens gibt es davon sogar mehrere. Szenario bei drei Puffern: die Soundkarte spielt die Daten aus dem ersten gerade ab, der zweite steht bereits gefüllt zur Verfügung und der dritte wird gerade beschrieben). Dadurch ergibt sich dann die berüchtigte "Latenzzeit", da die Soundkarte ja nicht das spielt, was gerade von dem Programm ausgegeben wird, sondern das, was in einen bereits einige Millisekunden "alten" Puffer geschrieben wurde. Bei drei Puffern mit einer jeweiligen Größe von 128 Samples hat man bei 44,1 KHz Samplefrequenz also eine Latenzzeit von 3*128/44100 Hz also ca. 9 ms. Verkleinert man nun die Puffergröße, die Anzahl der Puffer oder erhöht man die Samplefrequenz bei gleichbleibenden Puffereinstellungen, dann sinkt entsprechend die Latenzzeit.

nordstern schrieb:
Bitte Erklärung, was ist ein sympathetisches Resonanzskript?
Sympathetische Resonanz ist der Effekt der entsteht, wenn man den Dämpfer von den Saiten hebt und sie frei schwingen lässt. (Die Dämpfer werden von den Saiten gehoben, wenn man entweder aufs Pedal tritt oder eine Taste anschlägt. Deshalb kann man den Effekt bereits ohne Pedal innerhalb eines gleichzeitig gespielten Akkordes beobachten, wenn man eine Taste tonlos runterdrückt (oder ausklingen lässt), gedrückt hält und dann entsprechende andere Tasten dazuspielt). Schlägt man nun eine Taste an, dann schwingt die entsprechende Saite in der sich aus Material, Länge und Spannung ergebenden Tonhöhe. Diese Schwingung wird über den Resonanzkörper/Steg auf die anderen Saiten übertragen. Ist die Frequenz einer dieser neuen Saiten nun ein "Oberton" der Grundfrequenz (also der angeschlagenen Saite), dann wird sie davon ebenfalls in mehr oder minder starkem Maße zum Schwingen angeregt. (Besonders die geradzahligen Obertöne, die sog. "Harmonischen"). (Das kann man sich am besten mit einer Wäscheleine vorstellen. Wenn man die auf einer Seite aufhängt und an der anderen mit der Hand Schwingungen erzeugt, dann funktioniert das nur richtig schön mit "Wellen", die genau die Länge der Leine haben, die sie halbieren, dritteln und so weiter. Anregungen dazwischen bringen die Leine nur kurz zum schlabbern, wenn man mit der Anregung aufhört, hängt die Leine sofort durch, bei der richtigen Anregung schwingt sie aber durchaus noch ein paar mal weiter, bevor die "Luft draussen ist"). Eine einzige Taste kann in einem Klavier also eine ganze Reihe von Saiten zum Schwingen bringen, wenn man die Dämpfer weghebt, das kann man am einfachsten testen, indem man mal aufs Pedal tritt, eine einzige Taste anschlägt und dann versucht, den gehörten Klang ohne Pedal zu reproduzieren (Wenn du z.B. ein "C" anschlägst, dann musst du etwas leiser das darüberliegende C (x2) auch noch mit anschlagen, die über diesem C liegende Quint (x3), noch leiser das wiederum darüberliegende C (x4) usw. Irgendwann klingt das dann ganz ähnlich zu dem Tonsalat, den du mit runtergedrücktem Pedal hörst. Genau das simuliert das sympathetische Resonanzskript: Es aktiviert einfach die zu einem gespielten Ton passenden Obertöne in entsprechend abgestufter Lautstärke. Damit kann man vor allem die Pedalsimulation ziemlich realistisch hinbekommen.
Zusätzlich gibt es in modernen Samplern noch einen eingebauten "Faltungsprozessor". Das funktioniert im Prinzip so: Man erzeugt in einem beliebigen Raum (in einer Konzerthalle oder auch im Inneren eines Flügelkorpus) ein beliebiges Geräusch (z.B. Klatschen) und nimmt das auf. Der Faltungsprozessor verrechnet nun diese "Impulsantwort" im Spektralraum mit dem eingehenden Audiosignal, wodurch der Eindruck entsteht, das Soundereignis hätte in dem Raum stattgefunden, in dem der Impuls aufgenommen wurde. (Die Technik ist sehr rechenaufwändig und war bis vor kurzem in Realzeit nicht machbar. Seit ein paar Jahren geht das nun aber und hat im Bereich Reverbs zu einem Quantensprung geführt - ein einfacher delaybasierender Reverbeffekt kann einem Faltungshall in Sachen Realismus nicht annähernd das Wasser reichen. Warum die alten Reverbs immer noch gerne verwendet haben liegt schlicht und ergreifend daran, dass sich das Publikum an dessen Klang gewöhnt hat und man den Faltungshall eigentlich nicht als "Effekt" sondern als "anderen Raum" wahrnimmt, was dann doch recht gewöhnlich und "unspektakulär" ist). Das Nette daran ist, dass das Verfahren nicht nur die Verzögerungszeiten sondern auch die durch die Eigenheiten des jeweiligen Raumes (durch Resonanzeffekte, Auslöschungen, Verschluckung gewisser Frequenzen etc.) hervorgerufenen Klangveränderungen abbildet. So kann man also einen Impuls im inneren eines Flügels aufnehmen und den Klang damit so abändern, als käme er aus dem Inneren des Flügelgehäuses. Ein sehr nettes Piano, das sich alle diese Effekte zunutze macht ist das Hybrid Piano: Dort wurden die Saiten eines Flügels separat in einem schalltoten Raum aufgenommen. (Da der nur von den Saiten erzeugte Ton wesentlich weniger komplex ist, als der sich normalerweise ergebende Gesamtklang, kann man den Ton nach ein paar Sekunden problemlos loopen. Deshalb (und da durch Verwendung eines sympatetischen Resonanzskripts auch keine extrigen "Pedal up samples" gebraucht werden,) passt das gesamte Piano mit 20 Layers bei mehr als 1,5 GB Speicher komplett ins RAM, man braucht also kein Disk-Streaming). Die Samples an sich klingen für sich allein erst mal ziemlich be...scheiden, sobald man die Saiten dann aber per Faltung im richtigen Korpus erklingen lässt, klingt das Ergebnis schon ziemlich überzeugend. (Dadurch, dass der Körper auf unterschiedlich laute Anregungen jeweils subtil unterschiedlich reagieren kann, hat man so nicht "bloß" die 20 bei den Saiten aufgenommenen Layers, sondern im Grunde für jeden der 128 Anschlagswerte einen wirklich anderen Klang). Den gesamten Flügel dann noch wiederum per Faltung in einen netten Konzertsaal gestellt und die Sache fängt an richtig Spaß zu machen. Ich bin mir nicht sicher, ob ich das schon "Physical Modelling" nennen würde (sowohl die Saiten als auch die jeweiligen Räume sind ja durch Samples festgehalten, der Gesamtklang wird aber nach am "Original" angelehnten Regeln zusammen gebaut, es ist auf jeden Fall ein ziemlich interessanter Mix aus den momentan verfügbaren Möglichkeiten).

Grüße,
NothanUmber
 
NothanUmber schrieb:
vermutlich LIFO-mäßig
das ist übrigens ein Schmarrn, meine natürlich FIFO (also eine Queue), komme da immer durcheinander, ob man das jetzt als "das was gerade erst reingelegt wurde kommt als erstes wieder raus" (falsch) oder als "das was als erstes reingelegt wurde (also das älteste), wird als erstes wieder rausgenommen" (richtig) interpretieren muss :redface:, denke lieber in Stacks und Queues, da kann man nicht so leicht durcheinander kommen :)


Nochmal zu den Hybrid Pianos, die obige Beschreibung war nicht ganz richtig, zusätzlich zur Faltungssimulation wurde ein Teil der Körper-Resonanz bereits in einem aufwändigeren (also (noch) nicht realzeitfähigen) Verfahren vorab in die Samples mit eingerechnet. (Die Faltungssimulation wird dann in einer Sidechain dazugemischt, um dem Klang "Leben" einzuhauchen - jeder Ton einzeln in einem Körper aufgenommen und dann nachträglich zusammengemischt klingt halt anders, als wenn man den Gesamtklang sich in diesem Körper ausbreiten lässt (durch resonanzbedingte Verstärkungen und Auslöschungen schon im Klangkörper). Ausserdem reagiert der Körper bei verschieden lauten Signalen (aus demselben Grund) leicht unterschiedlich. Wenn man den gesamten Körperanteil in die Samples mit reinrechnen würde, gingen diese Komponenten verloren, das Ergebnis würde "statischer" klingen und man hätte klar abgegrenzte Stufen bei den Layerübergängen (wenngleich die bei 20 Layers schon recht klein sind))
Hier eine Beschreibungsübersetzung, der einzelnen "Zombie-Flügel" aus der Anleitung (habe selber nur Set Nr. 2, da es den Rest noch nicht zum Runterladen gibt, das finde ich aber auch eh das Schönste von den vieren :) ):

* Piano 1: Körperlose Saiten mit Spektralkomponenten von Yamaha und Bösendorfer Flügeln. Gelooped, 20 Layers, 1,2 GB
* Piano 2: Kombination zweier Steinway Flügelgehäuse mit einer schönen dunklen, weichen Seite und etwas mehr "Biss" in den lauteren Regionen. Gelooped, 20 Layers, 1.7 GB
* Piano 3: "überdimensionaler" ("inflated tack"?) Bösendorfer Flügel in einer kleinen Halle mit merklicher Verstimmung. Gelooped, 20 Layers, 900 MB
* Piano 4: Ungeloopte, gehäuselose Saiten mit Körpercharakteristiken von Bösendorfer und Yamaha Flügeln, 20 Layers, 3,4 GB

NothanUmber
 
Hallo!

@ti2de:
ti2de schrieb:
Vielen Dank. Sieht interessant aus. Wenngleich immer noch etwas teuer. Weniger Kanäle, geringerer Preis wäre mir lieber.
Gerne. Etwas in der Qualitätsstufe mit weniger Kanälen, aber billiger, habe ich bislang nicht entdeckt! Entweder die haben dann langsamere DSPs/Wandler/Speicher und das treibt die Latenz hoch (Siehe NothanUmbers Erklärung 2 post weiter unten "radar74 redet da von Audio-Puffer..."'), und/oder sie laufen nicht über FireWire, sondern USB. Und diese preisgünstigeren können dann alle kein USB2.0 Protokoll, sondern nur das ältere USB1.1 (Oder war das 1.2??) = ziemliche Katastrophe für die Latenz. FireWire ist ja die schnellste externe Schnittstelle, USB2.0 liegt etwas darunter, aber keine Häuser. Aber USB1.1 hat nur einen Bruchteil der Datenrate wie FireWire oder USB2.0.

Grüße,
nordstern
 
Hallo!

@NothanUmber:
Erstmal vielen Dank für deine geduldigen und ausführlichen Erklärungen!! :great:
Ich hoffe, wir schrecken jetzt niemand mit zu tiefgreifenden technischen Erläuterungen ab! ;)
NothanUmber schrieb:
Das liegt daran, weil Prozesse unter Windows sich die Soundkarte normalerweise exklusiv reservieren.
Got it! Aber gibts da vielleicht einen billigen (oder sogar Freeware) Softwareworkaround, der den Zugriff der Hosts auf die Soundkarte verwaltet und verhindert, daß die sich den Zugriff exklusiv krallen?? Echo Indigo klingt gut, aber ich vermute, die wird teuer sein.
NothanUmber schrieb:
Dabei müssen die Samples natürlich nicht komplett im Speicher gehalten werden, sondern minimal der Teil, der noch nicht gespielt wurde.
Sorry, daß ich da nochmals rückfragen muß. Was meinst du genau mit "der noch nicht gespielt wurde"?? Ich dachte, die Samples wandern überhaupt erst dann in den DFD-Puffer, wenn eine Taste gedrückt wird. Und wie sollte das System wissen, weche Noten ich noch spielen werde?
NothanUmber schrieb:
Ist der DFD Puffer viel zu klein, dann minimiert das natürlich die maximale Polyphonie.
Kommen dann Tonaussetzer (In den akutellst angespielten Noten), wenn der DFD-Puffer zu klein ist, oder sinkt nur die Polyphonie? Kann man den DFD-Puffer größenmäßig selbst einstellen? Und falls ja: Wenn man bewußt eine verringerte Polyphonie in Kauf nimmt, sinkt dann die Gefahr möglicher Tonaussetzer?

Btw, wenn ich von 200 oder 400 Stimmen Polyphonie lese: Mein Clavia Nord G2 Modular mit DSP-Erweiterungsboard schafft maximal 32fache Polyphonie. Ohne Erweiterung wären's 16 maximal! Und für einen "echten" Synth ist das gar nicht so wenig! Sicher, Piano sind andere Maßstäbe. Aber ich nehme an, nachdem alle Stagepianos maximal 128fache Polyphonie bieten (Außer Gem), müßte das reichen, oder?
NothanUmber schrieb:
radar74 redet da vom Audio-Puffer.
Das klärt meine ursprüngliche Frage! Na klar, daß ich da verwirrt war, wenn ich an Softwarepiano-Puffer im RAM dachte und es um den Soundkartenpuffer geht. ;)
NothanUmber schrieb:
Verkleinert man nun die Puffergröße, die Anzahl der Puffer oder erhöht man die Samplefrequenz bei gleichbleibenden Puffereinstellungen, dann sinkt entsprechend die Latenzzeit.
Claro, wirft aber wieder eine neue Frage auf: Wenn ich zwecks Latenzverbesserung die Puffergröße verringere, welchen Nachteil hab' ich dann? Vermutung: Tonaussetzer wenn der Puffer ausläuft? Und welchen Nachteil bringt die Erhöhung der Samplefrequenz auf z.Bsp. 96 kHz? Da müßte ja dann die Latenz sinken und der gleichgroß gebliebene Puffer dennoch nicht leerlaufen. OK (Schwerstes Grübeln!), höhere Samplefrequenz bedeutet, der Puffer muß öfters gefüllt werden. Allerdings könnte er ja dann kleiner sein, weil das jeweilige Sample eine geringere Zeitspanne umfaßt. Oder nicht??? Zusammengefaßt laufen meine Fragen auf die Kernfrage zu: Kann ich da bei einer Karte per Setting viel verbessern oder bleibt es letztlich hauptsächlich eine Frage der Soundkartenqualität? (Wie schnell sind Wandler und Speicher?)

Noch eine Frage zu (möglichen) Tonaussetzern: Sehe ich das jetzt richtig, daß die sowohl auf Seiten der Soundkarte, als auch auf Seiten des Softwareinstruments=Programms=RAM auftreten können? Also: RAM liefert keinen ununterbrochenen Datenfluß zur Soundkarte, da z.Bsp. HD zu spät Samples anlieferte. Oder Soundkarte hätte ein völlig Aussetzer freies Digitalaudiosignal zur Verfügung, aber kann es (Bei eingestellte geringer Latenz) nicht schnell genug D-A wandeln?? Damit hätte man das Problem, irgendwie herausfinden zu müssen, ob für Tonaussetzer nun die Soundkarte oder das PlugIn davor (Mit allem was dazugehört: HD-streaming, RAM...) verantwortlich ist. Dass durch Busüberforderung (Z.Bsp. durch Multitasking) Probleme entstehen könnten, ist mir ohnehin klar und ich laß das mal weg.

Sympathetisches Resonanzskript: Alles klar! Vollkommen verstanden und keine Rückfragen! Klingt sehr interessant! Werde mir mal die Hybrid-Piano mp3s auf postpiano anhören.

Grüße und nochmals herzlichst danke,
nordstern
 
@ alle:

Bemerkte eben, daß dieser thread, den ja ich selbst eröffnete, inzwischen aus 74 posts besteht und 1.467 Zugriffe (Stand 10.3. nächtens) verzeichnet. Mehr als der Digitalpiano Review. Wooow!! :great: und :surprised

Die Frage nach Software PlugIns für EPs im Vergleich zu Stage-Pianos oder echten Vintage EPs muß einen ziemlichen Nerv treffen und auf allgemeines Interesse stoßen! Dabei war mein Interesse beim Eröffnen des threads ein schnöde eigennütziges, ob ihr mir bei meiner eigenen Wahl mit Tips zu den jeweiligen Pro und Contras weiterhelfen könnt. ;)

Grüße,
nordstern
 
@NothanUmber:
Hallo, noch was...
NothanUmber schrieb:
Nun gibt es Karten wie die Echo Indigo, die das Problem dadurch umgehen, dass sie mehrere "virtuelle Soundkarten" zur Verfügung stellen...
Hab eben die Echo-HP durchstöbert (Ich recherchier' mich noch zu Tode ;) ). Von den noch erzeugten Karten gibt's da mal die MiaMidi Soundkarte. Bei der ist diese virtuelle Soundkarten-Sache explizit angegeben "multi-client driver". Die Karte ist mir aber punkto Ausstattung und Tonqualität etwas zu schwachbrüstig. Hab' dann die Gina3G entdeckt. Scheint exakt das Passende für mich. Guckst du vielleicht mal, was du dazu sagst: http://www.echoaudio.com/Products/PCI/Gina3G/index.php

Die 333,- Euro wären voll OK, ich war ja auf die RME HDSP9632 eingeschworen, die mir 400,- kosten würde. Die Frage ist: RME hat ja den Ruf, Karten in höchster Qualität zu bauen. Wie ist das mit Echo? Wie sind die qualitativ einzuschätzen?

Was mich außerdem verwirrt: Bei den Specs der Gina3G steht nix von "multi-client driver", sondern nur von "SuperChannel™ resource sharing: Split I/O between multiple applications ". Ist das jetzt das Gleiche??? Ich hab' versucht, daß anhand des downgeloadeten Manuals zu klären. Auch kein Durchbruch: Im Appendix werden die Vorteile der "multi-client" Möglichkeit beschrieben, aber im ganzen Manual davor gibts nichts dazu. Da müßte doch etwas zur Bedienung/zum Setting zu lesen sein, wenn die Gina3G das kann!?

Weitere Verwirrung: Wenn ich das jetzt irgendwie richtig verstanden hab', dann funktioniert dieses "multi-client" nur per WDM Treiber. Andererseits dachte ich, daß man wesentlich bessere Latenzwerte per ASIO Treiber bekommt. ???????

Und noch was ist mir unklar: Die Echo-Soundkarte hat für den Mix der "multi-client" Option natürlich eine Bedienoberfläche. Kann ich dann deren Regler per Midi-Controller, z.Bsp. Behringer BCR-2000, betätigen??? Das wäre äußerst hilfreich und ein grober Nachteil, falls nicht.


Meine Güte, ist das alles komplex!! Jedesmal wenn ich mir ein neues Gerät kaufe, habe ich nachher den Eindruck, ich hätte ein halbes Technik-FA Studium besucht. ;)

Grüße,
nordstern
 
Uff, das sind aber viele Fragen... Stress...

nordstern schrieb:
Got it! Aber gibts da vielleicht einen billigen (oder sogar Freeware) Softwareworkaround, der den Zugriff der Hosts auf die Soundkarte verwaltet und verhindert, daß die sich den Zugriff exklusiv krallen??
Bei MacOS X gibt es sowas frei Haus (in der CoreAudio Architektur ist ein HAL (Hardware Abstraction Layer) eingebaut, welches die Hardware virtualisiert und so beliebig vielen Applikationen zur Verfügung stellen kann). Für Windows kenne ich so eine Lösung momentan nicht, halte mich also auf dem Laufenden, falls du in die Richtung aber was finden solltest... :)

nordstern schrieb:
Echo Indigo klingt gut, aber ich vermute, die wird teuer sein.
;) (<-- Link :) ) Ist halt ne Cardbus Karte, für Notebooks optimal, Desktop-Rechnern fehlt meistens der entsprechende Slot.

nordstern schrieb:
Sorry, daß ich da nochmals rückfragen muß. Was meinst du genau mit "der noch nicht gespielt wurde"?? Ich dachte, die Samples wandern überhaupt erst dann in den DFD-Puffer, wenn eine Taste gedrückt wird. Und wie sollte das System wissen, weche Noten ich noch spielen werde?
Nuja, der Sinn des Streamings ist es doch, die Daten nachdem man die Taste gedrückt hat, aber bevor sie gespielt werden sollen heranzuschaffen (um dafür genügend Zeit zu haben gibt es den besagten Preload-Puffer). Und sobald ein geladener Teil des Samples abgespielt wurde, kann er (wenn der DFD-Puffer knapp wird) halt wieder überschrieben werden (gegebenenfalls mit weiteren Daten desselben Samples, die Ausklingphase einiger Basstöne ist ja fast eine Minute lang, da wird der DFD-Puffer während des Spielens ständig "nachgefüllt" (und dabei gegebenenfalls der Anfang des selben Samples bereits wieder überschrieben), die durch den Preload-Puffer verschaffte Zeit ist hauptsächlich dafür da, die Seekzeit zu kompensieren, wenn die Platte dann mal lädt, tut sie das für gewöhnlich wesentlich schneller, als der Abspielcursor voranschreitet).

nordstern schrieb:
Kommen dann Tonaussetzer (In den akutellst angespielten Noten), wenn der DFD-Puffer zu klein ist, oder sinkt nur die Polyphonie? Kann man den DFD-Puffer größenmäßig selbst einstellen? Und falls ja: Wenn man bewußt eine verringerte Polyphonie in Kauf nimmt, sinkt dann die Gefahr möglicher Tonaussetzer?
Wenn du den DFD-Puffer zu klein einstellst, kannst du die Polyphonie erst gar nicht über den sich daraus ergebenden maximalen Wert anheben (bei 120 MB DFD-Puffer 480 Stimmen). Wie gesagt: Falls es zu Tonaussetzern kommt, kann man deren Häufigkeit durch einen größeren DFD-Puffer minimieren, nachdem man die aber nach Möglichkeit gar nicht haben will, muss man eh vom worst case ausgehen und dazu reicht es, dass der DFD-Puffer minimal so groß ist, wie es für die gewünschte Anzahl von Stimmen notwendig ist.

nordstern schrieb:
Btw, wenn ich von 200 oder 400 Stimmen Polyphonie lese: Mein Clavia Nord G2 Modular mit DSP-Erweiterungsboard schafft maximal 32fache Polyphonie. Ohne Erweiterung wären's 16 maximal! Und für einen "echten" Synth ist das gar nicht so wenig! Sicher, Piano sind andere Maßstäbe. Aber ich nehme an, nachdem alle Stagepianos maximal 128fache Polyphonie bieten (Außer Gem), müßte das reichen, oder?
Hm, mit der Resonanzsimulation kommt man schnell auf ziemlich hohe Stimmenzahlen (wenn du zu jedem Ton sagmamal 10 Obertöne modelliert und bei runtergetretenem Pedal einen schnellen chromatischen Lauf über zwei Oktaven in den tiefen, lange ausklingenden Registern spielst, dann kommen schon 240 Stimmen zusammen...) Kontakt 2 würde, wenn du die maximale Polyphonie auf 200 Stimmen begrenzst, die ersten gespielten Noten dann mehr oder minder subtil ausblenden, bei soviel "Klangnebel" besteht die Chance, dass man das dann gar nicht mehr so merkt. Ich hab 400 Stimmen eingestellt und fahre damit eigentlich ganz gut.

nordstern schrieb:
Wenn ich zwecks Latenzverbesserung die Puffergröße verringere, welchen Nachteil hab' ich dann? Vermutung: Tonaussetzer wenn der Puffer ausläuft? Und welchen Nachteil bringt die Erhöhung der Samplefrequenz auf z.Bsp. 96 kHz? Da müßte ja dann die Latenz sinken und der gleichgroß gebliebene Puffer dennoch nicht leerlaufen. OK (Schwerstes Grübeln!), höhere Samplefrequenz bedeutet, der Puffer muß öfters gefüllt werden. Allerdings könnte er ja dann kleiner sein, weil das jeweilige Sample eine geringere Zeitspanne umfaßt. Oder nicht???

Zusammengefaßt laufen meine Fragen auf die Kernfrage zu: Kann ich da bei einer Karte per Setting viel verbessern oder bleibt es letztlich hauptsächlich eine Frage der Soundkartenqualität? (Wie schnell sind Wandler und Speicher?)
Wenn du den Puffer verkleinerst oder die Samplefrequenz erhöhst, hat sowohl die Soundkarte als auch das Programm weniger Zeit, die Audiodaten zu verarbeiten. Die wenigsten (zahlbaren) Soundkarten schaffen eine Latenzzeit von unter einer Millisekunde (bei der Indigo ist bei ca. 2-3 ms Schluss). Wenn man ein entsprechend aufwändiges Programm benutzt (etwa additive Synthese mit vielen Partialwellen, aufwändige "physical modelling" Effektplugins etc.), kann das natürlich eine noch größere Latenzzeiteinstellung notwendig machen. In beiden Fällen kommt es bei einer zu geringen Latenzzeit zu Aussetzern/Knacksern, da entweder die Soundkarte oder das Programm nicht mehr mitkommt. Die Soundqualität hat mit der Puffergröße nichts zu tun (solange ein zu kleiner Puffer nicht zu Aussetzern führt), eine höhere Samplefrequenz kann aber schon zu einem besseren Klang führen, da man so z.B. digitale Aliasingeffekte durch die höhere Auflösung nicht so wahrnimmt (natürlich nur, wenn der Synthesizer die Audiodaten dann auch wirklich in doppelter Horizontalauflösung liefert und nicht bloß "streckt". Viele Synthesizer bieten z.B. eine "Oversampling" Option, welche bei höherer Samplefrequenz (und auch bei höherer Bittiefe (z.B. 24 anstatt 16 Bit), also besserer Vertikalauflösung) effektiver wird).

nordstern schrieb:
Damit hätte man das Problem, irgendwie herausfinden zu müssen, ob für Tonaussetzer nun die Soundkarte oder das PlugIn davor (Mit allem was dazugehört: HD-streaming, RAM...) verantwortlich ist.
Das Problem ist an sich recht einfach: Die minimale Latenzzeit der Soundkarte ist eine (treiberabhängige, also für verschiedene ASIO,WDM, WDMKS,GSIF etc. Treiber potenziell unterschiedliche) Konstante, die man leicht mit einem wenig anspruchsvollen Synthesizerprogramm herausfinden kann. Unter diesem Wert braucht man es (mit dem gleichen Treiber) gar nicht erst versuchen. Wenn ein aufwändigeres Programm mit der minimalen Latenzzeit nicht läuft, dann muss man halt weiter nach oben gehen.

nordstern schrieb:
Was mich außerdem verwirrt: Bei den Specs der Gina3G steht nix von "multi-client driver", sondern nur von "SuperChannel&#8482; resource sharing: Split I/O between multiple applications ". Ist das jetzt das Gleiche???
Hab mir das Manual der Gina jetzt nicht angeschaut, "SuperChannel" heisst bei den Echo Karten aber das umgekehrte: Man kann mehrere Stereo-kanäle zu einem Surround-"Multikanal" zusammenfassen (und dann z.B. in Sonar direkt als einen Surroundkanal ansprechen). Weiß nicht, ob die Gina3G multi-client Unterstützung bietet, steht auf jeden Fall nicht so explizit dabei, wie auf der Indigo Produktseite.

nordstern schrieb:
Weitere Verwirrung: Wenn ich das jetzt irgendwie richtig verstanden hab', dann funktioniert dieses "multi-client" nur per WDM Treiber. Andererseits dachte ich, daß man wesentlich bessere Latenzwerte per ASIO Treiber bekommt. ???????
Ja, das geht leider nur mit WDM. ASIO ist nicht notwendigerweise die beste Lösung, bei WDM muss man zwischen dem umständlichen und langsamen Basismodus und dem Kernel Streaming Modus unterscheiden. In Letzterem kann die Software (wie bei ASIO) ohne große "Zwischenschichten" direkt mit der Soundkarte kommunizieren und ist so (je nach Treiberimplementierung) vergleichbar schnell zu ASIO. (WDM KS muss sowohl von der Soundkarte als auch dem jeweiligen Programm unterstützt werden. Derzeit gibt es leider nur wenig Software, die das tut - u.a. Sonar).

nordstern schrieb:
Und noch was ist mir unklar: Die Echo-Soundkarte hat für den Mix der "multi-client" Option natürlich eine Bedienoberfläche. Kann ich dann deren Regler per Midi-Controller, z.Bsp. Behringer BCR-2000, betätigen??? Das wäre äußerst hilfreich und ein grober Nachteil, falls nicht.
Also zumindest bei der Echo Indigo geht das meines Wissens nach nicht. (Natürlich könntest du dir umständlich eine midigesteuerte GUI-Automatisierung der Mixer-Bedieneroberfläche mit einem Makrorekorder basteln, ist aber vermutlich nicht optimal).

NothanUmber
 
P.S.:
NothanUmber schrieb:
Also zumindest bei der Echo Indigo geht das meines Wissens nach nicht. (Natürlich könntest du dir umständlich eine midigesteuerte GUI-Automatisierung der Mixer-Bedieneroberfläche mit einem Makrorekorder basteln, ist aber vermutlich nicht optimal).
Was aber problemlos geht: Den Mixer überall in der Defaultstellung lassen und die Aussteuerung über die Masterregler der jeweiligen Syntesizer/Hosts vornehmen, die lassen sich in der Regel per MIDI automatisieren.

Und nochmal zur Gina-Karte: Im Gegensatz zur Indigo hat die ja verschiedene Ausgänge. Davon kannst du natürlich jeden (sowohl bei ASIO als auch bei WDM) jeweils einem eigenen Programm zuordnen und dann falls gewünscht die externen Kanäle direkt in einem Audiomischer abmischen - da hast du dann direkt deine Regler. (Von Behringer gibt es da z.B. den BCA2000, der MIDI- und Audiofunktionen bietet. (keine Ahnung, ob der toll ist)

NothanUmber
 
noch ein P vor dem P und S:

NothanUmber schrieb:
Hm, mit der Resonanzsimulation kommt man schnell auf ziemlich hohe Stimmenzahlen (wenn du zu jedem Ton sagmamal 10 Obertöne modelliert und bei runtergetretenem Pedal einen schnellen chromatischen Lauf über zwei Oktaven in den tiefen, lange ausklingenden Registern spielst, dann kommen schon 240 Stimmen zusammen...) Kontakt 2 würde, wenn du die maximale Polyphonie auf 200 Stimmen begrenzst, die ersten gespielten Noten dann mehr oder minder subtil ausblenden, bei soviel "Klangnebel" besteht die Chance, dass man das dann gar nicht mehr so merkt. Ich hab 400 Stimmen eingestellt und fahre damit eigentlich ganz gut.
Wenn du ein sog. "Self Mask" Skript verwendest, kannst du die Polyphonie nochmal deutlich senken. Das Skript macht folgendes: Wenn eine Taste angeschlagen werden soll (sei es direkt oder über das Resonanzskript) und es klingt bereits ein anderer, leiserer Ton der selben Tonhöhe, dann wird der leisere Ton "ausmaskiert", d.h. die Wiedergabe des leiseren Tons gestoppt und nur noch der lautere gespielt, wodurch eine Stimme frei wird. (Das ist auch realistisch, da bei einem Klavier eine Saite ja auch nur in einer Lautstärke schwingen kann, wenn sie gerade laut schwingt und man sie leise nochmals anregt, wird sie laut weiterschwingen, was sie vorhin jedoch nur leise zu hören und bekommt einen starken Impuls, dann ist sie fortan laut und nicht laut und leise zu hören.) Dadurch kann man die maximale Polyphonie weitgehend beschränken (maximal gibt es dann 88 Pedal Up Samples, je nach Sampleset noch 88 Pedal Down Samples und bis zu 88 Release Samples, die gleichzeitig zu spielen sind. Dieser "worst case" ist aber relativ unwahrscheinlich: Dazu müsste man im erst mal ohne Pedal alle Tasten gleichzeitig drücken, dann aufs Pedal treten (nun würden zu den bereits klingenden Pedal Up Samples über das Resonanzskript noch zusätzlich automatisch die Pedal Down Samples dazugelayert) und dann alle Tasten gleichzeitig loslassen, so dass zusätzlich nochmal 88 Release Samples darübergeblendet werden müssten... eher unwahrscheinlich... vor allem wird man Resonanzskripts eher selten in Kombination mit Pedal Down Samples verwenden, meistens nimmt man entweder oder.) Somit kommt man realistisch meisten mit unter 100 Stimmen aus, mit 200 ist man auf jeden (realistischen) Fall auf der sicheren Seite. (Es sei den, man verwendet "blending", eine Technik, durch die, wenn man eine Lautstärke zwischen zwei Samples verwendet, die beiden benachbarten Samples überblendet werden. Damit verdoppelt sich die Anzahl der notwendigen Stimmen dann wieder).

Disk-Streaming hat schon so seine Tücken und verlangt für wirklich aussetzerfreies Spiel ein dahingehend optimiertes System (was aber mit etwas Planung und Sorgfalt schon problemlos hinzukriegen ist). Da hat man es mit einem RAM-only tauglichen Sampleset wie dem Hybrid-Piano schon leichter, dort reduziert sich die Frage, ob's läuft oder nicht auf einen Punkt: Sind noch (je nach Sampleset) ca. 1,5 bis 2 GB frei oder nicht. (*) (Wenn man Kontakt die vollen 1,5-2 GB geben kann, da man sagmamal 2 bis 3 GB RAM drin hat, dann müsste so ein Setup auch auf einer komplett unoptimierten Windowsinstallation aussetzerfrei laufen, da kann derder Virenscanner auch gerne mal zwischendurch die Festplatte durchkämmen, wenn er das unbedingt gerade für notwendig hält. (Ok, ein Prozess sollte nicht plötzlich beschließen, jetzt gerade mal 90% der CPU Zeit verbraten zu müssen, dann wird's z.B. wegen des recht rechenaufwändigen Faltungseffektes vermutlich doch Aussetzer geben. Bei einem schnellen Rechner sollte die samplergenerierte CPU-Belastung aber unter 50% bleiben, von daher dürften normal mitlaufende "usual suspects" an sich keine Probleme machen.))

NothanUmber

(*) Das geht davon aus, dass man Kontakt entweder im Standalone Modus benutzt oder einen nicht all zu RAM-hungrigen Host verwendet - wobei in 2 GB müsste z.B. Sonar+Hybrid Piano 1,2 oder 3 schon auch reinpassen. Ansonsten müsste man dann entweder auf einen Mac ausweichen, oder warten, bis Kontakt auch als native 64-Bit Anwendung unter Win XP 64 (oder Win Vista 64) zur Verfügung steht. (z.B. Sonar gibt es schon als 64 Bit Anwendung). Dann ist die 2 GB Beschränkung erst mal Geschichte und man kann jedem Prozess weit mehr Speicher zuweisen, als man sich in den nächsten paar Jahren leisten kann.
Für Win XP (die normale 32 Bit Version) gibt es übrigens auch eine Ausnahme von der Regel :) (man kann in der boot.ini eine Änderung vornehmen, dass den Userprozessen 3 GB zugeteilt werden sollen, hier die entsprechende Option. Muss aber vom Programm unterstützt werden, da ich nicht mehr als 2 GB RAM habe (hab jetzt aber zumindest mal auf 1280 MB aufgerüstet), konnte ich das mit Kontakt noch nicht ausprobieren.
 
ein weiteres P für die Sammlung:

NothanUmber schrieb:
Ja, das geht leider nur mit WDM.

Ist natürlich unter den speziellen Text geschrieben ein Schmarrn (hatte die Fragen vorher im Schnelldurchgang abgehakt, wen man ohne Hirn postet brauchts halt ein paar Ps mehr ... :redface: Tatsächlich setzt nur die SuperChannel Extension WDM voraus, weil das im WDM-Treiber mit eingearbeitet ist (weiß garnicht, ob native Surround Kanäle im ASIO Standard überhaupt vorgesehen sind), die Multi-Client Erweiterung der Indigo Karte funktioniert natürlich auch mit ASIO - ich verwende das ja ständig so )

NothanUmber
 
Hallo!

@NothanUmber:
NothanUmber schrieb:
Uff, das sind aber viele Fragen... Stress...
Umso herzlicher ein dickes Danke für deine ausführlichen Antworten! :great: :great: :)
Ich denke, jetzt hab' ich den Überblick. Zumindest soweit, mich für die richtige Systemkonfiguration entscheiden zu können. Danke auch für den MS boot.ini Link.
NothanUmber schrieb:
von daher dürften normal mitlaufende "usual suspects" an sich keine Probleme machen.))
Die haben dennoch ein sehr kurzes Leben bei mir, schon prinzipiell! Ein während der letzten 10 Jahre mit Fleiß eingeübter Reflex. ;) Immerhin wurde ich vor kurzem in einem englischsprachigen Musikerforum geehrt mit "Slayer Of Not Welcome TSR Processes. Consider yourself knighted!". ;)

Dieses Hybrid-Piano klingt sehr interessant. Weißt du zufällig, wie es derzeit mit hochwertigen Software-Cembali aussieht? Müßte eigentlich wesentlich einfacher sein, da die ja nicht anschlagdynamisch sind. Wahrscheinlich ist dafür eine schlichte Sample Lösung das Zielführendste. Habe die "Historic Keyboards" auf postpiano.com gesehen, der Preis ist absolut ok. Sind die empfehlenswert oder gibt's da noch Hochwertigeres? Oder Freeware????

Grüße,
nordstern
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben