bitrate,samplerrate,..?

  • Ersteller alphavictim
  • Erstellt am
Auch beim Thema Recording an sich gibt es hier Vermischungen. Plugins wie GuitarRig oder auch andere Emulationen eignen sich eigentlich nicht für den Recordingeinsatz. Da durch solche Systeme eine extreme Latenz erzeugt wird. Latenz ist der Zeitversatz vom Aufnahmewandler des Interfaces bis zur Ausgabe des Signals über die Abhöre. Ein Echtzeitspielen mit gleichzeitiger Aufnahme mehrerer Tracks ist hier nicht zu empfehlen und oft auch nicht machbar.

Eieieiei, langsam.
Direct Monitoring ist dir noch nicht begegnet vermute ich? ;)


Ansonsten seh ich den Rest aber (mehr oder weniger) ähnlich.
 
Doch sicher gibt es direkt Monitoring... bieten viele Sequencer an aber das hat mit der Latenz des Systems nichts zutun.

eine Problematik... Nach den Basics der Aufnahmetechnik (alle hörn tape retörn :D) ist ja ein klassisches Monitoring am Rechner in Echtzeit eh nicht möglich. Hier wird ja quasi ein ... alle hörn tape send ... realisiert. Alle bereits existierenden Tracks werden vorgeladen und auf dieses preloading muss man dann Singen oder Spielen. Ergebnis davon ist eine "falsche" Spur, die im Anschluss um genau diesen Latenzwert zurück geschoben wird. Das tun übrigens nicht alle Sequencer. Bei manchen muss man die eben aufgenommene Spur manuell an die richtige Position schieben damit sie im Timing des Songs wieder passt.

andere Problematik... egal mit welcher Monitoringart man auch immer recorded, die Latenz des Sequencers und der Plugins ändert sich dadurch nicht.
Wenn du an deiner Gitarre eine Saite anzupfst, wird immer eine Zeit vergehen müssen, bevor du das Ergebnis der Berechnung durch das Plugin hören wirst. Schon allein wenn du GuitarRig im StandAlone Mode betreibst, ist diese Latenz hörbar. Je mehr Plugins gleichzeitig laufen, umso höher ist der Zeitversatz. Du kannst natürlich die Latenz manuell über den Asio Treiber so weit wie möglich nach unten setzen. Hier wirst du aber feststellen, das es ab einer gewissen Einstellung zu Knacksgeräuchen oder zu Aussetzern im Signal kommt. Hier werden unter einer bestimmten Latenz einfach Bits oder Bytes ignoriert, weil der Rechner dazu gezwungen wird etwas zu berechnen, was eigentlich viel länger dauern würde. Also werden Signalanteile einfach weggelassen um Echtzeit zu gewährleisten. Das ist natürlich für das Recording völlig unbrauchbar.

Wenn ich von Latenzen spreche, geht es mir um einen Bereich von 50ms bis etwa 200ms. Alles was darüber hinaus geht ist eh jenseits von Gut und Böse.

Grüßle
 
Doch sicher gibt es direkt Monitoring... bieten viele Sequencer an aber das hat mit der Latenz des Systems nichts zutun.

Äh, nein, das bieten in erster Linie die Hardware und ihr Treiber an. Dem Sequencer kann das prinzipiell egal sein wie ich abhhöre, wenn ich sein Software-Monitoring nicht brauche, aktiviere ich es nicht.

Wenn ich von Latenzen spreche, geht es mir um einen Bereich von 50ms bis etwa 200ms. Alles was darüber hinaus geht ist eh jenseits von Gut und Böse.

Also wenn du Latenzen von 50-200ms als normal und alltägliches Problem ansiehst, stimmt irgendwas mit deinen Konfigurationen nicht!
Latenzen spielen sich bei aktueller Technologie zwischen annhähernd 0 und vielleicht 10ms ab.
Und wenn es der Rechner dabei nicht mehr packt (Buffersize etc.), dann muss man eben die Latenz hochschrauben und Direct/Hardware-Monitoring verwenden.
Und das Ergebnis stimmt dann auch im Sequencer. Latenzausgleich dürfte ja auch schon seit ein paar Jährchen Standard sein...Freeware-Gedöhns mal außen vor.
 
Latenz hin und her: Ich nehme grundsätzlich zum Amp bzw. Effektpedal immer das cleane Signal zusätzlich mit auf. Fürs Monitoring hat man dann den Amp oder das Effektgerät (so wie man das live machen würde) und beim Mischen hat man immer noch die Möglichkeit, das cleane Signal durch eine AmpSim zu schicken oder mittels Reamping einen neuen Sound zu verpassen.

Und da finde ich z.b. GuitarRig nicht schlecht. Man muss es am besten von 0 an neu einstellen, die Sounds sind extrem abhängig vom Grundsound der Gitarre und der Aufnahme. Aber es lassen sich gute Ergebnisse damit erzielen.

Latenz ist, meiner Meinung nach, nur ein Faktor für Live-Musiker die Effekte oder Synths brauchen.
Vom Spielgefühl ists schon ab 2ms störend. Kein Thema dass das nicht funktioniert.
 
Zu der Festplattengeschwindigkeit: Was ändert sich denn am am Flaschenhals des Datenbusses zwischen der Platte, dem Ram, der Soundkarte und des Interfaces, wenn man eine höher drehnde Festplatte nimmt? Ich weiß auch nicht, woher du die 1000 Spuren nimmst, das hat niemand behauptet. Wenn ich jemandem so etwas vorrechen (und zeigen will, dass 10000er Platten oder ein RAID0 unnötig sind), dann schaue ich in Test von Festplatten, wo die tatsächliche Schreib/Lese-Rate gemessen wird. Man kann ja beim Kauf etwas drauf achten, dass man eine relativ flotte nimmt, aber dann bekomtm man auch eine "normale" 7200er SATA-Platte die mindestens (also wirklich an den am langsamsten gemessenen Sektoren) 35MB/s = schaffen, also 280MBit/s. Das sind also rund 100 Spuren.
Und welchen bremsenden Bus meinst denn Du? 33MHz und 16Bit (das sind 528 MBit/s) wäre der PCI Bus. Aber was hat der so direkt mit einer SATA-Festplatte zu tun, sofern ich keine PCI-SATA-Controllerkarte benutze? Die SATA-Anschlüsse auf Mainboards hängen normalerweise direkt am Chipsatz, und da herrschen dann doch höhere Geschwindigkeiten. Bei Soundkarte/Interface kommt dann eine langsamere Verbindung is Spiel - aber wie gesagt besteht die Grenze dann doch dort sowieso - wenn du also sagst, dass der "Gesamtbus" das Problem wäre, dann würde mir ein RAID 0 aus zwei 15000er PLatten doch auch nichts nützen. Eine Trennung von Systemplatte und Audiplatte dagegen halte ich für sinnvoll, insbesondere für eine Strörungsfreie aufnahme, weil dann eben Windows und alles andere fröhlich auff C: rumwerkeln kann, und die Audioplatte ungestört aufnehmen kann. Wobei das in der Praxis auch nicht so problematisch ist, wenn man nebebei nicht unnötigen Kram laufen hat oder mein RAM schon voll ist und geswappt werden muss.

Und zur Latenz bei GuitarRig und Co. hat kfir ja schon was gesagt. Also ich habe zuhause gar keinen Gitarrenamp mehr sondern spiele nur noch mit Softwaremodelling. Und das ohne hörbare Latenzen. Und da bin ich bestimtm nicht der einzige, es soll Leute geben, die GuitarRig sogar live benutzen (computer auf der Bühne wäre mir zu kritisch :D) Hab mir grad nochmal die Demo von GuitarRig gezogen (spiele normal revalver). Ich habe kein besonders dolles System (M-Audio Delta 1010LT, AMD Athlon XP 1800+, 512MB RAM), stelle die ASIO-Buffersize auf 512 und spiele so (in meinen Ohren) latenzfrei und auch fehlerfrei. GuitarRig zeigt mir eine Output Latency von 12ms an. Puffer von 256 mit angezeigten 6ms geht auch auch ohne Knacken. Natürlich geht das in einem projekt mit mehreren Spuren, auf denen überall Effeklt sind nicht mehr so einfach, da muss man dann Spuren irgendwann freezen. Aber eben abhängig von meiner rechenpower, da fängt es halt irgendwann an zu stocken und zu knacken. Das DirectMonitring ist in der Tat eine reine HArdware-Angelegenheit (sonst wäre es ja kein DirectMonitoring), aber das nützt mir nichts, wenn ich GuitarRig live spielen will (insofern muss ich da kfir widersprechen, aber wahrscheinlich hatte er das nur missverstanden).

Zu der Problematik der Wanlder im Rechnergehäuse: Grundsätzlich richtig, nenne ich auch immer als Vorteil von externen Interfaces. Aber in der Praxis kann man da nicht Onboardsoundkarten mit allen PCI-Wandlern über einen Kamm scheren. Wie gesagt habe ich eine M-Audio Delta 1010LT, also eher eine Einsteiger-PCI-Recordingkarte, mit Wandlern im Gehäuse. Hab gerade mal eine 16Bit-Aufnahme gemacht von "nichts", also an der Eingangsbuchse, von der ich aufnehme, ist einfach nichts angeschlossen, somit habe ich nur mein Grundrauschen. Und da zeigt mir mein Peakmeter -84dBfs an, RMS rund 93dB. Ich denke, das geht fürs Homerecording in Ordnung ;) Was mich jetzt eher wundert ist, dass du USB-Interfaces so nebenbei erwähnst, obwohl gerade USB unter den von dir gennanten Problemen (geschwindigkeit, begrenzter Bus, mehrere störende Geräte...) nicht so optimal fürs Recorden gemacht ist. Also wenn hier normalerweise jemand kommt und sich unter kritisch-professionellen Kriterien zum Thema Recording äußert, dann sagt der meist, dass USB überhaupt nicht geht :D

Deine Aussagen sind ja an sich nicht alle verkehrt, die technischen Probleme, die du ansprichst, sind ja theoretisch auch teilweise vorhanden - allerdings in der Praxis meist völlig irrelevant.

EDIT:
JayT schrieb:
Vom Spielgefühl ists schon ab 2ms störend.
Hui, dann hast du aber eine sehr feinfühlige Sinneswahrnehmung. Stört es dich auch wenn dein Gitarrenamp mehr als 60cm von Dir entfernt steht (dann hast du nämlich auch mehr als 2ms Latenz ;) )
 
Das DirectMonitring ist in der Tat eine reine HArdware-Angelegenheit (sonst wäre es ja kein DirectMonitoring), aber das nützt mir nichts, wenn ich GuitarRig live spielen will (insofern muss ich da kfir widersprechen, aber wahrscheinlich hatte er das nur missverstanden).

Ja klar, wenn man GR "live" spielt, bringt mir das im Grunde weniger. Zumindest geht mir der Klang des PlugIns beim Direct Monitoring verloren.

Da waren die Gedanken wohl etwas verquer...lassen wir GR beiseite und nehmen Latenz generell ins Visier ;)
 
Das läßt sich ja auch mathematisch formulieren und nachweisen:

von 16 auf 24 bit: 24/16 = 3/2, das entspricht also einer erhöhung um 50%
von 44,1 Khz auf 96 Khz: 96/44,1~= 2,2 also etwa 120% mehr
von 44,1 auf 192 Khz: 192/44,1 ~= 4,4 also etwa 340% mehr

Grüße
Nerezza

Ähm. Nein.

Bei der Abtastrate hat du Recht. Das ein ein Dezimaler Wert, da kann man die Verhältnisse angeben. Die Bittiefe gibt aber nur einen Wertebereich an im Binären System.
Deine Rechnung ist wie: 10 hat zwei Stellen, 100 drei. Also ist 100 um 3/2 größer als 10. 17 Bit ist doppelt so groß wie 16 Bit, 18 Bit viermal (2²). Also ist 24 Bit um den Faktor 2^(24-16)=256 mal größer, wenn mich nicht alles täuscht.
 
Ähm. Nein.

Bei der Abtastrate hat du Recht. Das ein ein Dezimaler Wert, da kann man die Verhältnisse angeben. Die Bittiefe gibt aber nur einen Wertebereich an im Binären System.
Deine Rechnung ist wie: 10 hat zwei Stellen, 100 drei. Also ist 100 um 3/2 größer als 10. 17 Bit ist doppelt so groß wie 16 Bit, 18 Bit viermal (2²). Also ist 24 Bit um den Faktor 2^(24-16)=256 mal größer, wenn mich nicht alles täuscht.

Du rechnest die Anzahl der Möglichen binärkombinationen aus. Die ist aber für Bandbreitenbetrachtungen irrelevant. Mit 24 bit kann ich 2^24 unterschiedliche Werte speichern, aber das macht bei der Übertragung keinen Unterschied. Es bleiben 24 Nullen und einsen, die ich übertrage, nicht 256.

Grüße
Nerezza
 
Du rechnest die Anzahl der Möglichen binärkombinationen aus. Die ist aber für Bandbreitenbetrachtungen irrelevant. Mit 24 bit kann ich 2^24 unterschiedliche Werte speichern, aber das macht bei der Übertragung keinen Unterschied. Es bleiben 24 Nullen und einsen, die ich übertrage, nicht 256.

Grüße
Nerezza

Ich dachte, es geht um die Auflösung, nicht um das Datenvolumen. Es sind 2/3 Nullen und Einsen mehr, aber mehr als eine 2/3 so hohe Auflösung.

Da haben wir uns wohl mißverstanden.
 
Ich dachte, es geht um die Auflösung, nicht um das Datenvolumen. Es sind 2/3 Nullen und Einsen mehr, aber mehr als eine 2/3 so hohe Auflösung.

Ich bezog mich auf Kfirs Post (siehe unten). Wär vieleicht ganz gut gewesen, wenn ich ihn ihn Zitiert hätte :redface:

Hätte ich die Auflösung gemeint hättest Du natürlich recht.

Die 24Bit verbrauchen im Vergleich zu 16Bit natürlich schon mehr Platz (und dadurch auch etwas mehr HD/CPU-Leistung) - aber aus eigener Erfahrung würde ich sagen, dass hier die Samplerate das weitaus kritischere Element ist.
 
Hui, dann hast du aber eine sehr feinfühlige Sinneswahrnehmung. Stört es dich auch wenn dein Gitarrenamp mehr als 60cm von Dir entfernt steht (dann hast du nämlich auch mehr als 2ms Latenz )
Ooops. Hast recht. Da hab ich wohl etwas übertrieben. So bin ich halt *hihi
 
... boar... jetzt habe ich endlich diesen thread wieder gefunden ... :D

um gottes willen wo soll ich denn jetzt anfangen... wir reden hier wohl etwas aneinander vorbei. leider habe ich nicht viel zeit... also folgendes:

raid 0 ja oder nein

ja... denn hier geht es nicht um den stream, den die platte theoretisch auf den bus und zur soundkarte schickt, sondern darum, dass die daten auf einer platte stark fragmentiert abgelegt werden und die mechanik der platte völlig am sender dreht, wenn fragmentierte daten zu einem stream zusammengestückelt werden sollen. je schneller die platte, desto schneller der zugriff auf die fragmente. heißt also, dass hier der zusammenbau zum stream wesentlich schneller von statten geht als bei einer einzelnen, langsamen platte... um irgendwelchen betrachtungen darüber vorweg zu greifen... wir haben hier benchmarks gefahren und festgestellt, dass man hier ab einer bestimmten anzahl an tracks bis zu 35% performancegewinn hat. (raid 0 2xSAS 15k) ... sicher nur ein theoretischer wert, da die fragmentierung der daten ja nicht überall gleich ist. also bitte mit der nötigen gewichtung interpretieren.

datenstrom: platte - controller - bus - soundkarte

wo bitte soll der stream sonst übertragen werden? asio tut genau das!
wir sind hier in einem musikerforum, nicht bei chip online. hier geht es nicht um ein stereo karte von soundblaster sondern um multi i/o systeme (rme hdsp oder madi (56channels oder 128 channels). dieser stream muss wohl oder übel von der platte zur soundkarte übertragen werden und das geht nur über den datenbus des rechners oder hast du einen hardware dma für deine soundkarte eingebaut... dann möchte ich hier nichts gesagt haben.

1000 spuren pro platte

3Gbit ??? taschenrechner hast du... wenn jemand das datenblatt einer festplatte lesen und verstehen kann... was bitte soll dieser jemand in einem thread wie diesem?

ich habe versucht basics zu vermitteln, für leute, die mit diesen ganzen begriffen nichts anfangen können.

latenz von cpu systemen < 2ms

... wovon träumst du eigentlich nachts? hast du einen photonenrechner gebaut? selbst die asio hardware hat eine latenz weit jenseits dieses wertes. computer sind rechenmaschinen, die abhängig von der taktfrequenz der cpu und der breite des datenbusses eine definierte zeit benötigen um eine definierte anzahl von operationen auszuführen. ein reales hardwaremonitoring gibt es nicht, außer du greifst das signal ab bevor es in den rechner gespielt wird. kleines experiment für dich. nimm mal deinen analogmixer und spiele in einen track ein direktsignal irgendeiner quelle ein. dann nimmst du dir einen auxweg und schickst das signal in den input deines rechners und greifst dein vermeintliches hardwaremonitoringsignal ab. das schickst du auf einen zweiten track in den mixer rein und mischst die beiden signale zusammen... klingt dann ungefähr so, als würdes du einen phaser oder flanger eingeschliffen haben. das ist ein deutliches zeichen dafür, dass der zeitversatz > 10ms ist. solltest du nichts hören, löschen sich beide signale vollständig aus (delta t = 2pi)

grüßle falko
 
ein reales hardwaremonitoring gibt es nicht, außer du greifst das signal ab bevor es in den rechner gespielt wird

Genau das ist "Hardwaremonitoring". Ich weiß auch nicht was es an diesem Begriff so rumzuinterpretieren gibt. Das Signal wird abgehört, ohne dass es den Rechner passiert - und ist damit, innerhalb der phsyikalischen Gegebenheiten, latenzfrei. Punkt.
 
@ kfir

:rolleyes: unglaublich

also nochmal zum mitmeißeln ...

analoges signal > a/d wandler > asio pufferspeicher > internes kartenprocessing und routing > d/a wandler > analoges signal

du kannst über eine steuerung des softwaresequencers keine externe analoge hardware verändern oder irgendwelche switche umschalten, die dein eingangssignal vor der wandlung wieder zurücksenden. diese funktion ist nur auf datenebene möglich. also musst du aus dem analogen echtzeitsignal ein digitales signal machen, dann das soundkartenrouting über ein "hardwaremonitoring" schalten, dann das digitale signal wieder analog wandeln und aus der karte raus senden... nach dem ganzen signalweg kommt dein eingangssignal zeitversetzt wieder aus der karte raus. :great:

gruß falko
 
Mei, bist du ein Wortklauber.

Dann sage ich es eben so: ob mit ADDA oder nicht - es ist das, was die Industrie als "Hardwaremonitoring" verkauft.

Und das funktioniert in der Praxis einwandfrei und problemlos. Ich verstehe daher nicht, warum du eigentlich immer irgendwelche in der Realität nicht existenten Probleme in deinen Posts herauf beschwörst.
Aber das muss ich ja vermutlich auch gar nicht ;).
 
ch verstehe daher nicht, warum du eigentlich immer irgendwelche in der Realität nicht existenten Probleme in deinen Posts herauf beschwörst.
Ich auch nicht. Ich hatte doch auch gesagt, dass das, was du schreibst, durchaus richtig ist. Aber es ist halt faktisch egal. "Hardwaremonitoring" (also die Art von Monitoring, wo das Signal innheralb des Interfaces direkt von Eingang zum Ausgang geleitet wird, ohne Umweg über den Computer)ist PRAKTISCH GESEHEN "Latenzfrei". Weil die Latenz halt so gering ist, dass man sie nicht merkt. Wobei ich jetzt nicht ganz verstehe an deinem Signalweg, warum da der ASIO-Puffer zwischen sitzt. Offenbar hast du ja technisch mehr Ahnung als ich, kannst du mit dann vielleicht erklären? Meine ich jetzt ganz ernst. Weil das Direct Monitring sollt unabhängig vom ASIO-Puffer sein. Man dürfte eigentlich nur die Latenz haben, die man auch bei einem Digitalmischpult oder einem Digitalen FX-Gerät hat. Denke ich mir zumindest so. In dem Weg sehe ich nur eine A/D und einen D/A-Wandler. Und hat man da nicht dann höchstens 2 Samples Latenz?

Aber wir sind ja wegen GuitarRig & Co. auf das Thema gekommen, und da nützt einem ja das Direct Monitoring nicht. Du hattest geschrieben:
Plugins wie GuitarRig oder auch andere Emulationen eignen sich eigentlich nicht für den Recordingeinsatz. Da durch solche Systeme eine extreme Latenz erzeugt wird.
Natürlich stimmt es, dass da eine Latenz ensteht. Aber deine Schlussfolgerung ist dan sehr extrem, denn in der Praxis kann man damit arbeiten, da die Latenzen unhörbar gering sind. Oder meinst du dass alle, die GuitarRif und Co in Echtzeit spielen (so wie ich) ein unterentwickeltes Gehör haben? Man sagt, dass man 10ms und weniger nicht wahrnimmt. Bei mir ist es wohl so, ich nehme auch bei von GuitarRig angezeigten 12ms noch keine Verzögerung wahr.

ich habe versucht basics zu vermitteln, für leute, die mit diesen ganzen begriffen nichts anfangen können.
Das ist ja auch nett von Dir, das versuche ich hir auch immer. Aber gerade weil hier Anfänger sind, die mit den BEgriffen wenig anfangen können, gehe ich da sehr praktisch an die Sache. Ich hatte jetzt das Gefühl, dass deine Aussagen solche Anfänger eher verunsichern. Und vielleicht den Eindruck vermitteln, dass man zum Recorden einen Super PC benötigt, für Mehrspuraufnahmen doch ein RAID0 und/oder Platten mit 10K oder 15K Spuren nötig sind, in einem PC so viele langsame Teile sind dass man Modellingssogftware ja gar nicht in Echtzeit benutzen kann, weil man ja extreme Latenzen hat etc. Aber wie kommt es dann, dass ganz viele Leute hier mit einer "normalen Festplatte" und einer gewöhnlichen ASIO-Recordingkarte GuitarRig in ("quasi") Echtzeit spielen und auch problemlos Song mit vielen Spuren produzieren?
 
;) asio puffer:

der asio puffer hat nichts mit irgendeiner software zu tun. dieser speicher ist ein physikalischer speicher auf der karte selbst, der über die treibersoftware in der genutzten größe einstellbar ist. jedes signal, dass durch den ad wandler in die karte kommt, wird im asio puffer zwischengespeichert. hier gibt es auch tatsächlich für jeden audiokanal einen separaten speicher bzw. speicherbereich:

hier mal die technischen specs:

puffergröße in samples und die dazu gehörige latenz in ms

64 - 1.5ms
128 - 3ms
256 - 6ms
512 - 12ms
1024 - 23ms
2048 - 46ms
4096 - 93ms
8192 - 186ms

mal ganz simple... die karte kann ja nicht wissen, was mit dem signal passieren soll. es könnte über den pci bus richtung speicher gesendet werden, es könnte über das monitoring wieder zum ausgang gesendet werden oder es könnte im internen kartenmixer mit anderen signalen zusammen addiert werden. das digitalsignal ist im grunde wie jedes andere audio signal ein serielles signal. das heißt, dass die bits der einzelnen samples nacheinander übertragen werden und nicht parallel (sp/dif leitung optisch oder coaxial zum vergleich). man kann hier nicht einfach irgendwann den signalfluss unterbrechen und mitten in einem sample umschalten oder umrouten. echtzeit im digitalsinn heißt also immer, dass mindestens 16bit oder 24bit oder 32bit + parity + adressierung übertragen werden müssen. adressierung heißt hier z.b. die zuordnung zu welchem kanal das sample überhaupt gehört. ist es rechts oder links oder ist es channel 1, 2, 8 oder 23. möchte man verschiedene signale z.b. addieren (mischen) kann man dies erst dann tun, wenn man alle z.b. 24bit aller signale in einem speicher lesen kann um dann die summe zu errechnen, diese in einen anderen speicherbereich schreibt um sie dann von dort aus wieder zum da wandler zu senden oder weiter zu routen. man sieht also, dass digitale audiosignale nichts weiter sind als holzkugeln auf einer russischen rechenmaschine. um die kugeln hin und her zu schieben benötigt man zeit und genau das ist die latenz. je mehr additionen, je mehr prozesse oder effekte, desto höher wird der zeitversatz. auch nicht zu unterschätzen sind fehlerkorrekturen während solcher vorgänge. es werden ständig quersummen errechnet, paritybits gesetzt um datenfehler zu korrigieren. auch das kostet zeit :redface:

digitalpulte oder fx geräte:

im grunde der gleiche spass in grün, nur das hier datenbusse und cpu´s bzw. dsp´s verwendet werden, die nichts anderes zu tun haben als das was sie machen sollen, nähmlich audio signale übertragen oder verändern. hier werden innerhalb der geräte propritäre protokolle eingesetzt und risk cpu´s die einen stark vereinfachen und auf die funktion angepassten befehlskern haben. hier muss man sich nicht mit fremden sprachen auseinander setzen oder daten beachten, die einen in die quere kommen und auf die man warten muss. geh mal davon aus, das eine risk cpu die in einem fx gerät hallalgorythmen berechnet, dies wesentlich schneller macht als ein core2duo mit xxx ghz taktfrequenz. realisiert man diese umgebung innerhalb eines standard pc´s, verbrät man einen großteil der eigentlichen rechenleistung mit dingen, die mit dem eigentlichen audioprozess nichts zu tun haben. hier werden prozesse priorisiert die in erster linie die funktion des betriebssystems aufrecht erhalten. ein sequencer und die dazu gehörige audiohardware ist eine welt in der welt auf eine hardware aufgesetzt, die eigentlich nie dafür entwickelt wurde... im grunde ein riesiger kompromiss ... heul :( ... eine latenz von 2 samples halte ich allerdings auch nicht für realistisch. hab eben mal ein beispiel gefunden. das yamaha O2R96 hat bei 48khz eine latenz von 1,9ms. das sind 95 samples vom input wandler bis zum stereo out. dazwischen hängen kompressor, gate,eq,routing,addition,mastercomp und mastereq und sicher noch einiges mehr. sowas wird man im pc nicht erreichen... so gut nun... bis denne

gruß falko
 
Hmm... also dass auf mindestens 16Bit/24Bit/--- +Parity etc. auch bei einer reinen A/D-Wandlung "gewartet" werden muss, hatte ich mir auch so gedacht, das meinte ich ja auch damit, als ich von 2 Samples Latenzzeit sprach (bei In und Out). In der Tat natürlich nur für einen Kanal, da hatte ich nicht dran gedacht.
Was ich aber noch nicht so ganz verstehe ist der ASIO-Buffer auf der Soundkarte. ASIO ist ja ein "spezifsches Treibermodell, was Steinberg mal erfunden hat, über das Audioprogramme direkt mit der Hardware kommunizieren können. Also doch was "Computerspezifisches", das kann dann doch nicht mit "allgemeiner A/D-Wandlung" zu tun haben? Und ich dachte daher, dass das Hardware-DirectMonitoring eben noch vor dem ASIO-Puffer passiert. Und das der ASIO-Puffer eben nochmal ein extra Puffer ist, und nicht der glecihe, den eh jeder A/D- D/AWandler an Board hat.
Und um hier nicht nur theoretisch zu labern, habe ich es mal ausprobiert: An meiner M-Audio Delta 1010 LT hängt am Eingang eine E-Gitarre und ich habe Kopfhörer auf. Wenn ich das Monitoring im Sequencer anstelle (also Software-Monitoring), dann habe ich eben eine Latenz entsprechend der ASIO-Puffer-Größe, also bei 512 und kleiner höre ich keine Verzögerung, bei 8192 dann eine sehr deutliche Verzögerung.
Wenn ich aber stattdessen per Hardwaremonitoring spiele, dann höre ich keine Latenz, auch nicht bei 8192 Samples Buffergröße. Alles andere fände ich auch unsinnig, wozu gebe es sonst ein Direct Monitring? Alle Interface-Hersteller werben mit einem "Latenzfreien Direct Monitoring". Natürlich ist "Latenzfrei" übertrieben, mindestens zwei Samples pro kanal muss man ja schon theoretisch haben, und dann kommt da meintewegen noch was dazu (auf meiner M-Audio Delta sitzt wohl auch noch ein DSP, über den der "DirectMonitoring-Mixer" läuft). Aber es ist defintiv unabhängig vom ASIO-Puffer, sonst würde es ja auch keinen SInn machen. Dann bräuchte man ja kein Direct Monitoring.
 
hi... ich hab jetzt keine ahnung was die m-audio delta karte macht aber versuch mal folgendes... mach mal ein hardware monitoring auf mehreren inputs gleichzeitig und schau mal was dann passiert. möglicherweise ergibt sich durch das mischen mehrerer inputs eine höhere verzögerung.

ich hab mir mal bei rme den stromlaufplan einer älteren digi-karte angeschaut. diese karte hat z.b. einen hardware bypass. das hat aber offensichtlich nichts mit einem hardwaremonitoring zu tun. hier gibt es eine funktion, die man über einen schalter an der karte selbst aktivieren kann. dann wird das input signal direkt wieder zum ausgang geschickt. funktioniert aber nur mit einem eingang und einem ausgang, der als direkter monitor out bezeichnet ist. alle anderen inputs gehen immer zuerst auf einen dsp und wird von dort aus geroutet. in die tiefen der hardware wird man uns nie hineinschauen lassen. damit müssen wir wohl irgendwie leben

gruß falko
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben