humi:
eine aktuelle 7.2er SATA HDD liefert ~20-30MB/s schreibend und ~25-50MB/s lesend
Woher hast du diese Zahlen? Also wenn ich z.B. in das letzte Plattenkarussell der c't kucke oder in den Fetplattencharts von Tomshardware, dann hab ich werte von 50-100MB/s (lesen und schreiben sind in de regel fast gleich). Ich wollte gestern schonnmal bei mir selbst h2benchw durchlaufen lassen, hätte aber zu lange gedauert... Ich könnte ja auch einfach mal eine große Datei verschieben und die Zeit stoppen.
Den Rest kann man sich selber ausrechnen
Eben nicht, das musste ich ja selbst feststellen. Weil es eben einen Unterschied macht, ob man eine Datei mit einer Datenrate von 10 MB/s abspielt, oder 20 Dateien parallel die jeweils eine Datenrate von 0,5MB/s haben. Und letzteres ist ja bei einem Audioprojekt der Fall. Die Zugriffszeit der Festplatte ist dann da entscheidener.
da jedes Plugin (VST, etc) ein eigener Prozess ist, helfen viele Kerne der CPU dem System mehr als der CPU-Takt.
Maximal ein eigener Thread - also ich hatte hier noch kein Audioprogramm, welches in mehreren Prozessen lief. Gut, ist jetzt eher unwichtigere Wortklauberei, aber dennoch kann man deine Aussage doch nicht zu grundsätzlich stehen lassen. Es wäre theoretisch möglich jedes PlugIn in einem Thread laufen zu lassen, somit wäre ein Audio-Sequencer an sich eine Anwendung, die man gut Multithreaded programmieren kann. Aber sind das denn wirklich alle? Ich glaube kaum, dass eine Cubase-Version aus einer Zeit, als Merhkern-CPUs noch kein Thema waren, entsprechend programmiert waren. Mittlerweile ist das anders, aber doch auch nicht für pauschal jeden Sequencer, den es so gibt.
Meine persönliche Priorität ist hier Kerne, FSB, Cache und dann der Rest
Läuft Taktgeschwindigkeit bei dir wiklich unter "Rest"? "Anzahl Kerne vor Geschwindkeit pro Kern", damit kann ich mich anfreunden, bzw. ist das ja auch die berechtiget Diskussion darum, was sich bei welcher Anwendung nun mehr lohnt. Aber in "Geschwindigkeit pro Kern" steckt doch FSB, Gesamt-Takt, Cache und Archtektur irgendwie mit drin. Achtest du wirklich auf die einzelnen Werte anstatt einfach nach tatsächlicher Leistung in der Praxis? Bei den IntelCore-Prozessoren ist es ja z.B. eher so, dass der größere Cache gegenüber den AMD-CPUs notwendig ist, weil sie im Gegensatz zu den Athlons keinen eingebautn Speichercontrolle haben, sondern den langsameren Uwmeg über FSB und Northbridge gehen müssen. Und auch innerhalb einer Serie bin ich mir sicher: Ein Core2Duo mit 2MB Cache und 3GHz ist deutlich schneller als ein Core2Duo mit 4MB Cache und 2GHz.
siktuned:
Habt ihr die zufällig gehabt, zusammengesammelt oder wie? War das echt günstiger als sich eine M-Audio Delta 1010LT zu kaufen?
Von wie vielen effekten sprichst du jetzt, 30??
Wie oben beschrieben kann ich meinen Rechner (ja, ist deutlich langsamer als eurer, aber trotzdem...) auch mit nur zwei Effekten und einem VSTi in die Knie zwingen. Es kommt halt auch drauf an, was das für Effekte sind. Acht Spuren ist jetzt ja auch nicht wirklich viel. Wenn man dann eben überall EQ und Dynamics drauf hat, dann noch Hall unhd sonst was... Im habe ja mit meinem Rechner auch Songs von meiner Band gemischt, das ging so gar mit dem halbswegs. Deswegen möchte ich dich in dem Punkt sogar durchaus unterstützen, nämlich das man zum Musik machen am Rechner nicht unbedingt den neusten, schnellsten HiEnd PC benötigt. Aber es gibt eben Effekte und Instrumente, die CPU-Power benötigen, und da hilft dann auch nur CPU-Power, und sonst nichts.
ist ja an sich eine schnelle Platte, aber beim Mastering, wenn dann noch mehr VSTs gefahren werden, ist sie an ihre Grenzen gestoßen...
Das verstehe ich jetzt nicht, in zweierlei Hinsicht. Mastering erfordert weder CPU- noch Festplattengeschwindigkeit. Man hat doch da nur noch eine Stereospur und ein, zwei Mastering-VSTs. Und die VSTs sind doch für die Festplatte egal. De Festplatte muss einfach nur die Audiospurenabsopielen. Was dann damit passiert (also Effektbearbeitung) kann der Platte egal sein, die hat doch damit nichst mehr zu tun. Oder meinst du doch das "Mischen"? Dann sind wir aber doch bei dem was ich oben meinte, und worum es hier eigentlich geht. Nämlich darum, dass ich ein Projekt habe mit einigen Spuren (es ist dabei völlig egal, wie viele man gleichzeitg aufgenommen hat), also Bass Drum, SNare, Toms, Overhead, erste Gitarre je zweimal, zweite Gitarre je Zweimal, Sologitarre, Gesang, Backgroundgesang, Bassdirekt, Bass Mikro... Und auf quasi alle Spuren packe ich mindestens EQ und Kompressor, dazu vielleicht noch gates, Hall.... Und da kommt man dann irgedwann an die Grenzen des Rechners. Und die Frage ist da: Was verursacht in erste Linie diese Grenze? Ich habe bei mir festgestellt: CPU, und das gilt auch weiterhin. Hinzufügen muss ich aber, dass durchaus die Platte auch zum Problem werden kann - und verdammt, ich habe es noch mal getestst, und es ist wirklich so, dass (zumindest in Samplitude) auch die Festplattenbelastung ansteigt, wenn ich Effekte hinzufüge. Hmm, OK, das müsse mir zwar noch mal technisch einer erklären, aber ich muss mich dann wohl geschlagen geben

Meine Erfahrung könnte wohl auch daher rühren, dass in den letzten 6 Jahren (so alt is mein PC) die Prozessoren sehr viel schneller geworden sind, die Festplatten im verhältnis dazu nicht so sehr beschleunigten. Dadurch ist bei meinem Rechner in der Praxis die CPU eher der Flaschenhals; heute dann vielleicht eher die Festplatte.
Und RAM ist ganz einfach wichtig, weil dort alles landet bevor es auf die Festplatte geht, je mehr Platz und je niedrigere Zugriffszeit desto schneller...
Naja, also im Verhaltnis zur Festplatte ist die Zugriffszeit von RAM eh so niedrig, dass das wohl weniger das Problem ist. Und zur Größe: Wieviel landet denn im RAM? Wird erst der komplette Song reingeladen und dann aus diesem abgespielt? Doch wohl kaum. Stattdessen dient der RAM nur als Puffer. Bei Samplitude kann man dazu explizit die Größe des Projektpuffers einstellen, zwischen 0,5MB und 256MB. Standardmäßig ist er so bei 4MB. Je größer man ihn einstellt, um so größer ist dann logischerweise die Verzögerung zwischen Drücken der Playtaste und dem Moment, wo der Abspiel-Cursor wirklich startet. In der Zeit sieht man unten auch so einen "Preload"-Balken, und die Wiedergabe ist dann eventuell etwas sicherer/flüssiger. Aber wie gesagt sind das ja nur ein paar MegaByte Puffer. Und ich sehe im Taskmanager von Windows nicht, dass da der RAM irgendwie voll gemacht wird. Ich kann CPU und/oder Festplatte an die Grenzen bringen, etweder ducrh ganz viele Spuren, oder viele Effekte oder beides. Aber Arbeitsspeicher habe ich immer noch frei, der wird überahupt nicht voll ausgenutzt.