Eine Datenübertragungsrate kannst du nicht in "Hertz" ("1/Sekunde") angeben, die Einheit einer Dateinübertragungsrate ist "Datenmenge pro Zeit", also "bit/Sekunde".
Wobei sich aus der Abtastrate zusammen mit der Bittiefe dann natürlich die Datenrate des Audiostroms ergibt
Aber dennoch, vallntin, bringst du hier einiges durcheinander und suchst nach zusammenhängen wo es keine gibt bzw. machst dir über mögliche Probleme Gedanken, die gar nicht exisitieren. Es ist nicht so, dass das die "Abtastrate des Interfaces 96KHz beträgt". Die Abtastrate ist letztlich einfach eine Qualitätseigenschaft einer Audiodatei bzw. eines digitalen Audiodatenstroms. Also sowas ähnliches wie die Pixelauflösung bei Fotos und Videos. Wenn man ein analoges Audiosignal digitalisiert, dann misst man dazu zu bestimmten zeitpunkten die Amplitude des Signals und speichert sie als als einen Zahlenwert. Je öfter man eine Messwert (sample) nimmt, umso genauer kann das Signal abgetastet werden. Wenn man mit 96KHz und 24 Bit aufnimmt bedeutet es also, dass das Audiosignal 96000 mal pro Sekunde abgetastet wird, und der wird als 24Bit-lange zahl gespeichert wird. In so einem Interface stecken aber nun Wandler, die mit 96KHz abtasten KÖNNEN, man kann aber auch weniger nehmen. CD-Qualität ist "nur" 44,1KHz, und zumindest im Homerecording würde ich auch einfach so aufnehmen.
Für deine eigentliche Frage ist das aber im Grunde alles völlig egal:
1. Wenn ich nun mit einem Interface acht Spuren in 96KHz/24 Bit aufnehmen will, dann muss die Leitung natürlich schnell genug sein, um diese Datenmenge übertragen zu können. Da kann man aber eben ganz leicht ausrechnen, dass Firewire auch dafür locker reicht. The-Dark-Lord sagte ja schon, dass FireWire theoretisch
400Mbit/s übertragen kann (in der Praxis etwas weniger). 96khz x 24 Bit = 2304kBit/s = 2,25 MBit/s. Das mal acht ergibt
18 MBit/s. Da ist also noch genug Luft nach oben.
2. So eine Rechnung ist überflüssig. Wenn ein Hersteller ein Interface verkauft, mit dem man acht Spuren mit 96Khz und 24 Bit aufnehmen kann, dann baut er natürlich auch eine Schnittstelle ein, die eine genügend hohe DAtenrate liefert. Weil sonst würde das gerät ja gar nicht wie beworben funktionieren. Es wäre dann ja gar kein Interface, mit dem man acht Spuren mit 96KHz und 24 Bit aufnehmen kann. Es gibt in der Tat manche Interface mit dem langsame USB 1.1, wo man aufgrund der begrenzten Datenrate wählen kann, ob man lieber mehr Spuren mit niedriger Samplerate/Bittiefe, oder lieber weniger Spuren mit hoher Samplerate/Bittiefe aufnehmen will. Aber aus Nutzersicht ist das einfach ein "Austattungsfeature". Man muss sich als Nutzer überhaupt keine Gedanken darüer machen, ob USB, FireWire oder sonst was schnell genug sind. Weil diese Gedanken hat sich ja schon der Hersteller gemacht. Du kaufst dir einfach ein gerät, was so- und soviel Spuren gleichzeitg in eine bestimmten Qualität aufnehmen kann, und gut ist. Wenn du dir eine Kamera kaufst, die die in FullHD-Aufösung und 50 Bildern pro Sekunde aufnehmen kann, dann machst du dir ja auch keine GEdanken darüber, ob die Technik darin schnell genug ist, um diese Auflösung zu verarbeiten. Sondern dann kann die Kamera das eben, fertig.
Und zu letzten Frage mit der Computerleistung: Welche Rechnung meinst du da? Willst du da riegndwie die taktrequenzen eines prozessors mit reinbringen? Das hat nun wirklich GAR NICHTS miteinander zu tun. CPUs unterschiedlichen Typs sind ja auch bei gleicher Taktrate unterschiedlich schnell. Also ein DualCore-Atom mit 1,6GHZ ist viel langsamer als ein aktueller Core i5 mit 1,6 GHz. Das reine Aufnehmen und abspielen von Audiospuren (auch mehreren) ist für den Computer eh keine HErausforderung, das geht im Grunde auch schon mit ganz alten und langsamen Computern. Erst durch den Einsatz von Effekten (also nacher beim Abmischen) muss die CPU mehr rechnen und entsprehend schnell sein.