Warum Kompressoren immer als Insert-, aber nicht als Send-Plugins?

  • Ersteller Mick Rütter
  • Erstellt am
nicht umsonst kann man in jeder daw die anzeige von zeitbasiert auf sample basiert umstellen. im prinzip wird dann einfach sample für sample abgearbeitet und dann alle spuren entsprechend der lautstärken aufsummiert. da gibts wenn die plugins nicht falsch programmiert sind keine abweichungen. deswegen kann auch jede spur die nicht über sidechains oder von sonstigen anderen spuren abhängt auch komplett für sich berechnet werden.
am ende werden dann die werte sample genau aufaddiert .. ich versteh nicht wie man sich logisch herleiten kann dass nen computer hingeht und sagt "och heute addiere ich mal sample 1234 von spur 1 und sample 1238 von spur 2 ..."
und 192000 samples * 1000 spuren additionen pro sekunde wären immer noch nur 192 millionen additionen pro sekunde .. auch da lacht eine heutige CPU drüber

und zum thema hören: ich glaube nichts was man nicht auch messen kann. evtl hast du ja mal im selbstversuch diesen mikrosampleversatz iwo bewiesen oder kennst einen artikel etc.


und zum thema 16 spuren gleichzeitig .. aktuelle hardware schafft mehrere GB/s .. wenn man bedenkt dass ein sample bei 24bit und 192khz takt ist das ca nen halbes MB/s pro spur .. sprich CPU und RAM lachen übers aufnehmen ;) was die spuranzahl in der realität begrenzt ist die vergleichsweise niedrige übertragungsgeschwindigkeit von USB bzw FW.


ich behaupte mal ein geeignetes interface vorrausgesetzt könnte eine aktuelle cpu tausende spuren gleichzeitig aufnehmen.
 
ich behaupte mal ein geeignetes interface vorrausgesetzt könnte eine aktuelle cpu tausende spuren gleichzeitig aufnehmen.
Tausende vill. nicht (zumindest in annehmbarer Quali), aber etliche.

Das Problem mit der Technik ist doch weniger, wie sie eigentlich sein sollte oder was sie alles kann sondern wie sie ist.
Denn sie ist Teils halt fehlerhaft (wie übrigends alles vom Menschen geschaffene ;)), ob das jetzt durch ein Programmierungsfehler oder was weiß ich verursacht wird ist mehr für IT-Leute interessant. Ich bemerke nur "Latenz auf der und der Spur - Korrigieren - Done"

Apropos, falls es jemand interessiert oder nach latenzarmen plugins sucht; Voxengo, McDSP und Massey sind imo die besten auf dem Gebiet "performance" :great:
 
...und zum thema hören: ich glaube nichts was man nicht auch messen kann. evtl hast du ja mal im selbstversuch diesen mikrosampleversatz iwo bewiesen oder kennst einen artikel etc.
natürlich habe ich mich damit befasst - es nervt schliesslich, wenn man einen Mix nach Monitor einstellt und sich die Ausgabedatei dann anders anhört.
Mir ist das relativ egal, ob es jemand glaubt - es ist nicht mehr als ein Hinweis.

Bei ex-Creamware/Sonic Core Anwendern wird dem internen virtuellen Adat seit langem die 'beste' Aufnahmequalität bestätigt.
Dabei schreibt der nur .wav Dateien in einen reservierten ('vorformatierten') Plattenbereich. :gruebel:
Alles, was damit aufgeommen und wiedergegeben wird klingt exakt gleich, verlässlich und reproduzierbar.
Dieselben Daten über einen Asio Host rumgeschickt tun das nicht, mögliche Pegel und Pan-Law berücksichtigt.
Würde sich der Asio Host wie das VDAT verhalten, brauchte ich nicht jedesmal am Ende 'ne Stereodatei aus den 2 Monospuren der Summe machen.
Ich habe also nicht das geringste Interesse, mir da was einzubilden.

und zum thema 16 spuren gleichzeitig .. aktuelle hardware schafft mehrere GB/s .. wenn man bedenkt dass ein sample bei 24bit und 192khz takt ist das ca nen halbes MB/s pro spur .. sprich CPU und RAM lachen übers aufnehmen ;) was die spuranzahl in der realität begrenzt ist die vergleichsweise niedrige übertragungsgeschwindigkeit von USB bzw FW...
papperlapapp... sorry, das ist nun wirklich unter Niveau...
erstens war als CPU ein P133 angegeben - nenn bitte mal einen Anbieter der 16 Spuren unter Win95 realisiert hat
und zweitens ignoriert deine Rechnung den Interrupt-Betrieb des OS komplett... ;)

cheers, Tom
 
ergo muss da eine Monitor-Differenz einkalkuliert werden
das wäre für mich zumindest ein plausibler Ansatz, das Gehörte nachzuvollziehen.
Der Unterschied ist zwar nicht unbedingt Tag und Nacht, aber er ist vorhanden.

Das ist leider falsch. Es stimmt zwar, dass ein Computer nicht Alles komplett seriell abarbeiten kann, aber genau dafür haben wir eben unsere Puffergrößen. Im Puffer wird quasi dafür gesorgt, dass das letztendliche Signal komplett phasentreu ausgegeben wird.
Andernfalls würden DAWs nicht funktionieren - was sie aber tun. Und sie würden sonst auch schon bei trivialen Aufgaben unterschiedlich klingen - was ebenfalls nicht so ist. Beides ist nachweisbar und bereits hundertfach in Foren wie Gearslutz und Konsorten auch in sämtlichen Spielarten durchgeführt worden.

natürlich habe ich mich damit befasst - es nervt schliesslich, wenn man einen Mix nach Monitor einstellt und sich die Ausgabedatei dann anders anhört.

Dann stimmt etwas an deinem System oder an deiner Mixdown-Einstellung nicht. Ich kann in Logic beliebige Bounces reimportieren und in der Phase drehen. Danach herrscht digitale Stille, was ein zu 100% unumstößlicher Beweis dafür ist, dass das gebouncte File identisch mt dem Mix ist.

erstens war als CPU ein P133 angegeben - nenn bitte mal einen Anbieter der 16 Spuren unter Win95 realisiert hat

Das war für mich damals eine absolute Kleinigkeit unter Logic 3. Da gingen locker auch 24 Spuren. Ich weiß nicht, was daran besonderes sein soll, zumal die Prozessorgeschwindigkeit beim Aufnehmen und Abspielen von Audio relativ wenig Bedeutung hat.
Mein mittlerweile 4 Jahre altes Macbook schafft übrigens knapp 150 Stereospuren unter 24bit/44.1.

- Der Sack
 
ich behaupte mal ein geeignetes interface vorrausgesetzt könnte eine aktuelle cpu tausende spuren gleichzeitig aufnehmen.

naja der Limitierende Faktor ist wohl die Festplatte. Selbst ne SSD würde das nicht schaffen. Da bräuchste die Festplatte nen mega-Cache und der würde dann auch irgendwann überlaufen. Und die Anbindung an die Festplatte müsste mega schnell sein

Tausend Spuren mit 44.1khz 24 bit währen ein Datenaufkommen von Rund 1,3 GB pro Sekunde. Ne konventionelle Festplatte? Vergiss es:D. Und selbst wenn ne konventionelle, mechanische Festplatte, diese Schreibgeschwindigkeit hätte, ist es ein unterschied, ob sie das bei einer Datei am Stück machen muss, oder ob sie gleich 1000 Dateien gleichzeitig schreiben muss. Der Schreibkopf bewegt sich meines Wissen nicht mit Lichtgeschwindigkeit
 
Zuletzt bearbeitet:
korrekt novik ;) hatte die festplatte vergessen ^^ aber ne gute ssd schafft ca 100MB/s was auch 200 spuren bei voller auflösung wären, die möglichkeiten mehrerer ssds im raid system mal aussen vor. allerdings wüsste ich jetzt nicht ob aktuelle DAWs auf sowas optimiert sind :D

rein von der cpu und ram her würde aber noch mehr gehn, kombiniert mit einem 64bit betriebssystem und 128gb ram ... ;)



zum thema nulltests gab es ja auch schon ettliche vergleiche selbst zwischen DAWs. sprich der mixdown war EXAKT der gleiche egal aus welcher daw er kam. würden jetzt solle mini glitches existieren wären diese 1. reproduzierbar, sprich der selbe fehler tritt an der selben stelle jedes mal auf und 2. hätte jede DAW an exakt der selben stelle die selben programmierfehler sonst würde das endergebnis ja nicht identisch sein ;)
 
nu' komm mal wieder auf'n Teppich... solche Zahlen sind die Papierform - entscheidend ist auf'm Platz :D

cheers, Tom
 
nu' komm mal wieder auf'n Teppich... solche Zahlen sind die Papierform - entscheidend ist auf'm Platz :D

Wenn es um ein Thema wie dieses hier geht, sind Zahlen das Einzige, dem man Glauben schenken kann. Und die, bzw. der Nachweis von arithmetisch korrekten Ergebnisse, haben gewisse auch hier geäußerte Dinge schon des öfteren ganz schnell als Märchen dastehen lassen.

In diesem Sinne vielleicht auch noch interessant: Der McGurk Effekt. Ich empfehle, das mal anzuschauen:
http://www.youtube.com/watch?v=G-lN8vWm3m0

- Der Sack
 
ich zitiere mal den clip: bla, bla, bla

Wenn es um ein Thema wie dieses hier geht, sind Zahlen das Einzige, dem man Glauben schenken kann.
du vielleicht - mir sind meine Ohren lieber... ;)

... haben gewisse auch hier geäußerte Dinge schon des öfteren ganz schnell als Märchen dastehen lassen.
so wie die 16 Audio-Spuren die du mit Logic 3 auf einem Pentium 133 mit Leichtigkeit parallel aufgenommen hast ?
(oder hast du da oben nur das gelesen, was dir dein Unterbewusstsein suggeriert hat ?) :p :D

cheers, Tom
ps *Scherzalarm*
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Telefunky bitte ernsthaft bleiben ;) .. der youtube clip zeigt doch eindeutig dass man sich eben auf die ohren nicht immer verlassen kann ..

und mit jemandem der zahlen nicht glaubt und sich stattdessen auf etwas sehr subjektives wie das menschliche gehör (man denke nur an verdeckungseffekte und co. was alles bei mp3 ausgenutzt wird ..) verlässt kann man eine diskussion nur wirklich nicht führen.
entweder man diskutiert objektiv oder lässt es bleiben.


erinnert mich ein wenig an die diskussion die vor jahren aufkam als so mancher behauptet hat pro tools klingt besser als andere daws weil es 48bit fixed point werte verwendet statt 32bit gleitkomma ... nur sehr komisch dass avid die engine mittlerweile auch auf gleitkomma umgestellt hat. ich denke mal die jungs die sich da drüber gedanken machen haben deutlich mehr ahnung als esoterik gestörte studiomenschen ;)

und abschließend: was man nicht messen kann, kann mich auch nicht hören, also ist es nicht vorhanden. wer trotzdem einen unterschied hört bildet sich diesen nur ein.
 
Es geht nicht um Esoterik, bitte bleib auch du objektiv :bad:

Naja, jemand der als engineer arbeitet und sich nicht 100% auf sein Gehör verlassen kann sondern sich durch Zahlen weiterhelfen muss - sorry der hat in dem Beruf nichts verloren. Dort geht es rein um das, was man hört. Auch als plugin Entwickler ist der musikalische Faktor (nur durch Gehör erkennbar) wichtiger als das Programmieren selbst. Denn auf Basis des Gehörs werden die Codes entwickelt.
Ich weiß jetzt nicht wie weit du mir da folgen kannst in deiner "Zahlenwelt" (scherz;)) aber es ist einfach so, das kannst du mir glauben.

Übrigends hat hier niemand von dem Phänomen gesprochen wo an einem bypassed EQ gedreht wird und der user glaubt es würde sich was ändern. Aus dem Alter sollte man tatsächlich raus sein um mitreden zu können. Es geht inzwischen (wenn ich das richtig sehe) um reale Unterschiede.

PS.: Die selbe Session in Pro Tools (übrigends ebenso in Nuendo und Pyramix) klingt tatsächlich 'runder' als im direkten Vg mit Logic, Cubase etc.
Da ich kein Plan hab, wie viel du mit diesen Programmen bisher gearbeitet hast möchte ich dir nichts unterstellen. Kommen jedoch mehrere (erfahrene) Leute unabhängig voneinander daher und tätigen so eine Aussage kann man denen mehr Glauben schenken als einzelnen Personen, die sich mit Zahlenlogik dagegen wehren oder meinst du nicht? Und auch glaube ich meiner eigenen Erkentniss/Erfahrung mit diesen DAWs mehr als vielleicht sogar Gleichungen die mir als Gegenbeweis geliefert werden :)

So wie zahlen- aber nicht praxis-/menschen-erfahrene Manager zu Hauf Unternehmen zu Grunde rechnen so bringen es die meisten Mix und Mastering Engineers, welche auf Basis von theoretischer Rechnung und Sicht arbeiten nicht anähernd soweit wie solche, die den Berus auf Leidenschaft für den Klang und damit in seiner ursprünglichen Form ausüben.

Gruß
 
PS.: Die selbe Session in Pro Tools (übrigends ebenso in Nuendo und Pyramix) klingt tatsächlich 'runder' als im direkten Vg mit Logic, Cubase etc.

Ich glaube, ab diesem Punkt ist für mich die Diskussion beendet, denn das ist, wie schon häufig in Nulltests nachgewiesen wurde, totaler Quatsch.
Aber du darfst natürlich gerne weiterhin daran glauben.

In diesem Sinne.

- Der Sack

---------- Post hinzugefügt um 14:02:11 ---------- Letzter Beitrag war um 14:00:32 ----------

und abschließend: was man nicht messen kann, kann mich auch nicht hören, also ist es nicht vorhanden. wer trotzdem einen unterschied hört bildet sich diesen nur ein.

Dem ist rein gar nichts hinzuzufügen - Amen!
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich glaube, ab diesem Punkt ist für mich die Diskussion beendet
:great:
Genau das wollte ich erreichen mit der zugegeben etwas übertriebenen Darstellung ;) Woran das meist liegt hab ich extra erstmal nicht erwähnt. Denn Zahlendiskussionen sind im Bereich Audio (außer vill. unter Programmierern im Audiobereich und selbst da wäre der Ansatz ein anderer) so falsch wie Bananenpalmen auf einer reinen Erdbeerplatage.
---
Das liegt übrigends an der HW Combo, irgendwelche Hobbystudios mit den kleineren DAWs können einfach im Punkto Ausstattung nicht mit einem Majorstudio mithalten.
Da klingt ein Mix aus PT oder einer anderen "großen" DAW (selbst ohne boardmixing) halt besser (runder) als die selbe Session im Hobbystudio. Der nächste Faktor sind unterschiedliche Algorythmen die eine leichte Veränderung des Klanges mit sich bringen.
 
:great:
Genau das wollte ich erreichen mit der zugegeben etwas übertriebenen Darstellung ;) Woran das meist liegt hab ich extra erstmal nicht erwähnt. Denn Zahlendiskussionen sind im Bereich Audio (außer vill. unter Programmierern im Audiobereich und selbst da wäre der Ansatz ein anderer) so falsch wie Bananenpalmen auf einer reinen Erdbeerplatage.

Zahlendiskussionen sind nicht so falsch.
Denn wenn jemand behauptet, dass ein Mix in irgendeinem Programm per se besser klingt, dann widerlegen Zahlen das eindeutig.

Das liegt übrigends an der HW Combo, irgendwelche Hobbystudios mit den kleineren DAWs können einfach im Punkto Ausstattung nicht mit einem Majorstudio mithalten.
Da klingt ein Mix aus PT oder einer anderen "großen" DAW (selbst ohne boardmixing) halt besser (runder) als die selbe Session im Hobbystudio.

Und das hat eben rein gar nichts mit der Software zu tun. Da klingt es im Homestudio genau so wie im Profibereich.
 
2 Punkte:
das Runterbeten von theoretischen Schnittstellespezifikationen hat mit der Praxis von Realtime-Audio nicht mal am Rande zu tun.
Entscheidend ist die permanent und garantiert aufrechterhaltene Datenrate.
Wieviel allein das Betriebssystem an overhead erzeugt, zeigen schnöde Disk-toDisk Kopien auf dem internen Controller des MacPro, wo gerade mal um die 80MB/sec erreicht werden.
Speichertransfers von PCI Karten sind seit Sandy Bridge im Audio Bereich berüchtigt.
Theoretisch könnte der Bus, aber er ist so 'geschickt' in's System integriert, dass eine 10 Jahre alte Pentium 3 Krücke (praktisch) jedes aktuelle Board (auf diesem Gebiet) in der Pfeife raucht.

zum 'Zahlenbeweis'
die hier angeführten Methoden haben eine entscheidende Schwäche: sie finden innerhalb des zu prüfenden Systems statt und obendrein mit den Mitteln eben dieses Systems ;)
Ich habe weder goldene Ohren, noch exorbitante Hardware.
Aber 2 unabhängige System - DSP gestützt und nativ auf der CPU
Beide nutzen dieselbe Wandlerhardware, deswegen kann ich sie vergleichen
Und dabei ist mir irgendwann ein Unterschied aufgefallen, der 'technisch' nicht da sein dürfte.
Wie erwähnt ist der ausgesprochen lästig, ich 'will' den keinesfalls haben.
Folglich habe ich kein Interesse mir das einzureden.

Ich befasse mich aber lange genug mit Rechnertechnik (und verdiene meine Brötchen damit), dass ich über Sätze wie: ein Rechner ist perfekt (bzw rechnet perfekt) nur lachen kann.

cheers, Tom
 
joar bitte disktieren wir über den klang von audioengines :D
 
warum so kompliziert ?
der Sack sagt: ein Rechner ist perfekt...
von dir stammt der Satz: wenn es zu sampleversatz kommt hat jmd scheisse beim programmieren gebaut ...
nebenbei werft ihr mit völlig irrelevanten Spezifikationen in 'beeindruckenden' Zahlen um euch
und bewundert die Performance von SSDs beim Schreiben (das, was selbige am schlechtesten können)
im besten Fall seid ihr die Opfer von Marketingstrategen... auf Sachverstand deutet es eher nicht hin ;)

auf einer Mehrkern-CPU, die in einem nicht-Echtzeitbetriebssystem im Multitasking-Multithreading Modus betrieben wird, ist es unmöglich für die zeitliche Konsistenz der Daten zu garantieren.
Es fehlt schlicht die Instanz, die das Ganze beaufsichtigt - so einfach ist das.

Was der Compiler optimiert und was der CPU-Scheduler letztlich draus macht, liegt jenseits des Einflusses der Programmierer.
(von der nicht gerade blendenden Reputation der beiden Hauptanbieter ganz zu schweigen...)
Das sind keine Buchhaltungsdaten, sondern vom Kontext her immer noch 'analoge' Werte
da kräht kein Hahn nach bedingungsloser Präzision. ;)
Klappt ja auch einigermassen... nur wenn ein anders strukturiertes System parallel läuft, fällt es eventuell auf.
Bei pH ist es ein TDM, bei mir ein Scope System, bei einer Fairlight Crystal Core Konsole würde ich dasselbe vermuten.

Zur Erinnerung: ich habe die Anmerkung zum Sample-Versatz nicht gemacht, weil irgendwas besser klingt.
Es ist die Erklärung, warum ein im Grunde nichtiger Effekt plötzlich mächtig 'fett' rüberkommt ;)

cheers, Tom
 
Es gibt keinen Sample-Versatz. Wenn doch, Telefunky, dann liefere bitte einen Test, mit dem man das nachweisen kann. Wenn es diesen Sample-Versatz geben würde, dann würden kein EINZIGER Nulltest funktionieren. Aber erstaunlicherweise funktionieren Nulltests ganz hervorragend.
Und bis du einen nachvollziehbaren Test lieferst, in dem man diesen Sample-Versatz messen kann, bleibt das für mich ausgemachter Quatsch.
Als Hosts stehen mir dauerhaft Logic, Cubase und Reaper zur Verfügung, bei Bedarf komme ich auch an andere Rechner ran. Ferner verfüge ich über die Möglichkeit, digital aus dem Host rauszugehen und auf einem anderen Rechner digital aufzunehmen (womit sich dann etwaige "Versätze" beim Abspielen auch noch aussortieren ließen).
Also bitte beschreibe ein Test-Szenario, mit dem das ein jeder unverzüglich nachvollziehen kann. Das muss es ja dann auf jeden Fall geben, wenn deine Thesen auch nur ansatzweise stimmen.
Nulltests lügen nunmal nicht und ja, Rechner sind tatsächlich weitestgehend perfekt, zumindest für das, über was wir hier reden.
Anm.: Ich weiß sehr wohl, dass es bei Nulltests bisweilen kleine Unterschiede geben kann. Ich erinnere mich an einen Nulltest, bei dem es zwischen irgendeinem Host (ich glaube Nuendo) und ProTools Unterschiede gab. Aller Wahrscheinlichkeit lag das an 48bit integer gegenüber 32bit float, ich kann's nicht sagen. Aber, das sei auch noch gesagt, die Unterschiede waren bei -120dB oder so angesiedelt. Das darf man getrost als komplett irrelevant bezeichnen.

Wie gesagt, wenn du ein Test-Szenario beisteuerst, mit dem sich der von dir hier kolportierte Sampleversatz nachweisen lässt, dann will ich gerne Buße tun. Bis dahin bleibt's leider Quatsch.

- Der Sack
 
  • Gefällt mir
Reaktionen: 2 Benutzer
cIch dachte die Diskussion ist beendet ?!

Solltest du richtig gelesen haben, wirst du wissen, dass ein Nulltest nur innerhalb des Systems arbeitet. Und deswegen nur die halbe Warheit aufzeigt..
Allerdings könnte man dir recht geben, wenn man davon ausgeht, dass du alles offline durchrechnest und Playback praktisch nur zum monitoring einsetzt.
Dann könntest du vielleicht recht haben - nur ist diese Arbeitsweise für mich vollkommen indiskutabel, da sie viel zu viel Zeit kostet die man in einer 6 Stunden mix session einfach nicht hat. Outboard effekte schreibe ich zum Bleistift noch nicht mal mehr ins Projekt sondern lediglich Recall infos auf die Spuren Notizen. Wenn dafür schon keine Zeit ist :rolleyes: abgesehen vom quali verlust natürlich der bei der Aufzeichnung vor dem Stereobus ensteht weswegen das sowieso unnötige Zeitverschwendung wäre.

In einer reinen Echtzeit Umgebung kannst du nunmal nicht von der "Perfektheit" eines Computers ausgehen, weil er es einfach nicht ist! Wieso stürzen denn PCs und Macs hin und wieder ab? Und und und, ich könnte eine Vielzahl an Fehlern runterleiern die deine These alles andere als untermauern.

Gruß
 
Zuletzt bearbeitet:
... Allerdings könnte man dir recht geben, wenn man davon ausgeht, dass du alles offline durchrechnest und die Wiedergabe praktisch nur zum monitoring einsetzt....
das war genau der Punkt, der mich seinerzeit stutzen liess.
Ich war es gewohnt, dass der Echzeit Monitor Mix exakt das Ergebnis der finalen Datei repräsentiert.
Was ich als Begründung genannt habe, ist eine aus meiner Erfahrung und für meine Ansprüche ausreichende Erklärung.
Ob das nun so oder anders ist, wird an keiner Audio Datei was ändern. Also...

wenn jemand ein Signal nur im Pegel reduziert,
komprimiert und etwas von diesem 'wet'-Kanal zum Original mischt,
und das Ergebnis dann 'fett' klingt - ist das nahezu 100%-ig ein zeitbasierter Seiten-Effekt
(wodurch auch immer hervorgerufen und speziell darauf war der Hinweis gedacht)

Rechner können schon zickig sein - zieh mal einen Ordner auf den Desktop... und er ist weg. :eek:
So weit, dass selbst ein recovery Programm der härteren Art in Stunden keine Spur davon wiederfindet

cheers, Tom
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben