Warum Kompressoren immer als Insert-, aber nicht als Send-Plugins?

  • Ersteller Mick Rütter
  • Erstellt am
cIch dachte die Diskussion ist beendet ?!

Manche Dinge kann man einfach nicht kommentarlos stehen lassen.

Solltest du richtig gelesen haben, wirst du wissen, dass ein Nulltest nur innerhalb des Systems arbeitet.

Falsch. Ich kann auch aus einem digitalen Ausgang in den digitalen Eingang eines anderen Systems gehen. Damit fängt man den Sound so ab, wie er beim Monitoring zu hören ist.

Allerdings könnte man dir recht geben, wenn man davon ausgeht, dass du alles offline durchrechnest und Playback praktisch nur zum monitoring einsetzt.

Diesen Satz verstehe ich absolut nicht.

In einer reinen Echtzeit Umgebung kannst du nunmal nicht von der "Perfektheit" eines Computers ausgehen, weil er es einfach nicht ist! Wieso stürzen denn PCs und Macs hin und wieder ab? Und und und, ich könnte eine Vielzahl an Fehlern runterleiern die deine These alles andere als untermauern.

Das eine hat mit dem anderen rein gar nichts zu tun. Natürlich stürzen Rechner ab. Aber so lange ein sauber programmierter Sequenzer läuft, dann kann man da absolut von perfekt sprechen. Die Daten werden bei jedem Abspielen 100% identisch wiedergegeben. Bounces sind phasentreu und lassen sich per Reimport, Phasendrehung und Vergleich mit dem Monitormix nullen. Wenn das nicht so ist, dann ist am System oder Programm etwas falsch. Aber in einem guten System ist das einfach so. Und ja, das ist perfekt!


wenn jemand ein Signal nur im Pegel reduziert,
komprimiert und etwas von diesem 'wet'-Kanal zum Original mischt,
und das Ergebnis dann 'fett' klingt - ist das nahezu 100%-ig ein zeitbasierter Seiten-Effekt
(wodurch auch immer hervorgerufen und speziell darauf war der Hinweis gedacht)

Das kann ja sogar sein, aber dann stimmt etwas mit dem Latenzausgleich nicht (solange wir von "ITB" reden).

Rechner können schon zickig sein - zieh mal einen Ordner auf den Desktop... und er ist weg. :eek:
So weit, dass selbst ein recovery Programm der härteren Art in Stunden keine Spur davon wiederfindet

Hast du dich nicht vor ein paar Posts quasi als Rechnerfachmann geoutet? Wie kommt es dann, dass bei einem solchen Experten Ordner spurlos verschwinden, nur weil man sie auf den Desktop zieht? Das ist mir in bald 20 Jahren Rechnerbenutzung noch niemals passiert. Vielleicht liegt's ja daran, dass ich keine Ahnung habe...
Und vielleicht liegt's ja auch an meiner Ahnungslosigkeit, dass bei mir Nulltests funktionieren.

Abgesehen davon bleibst du noch das Beispiel mit der Sample-Verschiebung schuldig. Wie gesagt, wenn du so überzeugt bist, dass eine solche stattfindet, dann muss man es nachvollziehen können. Und danach ließe sich das sehr leicht messen.

- Der Sack
 
Vielleicht sollte man tatsächlich zwischen online und offline unterscheiden.

Wenn man davon ausgeht, dass Effekte online berechnet werden, ist die Aussage der 100%igen Perfektheit falsch. Wir reden von Multitasking-Multiusersystemen, von denen gefordert wird, eine nahezu beliebige Anzahl von Spuren mit einer beliebigen Anzahl von Effekten quasi in Echtzeit zu berechnen.
Zeig mir das System, welches das 100%ig verlässlich und jederzeit exakt identisch reproduzierbar kann.

Anders sieht es beim Mixdown/Bouncen aus, was man eher offline macht. Da sollte jedes vernünftig programmiertes System in der Lage sein, dass nachvollziehber zu leisten.

Der Punkt, dass du mit online/offline nichts anfangen kannst, scheint darauf hinzuweisen, dass du von den Abläufen bei der Arbeit mit einer DAW - sorry - keinen Plan hast, Mathematik und Theorie hin oder her.
 
...Hast du dich nicht vor ein paar Posts quasi als Rechnerfachmann geoutet? Wie kommt es dann, dass bei einem solchen Experten Ordner spurlos verschwinden, nur weil man sie auf den Desktop zieht? Das ist mir in bald 20 Jahren Rechnerbenutzung noch niemals passiert. ...
so ähnlich hab ich das auch kommentiert (gegenüber dem 'user', dem genau das wiederfahren ist) :p
den Ordner hätte in dem Moment auch Joseph Weizenbaum schieben können - es hätte nichts geholfen.
kein Bedienerfehler, keine defekte Hardware - ein schlichtes Versagen der Technik. (wegen perfekt...)
es ist übrigens kein Einzelfall, zumindest laut google

cheers, Tom
 
Vielleicht sollte man tatsächlich zwischen online und offline unterscheiden.

Das tut absolut nicht Not.

Wenn man davon ausgeht, dass Effekte online berechnet werden, ist die Aussage der 100%igen Perfektheit falsch.

Nein. Auch mit einem in Echtzeit aufgenommenem Monitoring lässt sich ganz wunderbar ein Nulltest durchführen. Vorraussetzung ist lediglich, dass keine frei modulierenden Effekte und/oder Klangerzeuger benutzt werden.

Eigentlich ist das sogar der ganze Sinn eines Nulltests. Da wird das gebouncte File parallel zum Mix abgespielt, nur eben phasengedreht.

Zeig mir das System, welches das 100%ig verlässlich und jederzeit exakt identisch reproduzierbar kann.

Sämtliche ordentlich konfigurierten Systeme.

Anders sieht es beim Mixdown/Bouncen aus, was man eher offline macht. Da sollte jedes vernünftig programmiertes System in der Lage sein, dass nachvollziehber zu leisten.

Nein, das ist reine Zeitersparnis. Das Ergebnis *muss* per Definition identisch sein. Und ist es ja zum Glück auch. Nachweislich.

Der Punkt, dass du mit online/offline nichts anfangen kannst, scheint darauf hinzuweisen, dass du von den Abläufen bei der Arbeit mit einer DAW - sorry - keinen Plan hast,

A) Ich habe mit dem Satz in dem Zusammenhang nichts anstellen können.
B) An sich ist das eine freche Bemerkung, wo es in diesem Thread nur so vor Ahnungslosigkeit strotzt - aber sei beruhigt, ich habe davon ganz schön viel Ahnung, werde aber ganz gewiss nicht mit irgendeinem Namedropping anfangen.

- Der Sack

---------- Post hinzugefügt um 20:56:13 ---------- Letzter Beitrag war um 20:52:48 ----------

es ist übrigens kein Einzelfall, zumindest laut google

Ich habe davon noch niemals etwas gehört.
Ganz abgesehen davon gibt es sowohl unter Windows wie auch Mac OS sehr viel bessere Plätze als gerade den Desktop, um wertvolle Daten zu speichern. Als Computerchecker hast du das deinem Kollegen hoffentlich erklärt...

Ach ja, wie sieht's denn nun aus mit dem Test-Szenario für den andauernd stattfindenden Sample-Versatz? Sollte doch ein leichtes sein, wenn es permanent passiert. Oder etwa doch nicht?

- Der Sack
 
... Abgesehen davon bleibst du noch das Beispiel mit der Sample-Verschiebung schuldig. Wie gesagt, wenn du so überzeugt bist, dass eine solche stattfindet, dann muss man es nachvollziehen können. Und danach ließe sich das sehr leicht messen. ...
wieso sollte ich was schuldig sein ? sind doch alle Zutaten genannt:
die Creamware/Sonic Core Anwender schwören auf ihr VDAT
pH schreibt, dass ein TDM Mix 'tighter' rüberkommt als beliebige native DAWs
ich habe dasselbe Gefühl auf einem anderen von der CPU unabhängigen System.
(nicht weil ich danach gesucht habe, sondern weil es sich so angehört hat)

wie du so etwas innerhalb einer DAW 'sehr leicht' messen willst, ist mir schleierhaft.
Wo willst du da ansetzen ?

Wenn es so simpel wäre, dann hätte Protools nicht ein derart restriktives Lademodell für DSP Code.
Die Verarbeitung läuft pro Modul bis zu 3 Samples auseinander, wenn Chip Grenzen überschritten werden.
Frühe EQ und Kompressor Plugins von SonicTimeworks für Creamware Karten hatten genau dieses Problem.
(da haben die Entwickler tatsächlich gepennt, um es mal so zu nennen)

Ein dediziertes DSP System macht aber in sich definitiv Echtzeitverarbeitung (es kann gar nicht anders).
Und trotzdem ist es (bei aller Sorgfalt) auf der Zeitachse nicht immer perfekt zu kontrollieren.
Die Praxis sieht da manchmal etwas anders aus als die Theorie.
Der entscheidende Unterschied zur CPU ist die Lastunabhängigkeit.

Da kann logischerweise unter einem normalen Desktop OS so allerhand passieren.
Es sind wesentlich mehr Daten (in der CPU) unterwegs und mit ganz unterschiedlicher Ausrichtung.
Imo ist es durchaus vernünftig, da im quasi Echtzeitbetrieb (Monitor) Ungenauigkeiten einzukalkulieren.

und nur darum ging es hier - wenn das Ding im Mixdown die Zeit hat, alles säuberlich zu sortieren und anzuordnen, dann wird das Ergebnis im Rahmen der Mathematik auch stimmen.
Selbst wenn ein AV Programm dabei Aktualisierungen aus dem Internet lädt.
Aber darauf (den Mixdown) zu warten haben offensichtlich weder pH noch ich Lust.
Wir wollen was einstellen, es im Monitor hören und genau das Ergebnis auch auf dem virtuellen Band haben.

Es ist einigermassen belanglos, wo der Schuldige sitzt.
Man kennt eben seine Pappenheimer... bei kritischen Sachen prüft man kurz nach und ansosten ist es wurscht :D

cheers, Tom
 
@Sack

Der Punkt ist aber, dass weder Windows noch Mac OS noch Linux Betriebssysteme sind, die Echtzeitverarbeitung garantieren können. Das letzte Wort hat das Kernel und nicht irgendeine Anwendung. Und das muss sich um die Verwaltung aller Komponenten und Prozesse kümmern, egal wie performant sie reagieren. Da kann eine Audio-Anwendung noch so dringend auf Daten oder Rechenzeit warten. Es gehört zum Basiswissen eines Informatikers, dass es echtes Multitasking in unseren aktuellen Desktop-Betriebssystemen nicht gibt, faktisch kann zu einem Zeitpunkt nur genau ein Prozess gleichzeitig ausgeführt werden, auch wenn multiple Kerne und hohe Rechengeschwindigkeit das natürlich relativieren. Am Prinzip ändert das aber nichts.
Sorry für meine Unverfrorenheit, aber starke Aussagen erzeugen entsprechend starken Gegenwind :)
Außerdem scheinst du ja die Weisheit und absolute Wahrheit für dich gepachtet zu haben, da du ja anderen Meinungen Ahnungslosigkeit unterstellst. Das kann ich gar nicht ab. Welche Instanz meinst du zu sein, die dir das Recht dazu gibt? Was ist deine Qualifikation? Ich arbeite seit 1992 in der Software-Entwicklung. In der ganzen Zeit ist mir noch niemand begegnet, der ernsthaft behauptet hätte, man könne mit Single-Prozessorsystemen, die unsere Desktop OS nun mal immer noch sind, echtes Multitasking mit garantierter Echtzeit-Antwortzeit betreiben. Und genau das wäre (neben einigen weiteren kosmetischen Bestandteilen) die Voraussetzung um das 100%ig perfekte System (in diesem Kontext hier) zu erhalten, was du behauptest.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Der Punkt ist aber, dass weder Windows noch Mac OS noch Linux Betriebssysteme sind, die Echtzeitverarbeitung garantieren können. Das letzte Wort hat das Kernel und nicht irgendeine Anwendung. Und das muss sich um die Verwaltung aller Komponenten und Prozesse kümmern, egal wie performant sie reagieren. Da kann eine Audio-Anwendung noch so dringend auf Daten oder Rechenzeit warten. Es gehört zum Basiswissen eines Informatikers, dass es echtes Multitasking in unseren aktuellen Desktop-Betriebssystemen nicht gibt, faktisch kann zu einem Zeitpunkt nur genau ein Prozess gleichzeitig ausgeführt werden, auch wenn multiple Kerne und hohe Rechengeschwindigkeit das natürlich relativieren. Am Prinzip ändert das aber nichts.

All das hat mit diesem Thema aber nichts zu tun. Echtzeitaudio funktioniert halt einfach (bzw. Echtzeit plus Puffergröße). Und das funktioniert nachvollziehbar, immer gleich, samplegenau, etc etc. Jeder erfolgreiche Nulltest (den ich natürlich an jedem beliebigen Tag wieder aufrufen kann) ist dafür Beweis genug. Es gibt da keine "Tagesform". Und jeder brauchbare Sequenzer ist so programmiert, dass er natürlich den von dir beschriebenen Problemen (auf welche Arten und Weisen auch immer) Rechnung trägt. Das Endresultat ist dennoch perfekt. Und zwar, auch wenn es langsam nerven mag: perfekt.

Sorry für meine Unverfrorenheit, aber starke Aussagen erzeugen entsprechend starken Gegenwind :)

Kein Problem.

Außerdem scheinst du ja die Weisheit und absolute Wahrheit für dich gepachtet zu haben, da du ja anderen Meinungen Ahnungslosigkeit unterstellst. Das kann ich gar nicht ab. Welche Instanz meinst du zu sein, die dir das Recht dazu gibt? Was ist deine Qualifikation?

Ich bin seit etlichen Jahren in dem Metier sozusagen daheim. Neben dem Betreiben meines eigenen Projektstudios bin ich seit zig Jahren Betatester für kleine wie (streckenweise sehr) große Musiksoftwarefirmen. Ich bin also User, nicht Programmierer. Aber ich weiß sehr genau, wie man testet, ob etwas identisch klingt oder nicht.

Ich arbeite seit 1992 in der Software-Entwicklung. In der ganzen Zeit ist mir noch niemand begegnet, der ernsthaft behauptet hätte, man könne mit Single-Prozessorsystemen, die unsere Desktop OS nun mal immer noch sind, echtes Multitasking mit garantierter Echtzeit-Antwortzeit betreiben. Und genau das wäre (neben einigen weiteren kosmetischen Bestandteilen) die Voraussetzung um das 100%ig perfekte System (in diesem Kontext hier) zu erhalten, was du behauptest.

Ich habe das niemals behauptet. Ich habe nur behauptet, dass die Systeme unter den gegebenen Konditionen perfekt sind. Echtzeit hieße ja auch keine Latenz. Die haben wir aber. Und die ist auch notwendig, damit es quasi wie Echtzeit funktioniert. Und unter der Voraussetzung "Echtzeit plus Puffergröße" sind Sequenzer schlicht und ergreifend perfekt - wenn sie denn keinen Programmierschaden haben. Meine Songs klingen jeden Tag identisch und ich kann jederzeit einen Nulltest durchführen. Und wenn ich heute bounce, morgen reimportiere, übermorgen phasendrehe und überübermorgen vergleiche, dann wird das immer noch ganz genau so funktionieren. Das ist für mich perfekt. Und es ist Tatsache, dass es so funktioniert, wenn nicht ein Programmierer Mist gebaut hat.
Das kann man alles sehr einfach testen. Manchmal braucht es u.U. einen zweiten Rechner (bzw. ein anderes digitales Aufnahmemedium), aber das war's auch schon.

Und was die Ahnungslosigkeit angeht, so habe ich nicht dich persönlich gemeint.

- Der Sack
 
Okay, sind wir uns einig, dass kalkulierte Latenz das immer noch nötige Eingeständnis an die Unvollkommenheit der Systeme und der Ausgleich nicht endgültig kalkulierbaren Antwortverhaltens darstellt.

Und, fürs Protokoll, die Systeme sind somit nicht 100%ig perfekt :)

Weiterhin möchte ich noch zur Vorsicht mahnen, was die Aussage betrifft: "was man nicht messen kann, existiert nicht". Die ist in ihrer Endgültigkeit nicht korrekt, ansonsten wären wir bereits am Ende jeglicher Forschung angelangt. Was wir aber nun beim besten Willen noch überhaupt gar nicht sind.

Damit back to the Stoff.
 
wieso sollte ich was schuldig sein ? sind doch alle Zutaten genannt:
die Creamware/Sonic Core Anwender schwören auf ihr VDAT
pH schreibt, dass ein TDM Mix 'tighter' rüberkommt als beliebige native DAWs
ich habe dasselbe Gefühl auf einem anderen von der CPU unabhängigen System.
(nicht weil ich danach gesucht habe, sondern weil es sich so angehört hat)

So Dinge wie "Gefühl" und "auf etwas schwören" oder "tighter" - das weist also etwas nach?
Sorry, das sind faule Ausreden. Natürlich muss man seinen teuren Kram ja besser finden.
Wenn du meinst, dass es in einer nativen Umgebung einen Sampleversatz gibt - und du scheinst ja felsenfest davon überzeugt zu sein, dann solltest du lieber einen Nachweis liefern. Oder ansonsten - pardon, aber so ist es - nicht mitreden.

wie du so etwas innerhalb einer DAW 'sehr leicht' messen willst, ist mir schleierhaft.
Wo willst du da ansetzen ?

Du sagst doch, es gibt zwischen irgendwelchen Signalen einen Sampleversatz. Das kann man ganz leicht nachmessen. Sage mir, wo genau der Sampleversatz stattfindet, ich sage dir, wie man das wissenschaftlich brauchbar testet und danach legen wir los.

Wenn es so simpel wäre, dann hätte Protools nicht ein derart restriktives Lademodell für DSP Code.

Es ist mir, mit Verlaub, vollkommen schnuppe, was ProTools braucht oder nicht.

Worum geht es in diesem Thread noch gleich? Es geht um parallele Kompression. Und da hast du behauptet, dass es in einer nativen Umgebung wegen des mehr oder minder zwansgläufigen Sampleversatzes auf Bussen entweder Probleme geben würde oder eben auch extra fett klingen würde. Beides ist nicht der Fall. Wenn doch, dann bitte ich um ein ganz konkretes Beispiel, wie man diesen Sampleversatz erzeugen kann. Ich kann das mit 3 Hosts nicht (es sei denn, ich schalte die komplette Latenzkompensation in Logic aus, dann werden nämlich Busse nicht berücksichtigt). Mit welchem Host hast du also diese Erfahrung gemacht? Und bei welcher Vorgehensweise? Und ja, da hätte ich lieber konkretere Antworten als "kennt man doch, Host XYZ klingt geiler" oder anderen seltsamen Kram.



Ein dediziertes DSP System macht aber in sich definitiv Echtzeitverarbeitung (es kann gar nicht anders).

Soviel zu gründlicher Information. Ein dezidiertes DSP-System ist ein Rechner mit vielleicht spezieller CPU und eigens programmiertem Betriebssystem. Das Problem der Latenz und der Rechengeschwindigkeit bleibt bestehen, wenn auch die Werte kleiner sind. Von definitv kann desungeachtet keine Rede sein.

Der entscheidende Unterschied zur CPU ist die Lastunabhängigkeit.

Nöö. Ganz einfach nöö.
Das DSP-gestützte System erlaubt halt nur eine gewisse Last, während man einen Rechner überlasten kann. Lastunabhängiger ist da gar nix.

Imo ist es durchaus vernünftig, da im quasi Echtzeitbetrieb (Monitor) Ungenauigkeiten einzukalkulieren.

Die finden nicht statt. Es sei denn, du lieferst endlich ein Testbeispiel, damit man es auch nachvollziehen kann. Bisher erzählst du nur, was du glauben möchtest, nachweisbar ist da nichts.

und nur darum ging es hier - wenn das Ding im Mixdown die Zeit hat, alles säuberlich zu sortieren und anzuordnen, dann wird das Ergebnis im Rahmen der Mathematik auch stimmen.

Erneut falsch, das Ergebnis stimmt auch beim monitoren, andernfalls würden Nulltests fehlschlagen.

Wir wollen was einstellen, es im Monitor hören und genau das Ergebnis auch auf dem virtuellen Band haben.

Genau so mache ich es seit zig Jahren. Und es klappt *immer*. Mein Bounce klingt immer 100% so wie der Mix beim monitoren. Das kann ich nachweisen.

Es ist einigermassen belanglos, wo der Schuldige sitzt.

Wenn man solche wagemutigen Behauptungen wie du aufstellt, dann sollte man den Schuldigen lieber festnageln können. Ich würde mir sonst recht albern vorkommen.

- Der Sack

---------- Post hinzugefügt um 23:12:25 ---------- Letzter Beitrag war um 23:09:34 ----------

Okay, sind wir uns einig, dass kalkulierte Latenz das immer noch nötige Eingeständnis an die Unvollkommenheit der Systeme und der Ausgleich nicht endgültig kalkulierbaren Antwortverhaltens darstellt.

Und, fürs Protokoll, die Systeme sind somit nicht 100%ig perfekt :)

Doch, sind sie. Sie sind nicht "perfekte Echtzeit". Aber davon war überhaupt niemals die Rede. Sondern von paralleler Kompression, die laut Telefunky in einer nativen Umgebung nicht wirklich genau funktionieren soll. Das ist schlichtweg falsch. Denn sie funktioniert sogar perfekt (im Sinne von 1+1=2 jedenfalls).

- Der Sack
 
Okay okay komm mal runter ;)

Da du so schön andere Aussagen bereits zusammengefasst hast will ich mal mit deinen anfangen:

Du behauptest ein Computer ist absolut perfekt.
Ein einfacher Computer mit einer nativen DAW draufgeklatscht schafft locker die Quali einer komplexen und auf Audio abgestimmten DSP Umgebung.
Alles ist messbar! Wir haben die Methoden, alles zu messen und damit alles zu wissen was so in unserem Erschaffenen vorsich geht.
Native DAWs können im Playback (nicht umsonst preview genannt - in Cubase gibt es dafür übrigends einen Modus die Quali der RT Wiedergabe etwas zu steigern) genau de Quali liefern wie im offline Verfahren.


Frage:
Wieso zum Teufel existieren in den meisten Majoräumen denn überhaupt DSP Lösungen wenn ein einfacher Computer es auch tun würde?
Und wieso stattet man nicht selten Nuendo, eine eigentlich native DAW mit DSP Systemen von Drittherstellern aus um sie Kompatibel für Boardmixing zu machen?
Gleiches bei Pro Tools - wieso gibt das immer noch die HD-Karten wenn es das Programm auch als native Ausgabe gibt?
Wieso wird wohl sämtliche damit zusammenhängende SW und HW regelmäßig aktualisiert? Wohl kaum weil sie bereits perfekt ist oder?!

Zuletzt bitte ich dich einfach mal die Augen zu öffnen und die Realtität zu sehen -> :eek: <- Ein Beweis tut nicht not, weil jedes Schwein weiß wie es ist. Ob du letztlich anderer Meinung bist könnte theoretisch egal sein, solange du nicht anderen Unfähigkeit unterstellst. Auch wenn mein Berufstand häufig durch "Rec./Mixing-Nerds" die nicht schlafen gehen, in dunklen Räumen arbeiten und mehr oder weniger in der Musik leben, im gleichen Atemzug mit "fernab von der Realität" beschrieben werden entspricht das noch lange nicht der Wahrheit.
Hups! Das stimmt ja doch! :evil: Zumindest der erste Teil vor dem zweiten Komma. Alles danach fällt unter die Kategorie Vorurteile. Wieso ich das sage, weil bei deiner Aussage zu "verträumten und naiven Studionerds" oder wie das auch war nicht viel zu einer persönlichen Beleidung gefehlt hat. Da bin ich überempfindlich im Sinne von "THIISSS ! ISS ! SPAARRRRRTA!" :mad:
 
:mampf:


Darf ich mal anmerken, dass ihr euch im Kreis dreht
 
  • Gefällt mir
Reaktionen: 4 Benutzer
Ach wegen ||-Ketten:

Auf nativ wirst du eine bestimmte Anzahl problemlos hinbekommen. Wird es excessiv wird es schwierig und es treten Fehler beim PB auf.
Das es einen Sampleversatz gibt kann ich dir aus eigener Erfahrung bestätigen. Lade doch mal den Active EQ von Stoftube in der ältesten Version in||-Kette in ein bestehendes Projekt.
Und dass es manchmal dadurch fetter klingt ebenfalls. Aber meist mit dem Symptom, dass etwas Definition flöten geht. Mal kein Thema, mal gaanz übel.

Übrigends werden heute die meisten tieferen Eingriffe in den sound in solch einer Parallelschaltung realisiert. Die Leute stehen sonst zu schnell auf der Matte und kommen mit Korrekturvorschlägen. Wieso? Warscheinlich weil sie selber ein wenig Ahnung davon haben und ungefähr wissen was passiert ist und so was ähnliches bereits in die Session eingebaut hätten wenn sie's wollten (Problem der Psyche, denn leider gucken die wenigsten Objektiv auf die eigene Aufnahme). Irgendwie scheint heutzutage nur noch diese Art der Bearbeitung das Staunen auf die Gesichter zu zaubern. So viel Spuren wie bei mir zT rauskommen behaupte ich einfach mal kann dein System nicht problemlos fahren ;)

@Novik: Ich habe fertig :D
 
...Aber davon war überhaupt niemals die Rede. Sondern von paralleler Kompression, die laut Telefunky in einer nativen Umgebung nicht wirklich genau funktionieren soll. Das ist schlichtweg falsch. Denn sie funktioniert sogar perfekt (im Sinne von 1+1=2 jedenfalls).
nenn mich von mir aus wie es dir Spass macht :D ... aber zitiere mich bitte nicht falsch.
Der Wortlaut war (mehrfach):
wenn das Ergebnis der einer rein level-basierten PK als 'fett' eingestuft wird, dann ist da was schiefgegangen...

und Unterstellungen wie 'teures Zeug rechtfertigen' ... LOL
Das hat mich weder einen Arm noch ein Bein gekostet, aber dafür Unmengen an Zeit und (Folge)Ausgaben gespart.
brauchte 10 Jahre keine Hardware wechseln.
(gut, etwas aufgestockt, aber die erste Karte läuft immer noch, den grössten Teil des Jahres im 24/7 Modus) :p
Ich brauch diesen ganzen update Schei*** nicht - im Gegenteil ich hasse sowas.
nebenbei bemerkt:
die 2. Hälfte meines Systems war so obszön billig, dass ich den deal nur gemacht habe, weil cash bei Abholung ging.
Ich hab's für Abzocke gehalten. Paypal gab's da noch nicht...

du darfst die Technik gern aus deinem Blickwinkel betrachten - ich muss das, was ich höre nicht rechtfertigen.
Imperativ funktioniert bei mir sowieso nur gegen bares... :D

cheers, Tom
 
Frage:
Wieso zum Teufel existieren in den meisten Majoräumen denn überhaupt DSP Lösungen wenn ein einfacher Computer es auch tun würde?
Und wieso stattet man nicht selten Nuendo, eine eigentlich native DAW mit DSP Systemen von Drittherstellern aus um sie Kompatibel für Boardmixing zu machen?
Gleiches bei Pro Tools - wieso gibt das immer noch die HD-Karten wenn es das Programm auch als native Ausgabe gibt?

a) Es ist nach wie vor möglich, selbst den schnellsten Multicore-Rechner leistungsmäßig an die Wand zu fahren. Mal einen Softsynth wie Diva getestet?
b) Das Geld ist da.
c) Der Trend geht zu reinem Computer, als Experte solltest du das wissen. Vor ca. 15 Jahren hätte auch niemand gesagt, dass es heute quasi keinen Hardware-Sampler mehr in irgendeinem Studio gibt.

S.o.

Wieso wird wohl sämtliche damit zusammenhängende SW und HW regelmäßig aktualisiert? Wohl kaum weil sie bereits perfekt ist oder?!

Du liest anscheinend nicht vollständig.
Ich habe gesagt, dass die Resultate mathematisch perfekt sind. Und genau das sind sie.

Ein Beweis tut nicht not, weil jedes Schwein weiß wie es ist. Ob du letztlich anderer Meinung bist könnte theoretisch egal sein, solange du nicht anderen Unfähigkeit unterstellst.

a) Wenn man offensichtlichen Quatsch behauptet, dann sollte man da bei Nachfragen gewappnet sein. Ist man aber anscheinend nicht, denn ein Szenario zum testen wurde bislang nicht dargebracht.
b) Hier ist keine andere Meinung gefragt sondern messbare Wahrheiten. Wenn du an das glaubst, was "jedes Schwein weiß" (im übrigen ebenfalls eine extrem fragwürdige Aussage...), dann darfst du das sehr gerne. Aber so lange du keinen einzigen Test lieferst, in dem die diversen hier vorgebrachten "Fehler" auftreten, ist das eben nur dein Glauben. Und Glauben ist mitnichten Wissen. Folglich glaubt jedes Schwein das anscheinend auch nur. Und wenn du selber der "jedes Schwein" Gruppe angehören möchtest, na bittesehr.

Alles danach fällt unter die Kategorie Vorurteile.

Ganz augenscheinlich treffen ja bei dir vermutlich genau diese Vorurteile zu... lassen wir es damit lieber sein.

Aber abgesehen davon:

Wieso ich das sage, weil bei deiner Aussage zu "verträumten und naiven Studionerds" oder wie das auch war nicht viel zu einer persönlichen Beleidung gefehlt hat. Da bin ich überempfindlich im Sinne von "THIISSS ! ISS ! SPAARRRRRTA!"

Sei mal ruhig überempfindlich, das ist mir vollkommen schnurzpiepegal (was für ein saudämlicher Spruch übrigens, dieses "This is Sparta" - aber nun gut, einige Leute lieben es gerne martialisch, wenn es auf sachlicher Ebene nicht mehr funktioniert). Nur: Sage mir bitte, ob bei dir gerade Vollmond ist? Oder warum du sonst irgendwelche Aussagen meinerseits herbeizuhalluzinieren scheinst? Denn ich habe nirgendwo in diesem Thread auch nur ansatzweise so etwas gesagt.

Ach wegen ||-Ketten:

Auf nativ wirst du eine bestimmte Anzahl problemlos hinbekommen. Wird es excessiv wird es schwierig und es treten Fehler beim PB auf.

Ab wann ist für dich exzessiv? Welche Fehler treten auf? Beispiele?

Das es einen Sampleversatz gibt kann ich dir aus eigener Erfahrung bestätigen. Lade doch mal den Active EQ von Stoftube in der ältesten Version in||-Kette in ein bestehendes Projekt.

Na und? Was soll genau das beweisen? Es beweist, dass vermutlich der EQ nicht sauber programmiert wurde und aller Wahrscheinlichkeit nach nicht den korrekten Wert an Samples, die er selber zum Berechnen braucht, an den Host weitermeldet. Das ist bei zahlreichen älteren Plugins so. Als sog. Studioexperte solltest du sowas aber schon wissen, oder?

Und dass es manchmal dadurch fetter klingt ebenfalls. Aber meist mit dem Symptom, dass etwas Definition flöten geht. Mal kein Thema, mal gaanz übel.

Wir reden hier nicht davon, ob etwas fett oder scheiße klingt. Das ist definitv nicht Gegenstand der Debatte.
Wir reden darum ob, wann und warum gewisse Dinge passieren. Alles Dinge, die keiner geschmacklichen Beurteilung bedürfen.

So viel Spuren wie bei mir zT rauskommen behaupte ich einfach mal kann dein System nicht problemlos fahren ;)

Erneut ein vollkommen irrelevantes Statement. Darum geht es hier absolut gar nicht.

nenn mich von mir aus wie es dir Spass macht :D ... aber zitiere mich bitte nicht falsch.
Der Wortlaut war (mehrfach):
wenn das Ergebnis der einer rein level-basierten PK als 'fett' eingestuft wird, dann ist da was schiefgegangen...

Erstens hast du das genau so absolut gar nicht gesagt, von Wortlaut kann schon mal keine Rede sein.
Und dann erkläre doch mal, wieso da was schiefgegangen sein muss?
Da sitzt also ein Compressor in meinem Parallelbus, und wenn das dann geil klingt, ist gleich was kaputt? Habe ich das so korrekt verstanden? Anders kann man den Kram ja eigentlich nicht lesen. Oder was ist sonst eine rein level basierte Parallelkompression?
Mich beschleicht hier die Ahnung, als hättest du noch nicht wirklich damit rumexperimentiert. Wenn überhaupt schon mal. Dann wüsstest du nämlich, dass mitnichten etwas schief gegangen sein muss, damit das gut klingt. Das ist eine These, die du aufstellst. Ein ganz schön hohes Ross, auf dem du da sitzt. Damit verkaufst du Leute, die das ganz bewusst einsetzen, eigentlich für dumm. Denn deine These sagt ja aus, dass es nicht fett klingen kann, nur levelbasiert aber ohne Zeitversatz. Sprich, die Leute machen das aus Versehen, weil sie nicht wissen, dass ihr Host kaputt ist.
Oder habe ich da wieder was falsch verstanden? Deine obige Aussage, die du ja extra so als "Wortlaut" gewählt hast, kann man nicht anders lesen.

Aber nun ja, da du unbedingt korrekt zitiert werden möchtest, hier eine kleine Auswahl:

In der DAW dürfte sich eher ein Effekt durch unterschiedliche Laufzeiten ergeben (wenn das Signal sonst nicht verändert wurde)

--------

den meisten Anwendern, die auf das Stichwort 'Parallelkompression' anspringen, geht es gar nicht um Dynamik.
[…]
die Wege dürften in vielen Fällen nicht phasensynchron laufen und das kann schon mal dick auftragen...

--------

Im Detail lässt sich das in der 'engine' einer DAW kaum kontrollieren. Und in der CPU erst recht nicht...
[…]
Letztens hatte ich sogar mal den Eindruck, das dasselbe Plugin im schlichten 'VST-Host' anders reagierte, als in der Spur der DAW.

-------

ergo muss da eine Monitor-Differenz einkalkuliert werden
das wäre für mich zumindest ein plausibler Ansatz, das Gehörte nachzuvollziehen.
Der Unterschied ist zwar nicht unbedingt Tag und Nacht, aber er ist vorhanden.

--------

Aber in kritischen Fällen kann es schon mal ein signifikanter Unterschied sein.
Die angesprochene Parallelverarbeitung auf Plugin-Ebene neigt da von Natur aus eher zur Auffälligkeit.
Von der Wertung her würde ich es wie die Gleichlaufschwankungen beim Band einstufen.

-------

natürlich habe ich mich damit befasst - es nervt schliesslich, wenn man einen Mix nach Monitor einstellt und sich die Ausgabedatei dann anders anhört.

Ein ganzer Haufen komplett "korrekter" Zitate, die selbstverständlich Fragen aufwerfen. Fragen, die du aber, außer mit Allgemeinplätzen, nicht beantworten möchtest.
Du hast nach wie vor nicht EIN EINZIGES Beispiel für den ganzen oben zitieren Unsinn erbracht. Und ja, Unsinn werde ich das allerdings weiterhin nennen, solange da keine konkret nachweisbaren Dinge stehen.

du darfst die Technik gern aus deinem Blickwinkel betrachten - ich muss das, was ich höre nicht rechtfertigen.

Nochmals: Ich betrachte die Technik nicht aus meinem Blickwinkel. Ich teste etwas und analysiere es. Wenn das Resultat korrekt ist, dann hake ich es ab, wenn nicht, dann schaue ich, woran es liegt. Bzw. in diesem Fall, an welcher Stelle im Signalweg es passiert.
Und nein, das was du hörst, das musst du nicht rechtfertigen, absolut nicht. Kann ja durchaus sein, dass du schlechte Ohren hast. Ist aber auch vollkommen irrelevant.
Nur sollte man, wenn man mit solchen Statements wie du in einen solchen Thread einsteigt, besser auch wissen, wovon man redet. Was augenscheinlich nicht der Fall ist, denn du zierst dich ja, mit auch nur einem einzigen Beispiel rauszurücken - was aber doch, bei der Allgemeingültigkeit, die deine Aussagen haben, ein leichtes sein müsste.

Imperativ funktioniert bei mir sowieso nur gegen bares...

Äh, das ist ja ein interessanter Charakter, den du da hast. Zeugt von viel Rückgrat - wenn ich dir Kohle gebe, machst du dann ganz brav "Sitz!"?

Ach ja, eines noch:
Ich befasse mich aber lange genug mit Rechnertechnik (und verdiene meine Brötchen damit), dass ich über Sätze wie: ein Rechner ist perfekt (bzw rechnet perfekt) nur lachen kann.

Ein Rechnerexperte, der es für normal bzw. häufig hält, dass auf den Desktop gezogene Ordner spurlos verschwinden. Man gut, dass meine Rechner nicht durch deine Hände gehen.
Abgesehen davon scheine ich aber auch einen der wenigen Ausnahmerechner abbekommen zu haben. Denn der kann ganz perfekt 1+1 rechnen. Das Ergebnis ist immer identisch. Den interessiert es auch nicht, auf welchen fragwürdig vorformatierten Festplattenteilen meine Audiofiles gespeichert sind. Die klingen nämlich immer ganz fein nach 24bit/44.1kHz. Und die mag mein Rechner dann auch mit quasi 100%iger Zuverlässigkeit zusammen abspielen und summieren. Und bouncen.
Komisch, dass der das so kann, oder?
Besonders komisch, wenn man bedenkt, dass ein einziger bit-Fehler auf digitaler Ebene schon die komplette Unbrauchbarkeit eines Files zur Folge haben kann. Aber irgendwie kann der das doch, der Rechner. Meiner jedenfalls. Deiner anscheinend ja nicht.
Wie ja auch deine Hosts (welche es auch sein mögen) unfähig zu sein scheinen, Latenzen auf Bussen zu kompensieren. Geht bei mir komischerweise. Ich bin aber auch ein Glückspilz, oder? Normalerweise klappt das doch alles gar nicht! Kann ja auch gar nicht klappen! So ganz ohne zusätzliche DSP-Hardware. Was ist das überhaupt für ein dummer Sack? Kommt hier her und hat noch nicht mal dezidiertes DSP Zeug - ist ja ekelig!
Aber nunja, du bist der Rechnerexperte. Du wirst schon wissen wie's geht.

Andererseits: Puha! Ich hatte schon gedacht, du könntest sogar ernsthaft mit Musikmachen zu tun haben...

- Der Sack

---------- Post hinzugefügt um 03:34:49 ---------- Letzter Beitrag war um 03:25:10 ----------

Darf ich mal anmerken, dass ihr euch im Kreis dreht

Leider ist das so, da ja auch keiner der Herren in der Lage ist, handfeste Beweise rüberwachsen zu lassen. Weiß ja eh "jedes Schwein", dass nativ nicht geht. Super Aussagen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Wenn jeder auf seiner Position verharrt, kommt man hier nicht weiter.

Fakt ist erst einmal folgendes:

Bei Vorliegen der absolut identischen Ausgangsdaten und identischer Parameter wird jedes Stück Software exakt dasselbe Ergebnis liefern, da gibt es in der digitalen Welt keine Graustufen. Dann spielt es auch keine Rolle, ob die Software auf einem nativen System oder in einer dedizierten DSP-Umgebung ausgeführt wird. Auch die Zeit- und Mengenkomponente ist dabei zu vernachlässigen, es sei denn, es treten diverse Fehler auf.
Sei es, dass sich Speicherinhalte überschreiben oder ähnliche unschöne Dinge.
Und eins sollte allen klar sein, es gibt keine komplexere Software, die auch nur annähernd fehlerfrei ist. Ich bin zwar kein Programmierer von Audio-Software, sondern in dem Umfeld nur Anwender, doch ich denke, das kann man getrost als allgemein gültig annehmen.

Aber, und ich denke hier liegt der Hase im Pfeffer, ist denn überhaupt die Bedingung gegeben, dass das Ausgangsmaterial 100% identisch ist?
Wer kann das hier mit Sicherheit sagen? Denn ebenso wie der obige Fakt gültig ist, gilt genauso die Aussage, dass bei Vorliegen von unterschiedlichen Ausgangdaten ein abweichendes Ergebnis entstehen wird.

Bevor ihr euch also weiter die Köpfe an eurer Starrsinnigkeit einschlagt, sollte man vielleicht mal ganz emotionslos die Frage stellen, was ist denn an Ausgangsmaterial gegeben. Und damit meine ich nicht die Audio-Rohdaten, die - identische A/D-Wandler mit identischer Auflösung vorausgesetzt - in die DAW gespeist werden.
Vielmehr meine ich den zum Zeitpunkt des Compressor-Einsatzes bereits vorbearbeiteten Datenstrom.

Wer kann denn hier diese Frage beantworten? Sicherlich keiner von euch.
Das kann nur der Programmierer der Plug-Ins bzw. der DAW.
Und auch der wird sich schwer damit tun, genau die Grundannahmen verlässlich zu bestätigen. Nicht umsonst benötigen Debugging und Analyse genau solcher Fragestellungen den weitaus größten Anteil an Zeitaufwand während der Entwicklung einer Software.

Aus dem Grund denke ich, habt ihr mit euren starren Aussagen beide nicht recht. Könnt ihr auch nicht haben, da ihr es einfach nicht wisst, nicht wissen könnt.
Und zum Thema des Nulltests kann ich nur müde lächeln. Möglicherweise gibt er im Rahmen eines abgeschlossenen Systems die gewünschten Antworten.
Wir haben es aber nicht mit in sich geschlossenen Systemen zu tun und das ist leider das Problem an der Sache. Mit diesem Problem schlagen sich Generationen von Software-Entwicklern rum.

Unterm Strich ist es müßig, über Dinge zu streiten, die man "nur von außen" beurteilen kann.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Der Punkt ist aber, dass weder Windows noch Mac OS noch Linux Betriebssysteme sind, die Echtzeitverarbeitung garantieren können. Das letzte Wort hat das Kernel und nicht irgendeine Anwendung.
Bin zwar Mac-Gegner (aus Erfahrung mit einem Mac) und seitdem "eingefleischter" Windows-Fan, aber, wenn ich nicht irre, meine ich, gelesen zu haben, daß der Kernel des MacOS inzwischen ein Linux-Kernel ist. Das MacOS ist also nichts anderes als ein Linux-Derivat. Oder sehe ich das falsch?
 
@Sack: ich bin gerührt... so viel persönliche Aufmerksamkeit :redface:
bei den Zitaten hast du charmanterweise meinen ersten Beitrag(#5) weggelassen, in dem bereits alles gesagt war... und nebenbei die so heftig angegriffene Aussage mit einem Augenzwinkern versehen war.
Zugegeben - ich hätte da ab #14 nicht drauf einsteigen sollen... mea culpa


... Wer kann denn hier diese Frage beantworten? Sicherlich keiner von euch.
Das kann nur der Programmierer der Plug-Ins bzw. der DAW.
Und auch der wird sich schwer damit tun, genau die Grundannahmen verlässlich zu bestätigen.
Nicht umsonst benötigen Debugging und Analyse genau solcher Fragestellungen den weitaus größten Anteil an Zeitaufwand während der Entwicklung einer Software.

Aus dem Grund denke ich, habt ihr mit euren starren Aussagen beide nicht recht. Könnt ihr auch nicht haben, da ihr es einfach nicht wisst, nicht wissen könnt.
Und zum Thema des Nulltests kann ich nur müde lächeln. Möglicherweise gibt er im Rahmen eines abgeschlossenen Systems die gewünschten Antworten.
Wir haben es aber nicht mit in sich geschlossenen Systemen zu tun und das ist leider das Problem an der Sache. Mit diesem Problem schlagen sich Generationen von Software-Entwicklern rum.

Unterm Strich ist es müßig, über Dinge zu streiten, die man "nur von außen" beurteilen kann.

deswegen sehe ich ebenfalls wenig Sinn in Mess-Szenarien auf CPU Ebene - kein Zugang zu Details der Verarbeitung.
Bei mir sind parallele Setups der Normalfall (deswegen habe ich da etwas Erfahrung).
Neben dem Roh-Signal vergleiche ich gern alternative Effekte und nutze sowohl outboard wie VST Plugins.
Unterschiedliche Laufzeiten werden bei Bedarf samplegenau ausgeglichen - oder auch nicht.
Nur weiss ich immer, was wo zeitlich passiert, weil die Struktur der Karte (bzw der Verarbeitung) das vorgibt.
Da gibt's keinen cache, keine Interrupts und keine Prioritäten (das nenn ich dann naiv 'lastunabhängig')
Trotzdem ist dieses simple System auf der Zeitachse nicht perfekt.
Da sollte der Schluss erlaubt sein, dass es die gequälte CPU in einem Desktop OS wohl etwas schwerer hat.

Natürlich ist das nicht mehr als eine Behauptung - Glückwunsch, wenn der Sack das perfekte System hat. :D
Was meine Ohren angeht... könnten gern besser sein.
Aber einen echten 1176 hab ich hier letztens noch von der Waves Emulation unterscheiden können.
Und zwar nicht einfach getippt, sondern genau beschrieben, was für mich das analoge Signal ausmacht.
Ganz taub bin ich also noch nicht... ;)

cheers, Tom
 
Wenn jeder auf seiner Position verharrt, kommt man hier nicht weiter.

Das mag gut sein. Tatsache ist aber, dass es in diesem Thread Leute gibt, die behaupten, dass Dinge "so und so sind". Und Tatsache ist weiterhin, dass wenn diese Dinge in der Tat so und so wären, man das auf ziemlich einfache Art und Weise überprüfen bzw. nachvollziehen könnte. Diese Art der Bestandsaufnahme inkl. einiger Schritte, um gewisse Dinge zu verifizieren ist übrigens Teil eines jeden brauchbaren Software-Betatests.
Und so lange die bewussten Leute hier nicht mit "Butter bei die Fische" (wie man in Norddeutschland sagt) um die Ecke kommen, kommt man in der Tat nicht weiter.
Ich sagte es schon: Ich beharre nicht auf meiner Position sondern tue unverzüglich und öffentlich Buße, sobald einer der werten Herren einen nachvollziehbaren Test vorlegt.
Allerdings habe ich ganz starke Zweifel, dass so etwas passieren wird, denn von jeglicher Art wissenschaftlicher Aussage ist man auf der Gegenseite ja meilenweit entfernt. Da klingt ProTools eben "fetter" (wie wär's mit "phat"?), jedes Schwein weiß es und alles was nativ läuft funktioniert nicht korrekt. Das sind bisher die gemachten Kernaussagen. Das man mit so derart wertlosen Statements nicht weiterkommt, sollte auf der Hand liegen.

Als Anmerkung: Ich finde das übrigens sehr bedauerlich, denn eigentlich hätte man sich in diesem Thread ja auch ganz wunderbar mit den diversen kreativen Optionen, die einem parallele "Dynamik" (sage ich mal lieber anstelle von Kompression) bietet.

Bei Vorliegen der absolut identischen Ausgangsdaten und identischer Parameter wird jedes Stück Software exakt dasselbe Ergebnis liefern, da gibt es in der digitalen Welt keine Graustufen. Dann spielt es auch keine Rolle, ob die Software auf einem nativen System oder in einer dedizierten DSP-Umgebung ausgeführt wird. Auch die Zeit- und Mengenkomponente ist dabei zu vernachlässigen, es sei denn, es treten diverse Fehler auf.
Sei es, dass sich Speicherinhalte überschreiben oder ähnliche unschöne Dinge.

Auf alle Fälle.

Und eins sollte allen klar sein, es gibt keine komplexere Software, die auch nur annähernd fehlerfrei ist. Ich bin zwar kein Programmierer von Audio-Software, sondern in dem Umfeld nur Anwender, doch ich denke, das kann man getrost als allgemein gültig annehmen.

Auch das kann ich bestätigen. Aber es handelt sich bei den Fehlern im allergrößten Teil nicht um Dinge, die permanent im laufenden Betrieb auftreten. Mit anderen Worten: Essentielle Dinge wie eben das Bouncen, die Latenzkompensation (auch auf Bussen), das phasensynchrone Abspielen mehrerer (und eben auch vieler) Spuren, etc. etc.
Diese Sachen laufen normalerweise schon. Wenn nicht, dann spricht man innerhalb eines Betatest von einem "Showstopper" und die Version wird nicht auf die Allgemeinheit losgelassen. Falls das doch passiert, sieht es mit der Verantwortlichkeit des Entwicklerteams schlecht aus.
Andere Bugs gibt es natürlich auch, streckenweise sogar massiv. Das kann sogar so nervig werden, dass die Gesamtheit dieser Bugs durchaus als "Showstopper" zählt.
Aber üblicherweise ist das zum Glück in den letzten Jahren nur noch selten der Fall. Ein komplettes Debakel wie etwa damals bei der Veröffentlichung des Cubase 3.6 Updates (das in der Tat auf 90% aller Rechner nicht lief, möchte mal wissen, wie da getestet wurde...) gibt es heute kaum noch.
Heißt im Endeffekt: In jedem nenneswerten Host funktionieren die o.g. Dinge eigentlich ganz wunderbar.

Bei Plugin-Herstellern verhält es sich glücklicherweise nicht anders. Früher gab es da mehr oder minder dauerhaft Konflikte zwischen Host und Plugin, oftmals weil die Plugin-Programmierer sich nicht an die Anweisungen des genutzten Plugin-Protokolls gehalten haben (manchmal sogar aus Verärgerung, die ich im übrigen sogar verstehen kann...) oder weil gewisse Dinge seitens des Protokoll-Anbieters (also meistens Steinberg oder Apple, für TDM dann noch Digidesign/Avid) nicht ordentlich dokumentiert wurden.

Aber, und ich denke hier liegt der Hase im Pfeffer, ist denn überhaupt die Bedingung gegeben, dass das Ausgangsmaterial 100% identisch ist?
Wer kann das hier mit Sicherheit sagen? Denn ebenso wie der obige Fakt gültig ist, gilt genauso die Aussage, dass bei Vorliegen von unterschiedlichen Ausgangdaten ein abweichendes Ergebnis entstehen wird.

Dafür gibt es ja Tests die mit identischem Material durchgeführt werden. Und das ist auch genau gut so.

Vielmehr meine ich den zum Zeitpunkt des Compressor-Einsatzes bereits vorbearbeiteten Datenstrom.

Für einen neutralen Test sollte da erst einmal gar nichts vorbearbeitet sein. Und dann kann man ja gerne Dinge hinzufügen. Auch das lässt sich genau protokollieren.
Ich habe übrigens sogar schon erfolgreiche Nulltests mit MIDI-Material durchgeführt, das dann in unterschiedlichen Hosts von identischen Klangerzeugern abgespielt wurde.

Aus dem Grund denke ich, habt ihr mit euren starren Aussagen beide nicht recht. Könnt ihr auch nicht haben, da ihr es einfach nicht wisst, nicht wissen könnt.

Das kann ich so jetzt nicht stehen lassen. Wie schon erwähnt, ich stehe seit recht langer Zeit in doch ziemlich engem Kontakt zu einigen Entwicklern, darunter auch Host-Entwicklern.
Sicherzustellen, dass die von mir erwähnten Dinge funktionieren nimmt eine wirklich unglaublich wichtige Position ein. Und in den allermeisten Fällen funktionieren die Dinge dann eben auch.
Was heißt überhaupt starre Aussage? Hältst du 1+1=2 auch für eine starre Aussage?
Und auf "meiner Gegenseite", was ist da überhaupt an Aussagen zu hören, außer schwammigen Dingen a la "klingt fetter" und "weiß jedes Schwein". Das hat ungefähr so viel Aussagekraft wie Daniela Katzenberger.

Und zum Thema des Nulltests kann ich nur müde lächeln. Möglicherweise gibt er im Rahmen eines abgeschlossenen Systems die gewünschten Antworten.
Wir haben es aber nicht mit in sich geschlossenen Systemen zu tun und das ist leider das Problem an der Sache. Mit diesem Problem schlagen sich Generationen von Software-Entwicklern rum.

Im Falle des Nulltests ist das seit etlichen Jahren kein wirkliches Problem mehr und der Test ist (in seinen diversen Schattierungen) absolut berechtigt. Das ist sogar etwas, auf das Software-Entwickler dringen.
Und wie gesagt, es lässt sich da auch oftmals ganz schnell rausfinden, warum es nicht funktioniert. Das kann gerne auch mal mit der Hardware zu tun haben. Eine Onboard Soundkarte von Realtek hat nicht gerade die optimale digitale Clock. Da kann dann ganz schnell mal was aus dem Ruder laufen, gerade wenn man Online-Bounces zwecks Vergleich reimportiert. Aber das ist natürlich ein Extrembeispiel. Heutzutage ist fast jede von größeren Herstellern angebotene Audiohardware in der Lage, mehr oder minder problemlos mit Sequenzern jeglicher Couleur zusammenzuarbeiten, ungeachtet der Plattform.

- Der Sack
 
Mick Rütter;5792556 schrieb:
... Das MacOS ist also nichts anderes als ein Linux-Derivat. Oder sehe ich das falsch?
wiki Macosx dürfte doch nicht so schwer sein... schau mal rechts in den Kasten
mit Linux hat das gar nix zu tun ;)
 
  • Gefällt mir
Reaktionen: 2 Benutzer
@Sack: ich bin gerührt... so viel persönliche Aufmerksamkeit :redface:
bei den Zitaten hast du charmanterweise meinen ersten Beitrag(#5) weggelassen, in dem bereits alles gesagt war...

Da war genau gar nichts gesagt. Außer dem Blödsinn, denn du später mehrfach auch noch nachgelegt hast.

deswegen sehe ich ebenfalls wenig Sinn in Mess-Szenarien auf CPU Ebene - kein Zugang zu Details der Verarbeitung.

Falsch, du hast anscheinend nur keine Ahnung, *wie* man etwas misst.

Um es nochmal in aller Kürze zusammenzufassen: Du sagst, dass ein Zeitversatz innerhalb eines Sequenzers (vorerst egal bei welchem Signalrouting) normal ist. Dieser zeitliche Versatz lässt sich auf JEDEN FALL messbar nachweisen. Aber dafür bräuchte es ein Test-Szenario. Dieses weigerst du dich abzuliefern.
Von daher muss alles, was du hier erzählst als komplett sinnbefreites Geschwafel aus dem Blauen ausgelegt werden.
Wenn du mit einem konkreten Beispiel kommst, nehme ich das unverzüglich zurück. Bis dahin bist du für mich jemand, der sich wichtig macht und keine wirkliche Ahnung hat.

Tut mir leid, aber wer so einen Quatsch so hartnäckig ohne jegliche Nachweisbarkeit vertritt, verdient kein milderes Urteil.

- Der Sack
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben