DAW Vergleich - und sie klingen doch anders....

Sorry, aber die sachliche Ebene der digitalen Welt ist nun mal die Ebene der Algorithmen, die in der Software werkeln. Daran gibt es nichts mysteriöses.
Wenn ich in verschiedene Tabellen-Kalkulations-Programme dieselben Werte eingebe und dieselben Rechenoperationen durchführe, werden sie mir alle exakt dasselbe Ergebnis liefern.
Das ist imho etwas zu optimistisch formuliert...
Liegt zwar schon etwas länger zurück, aber ich kann mich an einen Kunden erinnern, der gern Tabellenkalkulation A verwendet hätte, aber nicht konnte weil bei 3-stelligen Millionenbeträgen nicht mehr korrekt auf den Cent gerundet wurde. Also setzte er B ein, was den Vorgang per BCD-Arithmetik löste.

Anderer Fall: während ein einfacher Rechenschritt praktisch immer ein korrektes Ergebnis liefert, kann das bei iterativen/rekursiven Prozessen überraschend schnell aus dem Ruder laufen. Da gab es einst (konstruierte) Beispiele für Taschenrechner, wo selbst hochwertige Modelle eklatant scheiterten.

Auch die „algorithmische Welt“ kennt nicht nur Schwarz und Weiss als Farben.
(das ist nur ein allgemeiner Hinweis und muss nicht vertieft werden)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Warum wird das Ganze hier eigentlich so hochgespielt. Ist das immer so?
Nur wenn ein Fachmagazin durch einen fehlerhaften Versuchsaufbau zu falschen Ergebnissen kommt und diese dann zur Diskussion stellt.

Die Gitarren werden in Cubase, Studio One etc. nur mono abgespielt in Pro tools stereo (vermutlich wegen Split stereo Import).
Ihr schließt daraus, dass Pro Tools "breiter klingt"... das ist aber einfach nur ein Bedienfehler!
Bei Ableton sind Vocals und Drums mindestens 6dB leiser - auch das kann nur ein Bedienfehler sein!
Wenn also 99,99% (100% aus meiner Sicht) der klanglichen Unterschiede in Bedienfehlern liegen...ist es nahezu unmöglich sachlich zu diskutieren.
Es fehlt dazu einfach die Grundlage.
Würde das Video an eurer Stelle löschen.
Vielleicht könnt ihr das irgendwann nochmal mit einem richtigen Versuchsaufbau wiederholen.
Solche Tests gab es aber schon häufig und sie führten bei korrekter Durchführung zu identischen Ergebnissen. Bei Nulltest = 100% Auslöschung!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 3 Benutzer
Auch die „algorithmische Welt“ kennt nicht nur Schwarz und Weiss als Farben.
(das ist nur ein allgemeiner Hinweis und muss nicht vertieft werden)
Trotz des Hinweises möchte ich kurz darauf eingehen.
Sicher ist meine Formulierung etwas zu pauschal vereinfachend, denn es gibt auf der digitalen Ebene auf jeden Fall etliche Quellen, wo Ungenauigkeiten und sogar Fehler passieren können.
Bei AD-Wandlern kennt man das Quantisierungsrauschen, Aliasing, Pass-Bad-Ripple u.a. Auf Rundungs-Fehler bei Fließkommaberechnungen wurde schon hingewiesen, bei FFT entstehen auch Fehlerquellen usw., Dither ist eine Art angewandter "Fehler", der aber sogar die Präzision des Ergebnisses verbessert. Intersample-Peaks seien auch noch genannt.
Aber generell liegt der Störpegel, der in der Praxis durch diese unvermeidlichen Fehlerquellen in der digitalen Audiotechnik auftreten kann heutzutage sehr, sehr niedrig, weit unter -90 dB(FS), oft bis unter -120 dB(FS) und bei Rechenoperationen mit einer Bit-Tiefe von 32 bit noch weit darunter. Das hat man also heutzutage (und eigentlich schon sehr lange) technisch und von den Algorithmen her im Griff. Davon wird normalerweise nichts hörbar, absolut nichts (schlampig programmierte PlugIns oder 100-faches Neuberechnen des Materials bleiben bei der Betrachtung außen vor).

Wenn ich also von "deutlich hörbaren" Unterschieden lese, die nicht auf die Bedienung, sondern auf interne Abläufe der DAW zurück zu führen sein sollen, dann will ich handfeste Beweise dafür sehen. Eine nachvollziehbare Analyse und ein Versuchsaufbau, der bis ins Detail reproduzierbar ist und objektive Rückschlüsse zulässt. Wenn es so deutlich zu hören ist, dann lässt sich das auch messen. Je größer die Abweichungen, desto einfacher lässt es sich messen. Das Messen hat immer auch den Vorteil, dass Fehlerquellen im Versuchsaufbau schnell offenbar werden.
Wenn es objektive klangliche Abweichungen gibt, dann muss auch die Frage nach dem "Warum" gestellt und beantwortet und der Grund bzw. die Gründe dafür gesucht und gefunden werden.
Das wäre dann auch sehr hilfreich.

Wenn verschiedene Leute an den Files an verschiedenen DAWs mit ihren vielen verschiedenen Knöpfchen und Fadern herum schrauben und sich nicht um eine normierte Ausgangsbasis und Vorgehensweise bemühen, dann klingt es natürlich immer irgendwie anders. Aber: "what matters ..."
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Wie weltverändernd die Erkenntnisse, die die S+R-Redaktion festgestellt haben will, wirklich sind, haben die Meisten (oder Alle?) noch gar nicht registriert, denn wenn DAW-Softwares unterschiedlich klingen/rechnen/whatever, dann bedeutet das, dass auch alle in ihnen genutzten 3rd-Party-PlugIns je nach Host unterschiedlich klingen, da sie ja mit unterschiedlichem Quell-Material gefüttert werden (Effekte und Prozessoren) oder deren Ausgabe (Instrumente) unterschiedlich behandelt wird... tadaaa :D

Und sich jetzt verwundert darüber geben, dass es hohe Wellen schlägt, eine solche vermeintliche Erkenntnis unverblümt in die Welt hinauszuposaunen, erweckt den Anschein von Naivität, denn DAW-Wars sind ja nix Neues. Zumindest in der Welt der S+R-Leserschaft, also Hobbyisten, denen gefühlt im 18-Monate-Rhythmus versucht wird, zu erklären, wie EQ, Kompressor, Reverb und Co. funktionieren.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Das ist eine dumme, digitale Rechenmaschine.

Vom Dummy sie die Frage erlaubt, ob sie alles die identische Behandlung von Nachkommastellen haben? Ist es also ein identischer Algorithmus oder einer der den gleichen Regeln folgt, die der DAW Hersteller nach Gusto in einen Algorithmus umsetzt. Dieser liegt ja wohl in der DAW und nicht zentral im Betriebssystem …

Weitere Frage die mich umtreibt … was mache ich mit der Erkenntnis. Die Bewertung ob ich noch was „schiebe“ im Mix liegt doch in dem was mein Ohr wahrnimmt - also nach der Ausgabe.

Gruß
Martin
 
Zuletzt bearbeitet:
Weitere Frage die mich umtreibt … was mache ich mit der Erkenntnis. Die Bewertung ob ich noch was „schiebe“ im Mix liegt doch in dem was mein Ohr wahrnimmt - also nach der Ausgabe.

Das stimmt absolut. Unterschiede könnten darin liegen, wie schnell/zielgerichtet man vorankommt.
 
Vom Dummy sie die Frage erlaubt, ob sie alles die identische Behandlung von Nachkommastellen haben? Ist es also ein identischer Algorithmus oder einer der den gleichen Regeln folgt, die der DAW Hersteller nach Gusto in einen Algorithmus umsetzt. Dieser liegt ja wohl in der DAW und nicht zentral im Betriebssystem …
Die Zahlendarstellung und die grundlegende Arithmetik darauf ist seit Jahrzehnten standardisiert und in der CPU-Hardware implementiert. -> https://de.wikipedia.org/wiki/Gleitkommazahl
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Vom Dummy sie die Frage erlaubt, ob sie alles die identische Behandlung von Nachkommastellen haben?
Es gab da früher mal Unterschiede.
Damals war Pro Tools hinten dran, denn die hatten noch lange 24bit Festkomma. Da waren alle anderen schon bei 32bit float.
Zu der Zeit gab es dann minimale Unterschiede bei solchen DAW Tests - aber auch diese waren eigentlich zu vernachlässigen.
Manche audio myths wie "digital summing" braucht sehr viel headroom - alle DAW Tracks unter -12dB fahren - etc... stammen noch aus dieser Zeit.
Das ist aber wirklich "Schnee von vorgestern" ;)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ist es also ein identischer Algorithmus oder einer der den gleichen Regeln folgt, die der DAW Hersteller nach Gusto in einen Algorithmus umsetzt. Dieser liegt ja wohl in der DAW und nicht zentral im Betriebssystem …
Das sehe ich als beruflich vorbelasteter an der Stelle ebenso. Nur weil die Hardware eine Gleitkommaarithmetik und heutzutage auch deutlich erweiterte Funktionen zur Verfügung stellt, müssen doch die Algorithmen der Programme nicht identisch arbeiten. Mich wundern unterschiedliche Ergebnisse offen gesagt überhaupt nicht.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Die Zahlendarstellung und die grundlegende Arithmetik darauf ist seit Jahrzehnten standardisiert und in der CPU-Hardware implementiert
Spätestens da wäre es wohl auch ein Quell der Ungenauigkeiten. Fließkommaberechnungen sind per se ungenau. Wenn es um genaue, deterministische Ergebnisse geht, dann macht man in der IT einen möglichst großen Bogen um Fließkommazahlen. Selbst einfache Rechenoperationen unterliegen einer Ungenauigkeit. Will man zwei Zahlen auf Gleichheit prüfen dann macht man das mit Ganzzahlen einfach mit if(int1 == int2) und bei Fließkommazahlen muss man irgenwie so etwas machen if( abs(double1-double2) <0.0000000001) (je nach geforderter Genauigkeit). Zumal es auch darauf ankommt in welchen Fließkommaformat genau gerechnet wird.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Damals war Pro Tools hinten dran, denn die hatten noch lange 24bit Festkomma. Da waren alle anderen schon bei 32bit float.
Allerdings waren das 24bit double precision, also effektiv 48bit ;)
 
Nur weil die Hardware eine Gleitkommaarithmetik und heutzutage auch deutlich erweiterte Funktionen zur Verfügung stellt, müssen doch die Algorithmen der Programme nicht identisch arbeiten. Mich wundern unterschiedliche Ergebnisse offen gesagt überhaupt nicht.
Wir reden hier aber nicht über tolle DSP-Algorithmen sondern über die Summierung. Ja, da mag es Unterschiede geben, je nach Reihenfolge, in der die Spuren addiert werden. Aber hörbar? Ich behaupte, diese Unterschiede fallen beim Rendern in 16 oder 24 Bit unter den Tisch.
 
Will man zwei Zahlen auf Gleichheit prüfen dann macht man das mit Ganzzahlen einfach mit if(int1 == int2) und bei Fließkommazahlen muss man irgenwie so etwas machen if( abs(double1-double2) <0.0000000001) (je nach geforderter Genauigkeit). Zumal es auch darauf ankommt in welchen Fließkommaformat genau gerechnet wird.
Was sagt mir das ohne Kontext?

Praktisch hat man eine maximale Fehlermöglichkeit von 2 hoch -24 bei 32bit und 2 hoch -53 bei 64 bit Summierung. Ich unterstelle, dass heute alle DAW in 64bit-floating point summieren (müsste man mal nachschauen).
Je nach der Anzahl der verwendeten Spuren kann man die maximale Fehleranfälligkeit ausrechnen. Je mehr Spuren, desto signifikanter werden die Fehlermöglichkeiten.

Nehmen wir mal an, der schlechteste Fall mit der maximalen Fehlerzahl würde eintreten (was er in der Praxis nicht wird):
Beim Summieren von beispielsweise 16 Einzelspuren kommst du auf
2 hoch -20 das entspricht -120dBFS bei 32bit Floating point und
2 hoch -49 das entspricht -290dBFS bei 64bit Floating point.
...im schlechtesten Fall.

Das ist weit unterhalb des hörbaren Bereichs und erklärt nicht die gravierenden Unterschiede bei dem obigen Test.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Damals war Pro Tools hinten dran, denn die hatten noch lange 24bit Festkomma. Da waren alle anderen schon bei 32bit float.
Allerdings waren das 24bit double precision, also effektiv 48bit ;)
Festkommazahlen und Gleitkommazahlen sind etwas komplett anderes in ihrer digitalen Darstellung und auch Arithmetik. Festkomma hat, grob gesagt, einen eingeschränkten Wertebereich, ist aber exakt(er) in der Berechnung Als Gleitkomma.
so gesehen dürfte die Verwendung von Festkommazahlen zu deterministischeren Ergebnissen führen. Bei Gleitkomma kann leicht das eine oder andere Bit bei der Berechnung „umfallen“.
und bei Gleitkommazahlen ist Single precision eine 32-bit Darstellung und double precision eine 64-bit Darstellung.
aber ich denke wir sind genug in die Untiefen der elektronischen Zahlenverarbeitung abgestiegen, wenden wir uns wieder höheren Ebenen zu.
 
aber ich denke wir sind genug in die Untiefen der elektronischen Zahlenverarbeitung abgestiegen, wenden wir uns wieder höheren Ebenen zu.

Gute Idee.

Trotzdem noch ein Link, der Digitale Addition erklärt. Und in einem Video Live demonstriert, welchen Code man dafür braucht. Das sind paar Zeilen einfacher Code. Also keine Spur von ausgefuchsten, hochkomplexen Algorithmen. Hier entlang.

Unterdessen habe ich noch einige Versuche gemacht, hörbar natürlich, die weitere Erkenntnisse gebracht haben. Bei Ableton / S1 ist es offensichtlich so, dass die keinen Unterschied haben in der Verarbeitung. Wie oben demonstriert. Ich hatte als Eingangsmaterial 3 Spuren Stereo. Und dabei auch Spuren ausgewählt, die in der Energieverteilung Rechts Links unterschiedlich waren. Hier ein Screenshot:

Bildschirmfoto 2022-01-07 um 21.29.43.png

Vor allem beim Cello ist Rechts deutlich mehr Energie als Links.

Nun habe ich den identischen Versuch wie im ersten Video beschrieben mit Luna und Nuendo durchgeführt. Und siehe da, ein Null Test hat ziemlich viel übrig gelassen. Obwohl ein Vergleich der Dateien im S1 Batch Konverter bei Peak, RMS und LUFS keinen Unterschied zeigt:

Bildschirmfoto 2022-01-07 um 22.01.49.png


ist mit dem Nuendo und Luna File keine Auslöschung beim Nulltest zu erreichen.



also habe ich mal überlegt, an was das liegt. Ich hatte schon die Vermutung, dass Pan LAW nicht nur einen Einfluss hat, wenn man tatsächlich zwei Mono Spuren ins Panorama legt, sondern auch bei Stereo Spuren. Deshalb auch die Auswahl der Source Spuren mit Kandidaten mit sehr unterschiedlicher Verteilung der Energie im rechten und linken Kanal.

Also habe ich die Quell Dateien hergenommen und der Einfachheit halber in S1 in 24 Bit Mono Files gewandelt. Die habe ich dann in Ableton, Nuendo, und Luna reingezogen und dann einen Mono Bounce ebenfalls in 24 Bit Mono durchgeführt. Wobei man dann da schon ins Grübeln gerät. Die unterschiedlichen Optionen in den verschiedenen DAW sind schon breit gestreut. Muss ja auch. Ausser man definiert nur einen einzigen Ausgang. Dann ist es sowieso Mono.

Das zeigt aber schon, wieviel Stolperfallen es bei einem simplen Bounce geben kann.

Wie auch immer, was genau die DAW für Files geschrieben haben, kann ich nicht sagen. Sowas steht auch nie in Specs oder Bedienungsanleitungen.

Das Ergebnis habe ich dann wieder in S1 importiert und da dann den Nulltest durchgeführt. Hier das Ergebnis:



wie man sieht, da klappt es wieder mit dem Nulltest. Was darauf schliessen lässt, dass die unterschiedliche Behandlung des Summings von Stereo Spuren in den einzelnen DAW die Ursache der festgestellten Unterschiede ist.

Wüsste man jetzt genau, welche Regeln die Programmierer angewendet haben, könne man das von DAW zu DAW ausgleichen und hätte dann wieder exakt den gleichen Output.

Von einem Eigenklang von DAWs kann man da eigentlich nicht sprechen. Ist ja auch logisch. Wie schon mehrfach erwähnt, das ist simple Arithmetik, genauer Addition. Da kommt nichts dazu, was vorher nicht schon dagewesen ist. Das wird lediglich mit einer Rechenoperation zusammengeführt.
 
  • Gefällt mir
Reaktionen: 5 Benutzer
Bei einer Stereospur hat man einen Balanceregler, der in Mittelstellung 0dB auf beiden Kanälen hat und links und rechts davon jeweils den gegenüberliegenden Kanal absenkt. Hart links/rechts eingestellte Panoramaregler auf Monospuren haben ebenfalls 0dB Gain, das Panlaw beschreibt nur das Gain in Mittelstellung. Insofern sollten sich mittiges Stereo und 2 mal hart gepantes Mono nicht unterscheiden.

Ganz allgemein würde ich mal sagen, dass ich bei deutlich hörbaren Unterschieden zwischen der reinen Summierung verschiedener DAWs den Versuchsaufbau bezweifeln würde. Alle Unterschiede, die ich mir zB aufgrund des Zahlenformats vorstellen könnte, wären extrem subtil bzw nur messtechnisch (zB Differenzbildung) nachweisbar.

Banjo
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Das Video geht über 2h, am Anfang erstmal nur Gelaber über Eishockey (wtf?), dann sonstiges Gelaber... keine Ahnung wann's wirklich losgeht, der vorgeschlagene Startpunkt scheint auch suboptimal, denn wenn man dann was schreibt, wird man darauf hingewiesen, das vorher irgendwelche Infos gegeben wurden, wahrscheinlich auch eingeflochten in ansonsten belanglosen Geschwätz... Was geht da ab? Karneval?
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Habe einen Versuchsaufbau gestartet und ausgelesen.
DAW`s: Cubase, Nuendo, FL Studio, Cakewalk, Ableton und Samplitude.
Ich hörte im Sound kein Gras wachsen und die Messergebnisse sind doch alle sehr nah beisammen (bei Cubase und Nuendo wie zu erwarten vollkommen identisch).
Tatsächlich weicht nur Ableton zu den anderen "schlechter abschneidend" ab.

Was mir diese Erkenntnis nun bringt ? LirumLarum... entscheidend ist das "Endgerät"- und das ist der geneigte Hörer, den herzlich wenig interessieren dürfte, ob das Stück mit DAW X oder Y gemacht wurde.

Die Messergebnisse:

DAW Messungen.jpg
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Hadt du daran gedacht bei Ableton die Warp Funktio in den Files zu deaktivieren? Das aktiviert Ableton gern mal automatisch. Ich habe einen eigenen Test mit Ableton, ProTools und Studio One gemacht und die Files nullen bei Phasendrehung..also bei den 3 kein Unterschied im Klang.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: 1 Benutzer

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben