Was ist eigentlich "zu digitaler Klang"? Warum beschwert sich niemand über "zu analogen Klang?"

Wenn es bei MIDI Übertragung zum 'Kleckern' im Sound führt, ist das natürlich ein Problem, würde wohl niemand so hinnehmen, und nach einer Lösung suchen, zumindest spätestens, bevor man einen Song für eine Produktion aufnimmt. Mit den 128 Stufen bei Velocity gebe ich Dir natürlich recht, dass bei rein analogem Spiel da schon mehr feine Abstufungen möglich sind, die man 'wahrnehmen' könnte, wobei das für mich auch schon homöopathisch ist - zumindest bei Pop- und Rock-Musik. Bei Klassik sieht das schon anders aus.
 
Anbetracht der Tatsache, dass MIDI weder digital noch analog klingt, haben wir uns jetzt doch etwas von der Ausgangsfrage entfernt…

Ja, aber die Ausgangsfrage war ja "keine wirkliche Frage", sondern nur "vielleicht diskussionswürdig" (Zitate aus dem Eingangsposting) ;) ... aber ich verstehe deinen Punkt: dir geht es im Eingangsposting um digitale Signalverarbeitung, nicht um digitale Ansteuerung. Dahinter steckt aber eine Ästhetik der Musikproduktion mit analogen versus mit digitalen Mitteln. Und Ansteuerungsprotkolle wie MIDI haben, denke ich, einen massiven Einfluss auf die Musikproduktion gehabt. Auch wegen quantisierter MIDI-Daten klangen und klingen einige Musikproduktionen "zu digital". Im Sinne von: zu steril, zu präzise, zu leblos.

Ich gebe dir natürlich recht, dass MIDI nicht von sich aus digital klingt. Seine Existenz verleitet aber dazu, dass computermäßige Genauigkeit (wie in der gesamten Wirtschaft und Gesellschaft) eine ästhetische Norm setzt.

Es gibt aber noch einen weiteren, viel extremeren klang-beeinflussenden Punkt bei MIDI: die meisten Controller-Werte lösen in einer 7-Bit-Genauigkeit auf, es gibt also nur 128 Stufen. Das ist sehr wohl hörbar, wenn man z. B. einen Filter damit steuert. [...] Im Gegensatz dazu ist aber ein 128-Schritte-Hoppel-Filtersweep, verursacht durch MIDI-Ansteuerung, jedoch durchaus deutlich hörbar.

Kurze Anmerkung: das ist kein Problem des MIDI-Standards, sondern ein Problem des Herstellers, wenn er nur eine 7-Bit-Auflösung für einen Controller realisiert und keine 14-Bit-Auflösung, wie es der MIDI-Standard ja zulässt.
 
aber wenn das digitale serielle Protokoll für merkliche Latenzen sorgt, hat das hörbare Auswirkungen,
Okay, Kurve nochmal gut gekriegt. Unter dem Blickwinkel kann ich das als Randaspekt akzeptieren…
;) :great:
 
Auch wegen quantisierter MIDI-Daten klangen und klingen einige Musikproduktionen "zu digital". Im Sinne von: zu steril, zu präzise, zu leblos.

Aber das liegt ja in erster Linie am Quantisieren (weil man nicht "gut genug" spielen kann oder weil es ein bewusst eingesetztes Stilmittel ist) oder daran, dass nicht mehr gespielt, sondern am Bildschirm zusammengeklickt wird.

Trotzdem - in Anbetracht des Themas analog vs. digital - stammt diese unmenschliche Computer-Präzision doch gerade aus der Analog-Ära mit ihren Step-Sequencern? Einerseits als Stilmittel und andereseits, weil es einfach nicht besser ging.
Also wäre digitale Kälte durch maschinenmäßiges Timing doch eher typisch analog? :gruebel:
Das digital MIDI kann ja beides: quantisiert und unquantisiert. Analog kennt nur ein rigides und grobes Timing-Raster. Außer natürlich, man spielt selbst. Aber gerade das ist ja in der Szene, in der sich noch die Analog-Fans tummeln, eher die Ausnahme. Da geht es eher um Live-Klangschrauben als Live-Spielen.


Kurze Anmerkung: das ist kein Problem des MIDI-Standards, sondern ein Problem des Herstellers, wenn er nur eine 7-Bit-Auflösung für einen Controller realisiert und keine 14-Bit-Auflösung, wie es der MIDI-Standard ja zulässt.

Stimmt - so habe ich das nie gesehen.
Die 14-Bit-Auflösung wird ja standardmäßig für Pitch-Bend eingesetzt, weil das mit 128 Stufen wirklich unbrauchbar wäre.
Aber die "normalen" CC-Werte wie Volume, Expression oder gerade eben Filter- und/oder Resonanz - lassen die sich so einfach auf 14-Bit-Auflösung umstellen? Das wusste ich nicht!

Viele Grüße
Torsten
 
Das digital MIDI kann ja beides: quantisiert und unquantisiert. Analog kennt nur ein rigides und grobes Timing-Raster.
Analoges timing wird durchaus häufig von Audio-Signalen gesteuert, dh eine Pulswelle kann im Rahmen des Frequenzgangs des Geräts eine stufenlose Zeitbasis liefern.
Der Bereich ist natürlich auch Richtung „lange Zeiten“ nahezu beliebig ausdehnbar.

Midi-Quantisierung ist ein herausgegriffener Bereich mit Bezug auf Takte im Sinn der Musiktheorie.
Rein technisch Midi durch den digitalen Takt immer quantisiert, als Begriff wird dann aber „clock“ verwendet.
Letztere kann in digitalen Systemen uU stark schwanken (was zunächst überraschend ist).
In modernen Systemen wird deshalb den midi-events ein Zeitstempel mitgegeben, anhand dessen sich das ursprüngliche timing exakt rekonstruieren lässt.

Es sind aber beliebige Manipulationen des timings möglich, speziell im musikalischen Kontext. Ua wird mit Zufallswerten manipuliert oder der bekannte „swing“, bei dem bestimmte Notenwerte zeitlich bewusst im Raster verschoben werden.
 
Zuletzt bearbeitet:
Aber die "normalen" CC-Werte wie Volume, Expression oder gerade eben Filter- und/oder Resonanz - lassen die sich so einfach auf 14-Bit-Auflösung umstellen? Das wusste ich nicht!

Da hab ich jetzt gerade im Netz nach Details und Belegen gesucht und stoße auf meinen Beitrag im Recording-Forum von 2012, wo ich was geschrieben hatte, was ich verdrängt hatte :facepalm1:: 14-Bit-Auflösung gibt es nur für die Controller 0-31. Der dortige Link funktioniert nicht mehr, man muss sich auf www.midi.org anmelden und den MIDI-Standard dort runterladen. Der MIDI 1.0-Standard von 1996 sagt dazu: "Controller numbers 0 through 31 are for controllers that obtain information from pedals, levers, wheels, etc. Controller numbers 32 through 63 are reserved for optional use as the LSB (Least Significant Byte) when higher resolution is required and correspond to 0 through 31 respectively." (Quelle: MIDI_1-0_Detailed_Specification_96-1-4.pdf von www.midi.org , Seite 12).

Zu den von dir genannten Controllern: Volume ist CC#7, das ist das MSB. In der Regel wird auch nur das eine Byte ausgewertet. Jeder Hersteller wäre aber frei darin, Controller #39 ebenso auszuwerten, das wäre das LSB, damit hätte man dann 16384 Volume-Stufen statt 127. Das Expression MSB wird auf #11 gesendet, das LSB auf #43 (immer +32 rechnen), ist also auch 14-Bit-auflösungsfähig. Ob Filter und Resonanz auch über eine 14-Bit-Auflösung anzusteuern sind, hängt davon ab, ob der Gerätehersteller sie über einen CC#0-#31 ansteuerbar macht (z.B. die CCs #20-#31 wären noch frei). Der MIDI-Standard legt Filter und Resonanz nicht auf bestimmte CCs fest,

Keine Ahnung, ob das in MIDI 2.0 in 2020 geändert wurde, so modern bin ich nicht ;)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Selbst wenn ein Midi-Controller nur 128 fixe Werte liefert, sind die empfangenden Tonerzeuger und Effektsteuerungen idR so programmiert, dass ausreichend Zwischenwerte für einen gehört stufenlosen Verlauf erzeugt werden.
 
MIDI ist aus meiner Sicht ein Nebenthema. Irgendwie eine altgewordene Hilfskrücke einer Musikindustrie, die sich weigert völlig veraltete technische Lösungen endlich in den Analen der Instrumentenentwicklung zu versenken.

Klangwiedergabe aus einer digitalen Signalkette verlangt eine gute Hardware. Vergleichen wir deren Entwicklung in den letzten 20 Jahren mit derjenigen bei den Kameras, dann lautet das Ergebnis niederschmettern:!es ist nichts Wesentliches vorangebracht worden.

Beispiel: Der Profistandard für digitales Soundprozessing für Gitsrristen, der Kemper, ist das Abfallprodukt einer Keyboardentwicking aus dem letzten Jahrhundert, basierend auf einem uralten Motorola-Prozessor.

Und die Japanischen und amerikanischen Markt- oder „Technologieführer“ hinken da noch hinterher.

Nennen wir es schlicht kollektives Versagen aller Hersteller ( oder sogar Vorsatz?) und eine völlig apathische Kundschaft, die sich seit Jahren mit minderwertiger Hardware abspeisen lässt, weil sie sich über hübsche graphische Bedienoberflächen freut (Line 6 Helix, Headrush, …)

Nehmen wir eine Entwicklungsgeschwindigkeit wie bei den Kamerachips an, hätten wir heute Sampleraten von mehreren 100 kHz anstatt 48 und Auflösungen über 100 Bit statt 24.

Es gäbe diesen Diskussionsfaden nicht, und niemand würde irgend einen Röhrenverstärker haben wollen (Außer Museen).

Wer baut bitte endlich eine Signalkette, die ein Mikrofon, oder eine Gitarre direkt hinter Kapsel oder Pickup digitalisiert, dann per funkstrecke an die Ausgabegeräte für PA und Monitoring sendet, dort wird das Soundprocessoring durchgeführt, und der Siund auch super authentisch ausgegeben. ( nicht in sog. CD-Qualität, mindestens 24bit/96kHz, besser 64Bit/256kHz)

Warum gibt es das noch nicht?

Oth
 
  • Interessant
Reaktionen: 1 Benutzer
MIDI ist aus meiner Sicht ein Nebenthema. Irgendwie eine altgewordene Hilfskrücke einer Musikindustrie, die sich weigert völlig veraltete technische Lösungen endlich in den Analen der Instrumentenentwicklung zu versenken.
Das ist Quatsch, MIDI als Standard ist natürlich alt, aber nicht altmodisch. Es leistet seit einem halben Jahrhundert zuverlässig seinen Dienst, ohne MIDI Schnittstelle wären ganze Tonstudios oder auch große Veranstaltungen mit tausenden Geräte überhaupt nicht möglich, weil diese nicht so miteinander kommunizieren könnten wie sie es tun, komplett Hersteller übergreifend. MIDI geht neben Analog heute primär Digital über USB/IP/Bluethooth/etc.

Die Alternative wäre dass jeder Hersteller sein Proprietäres Ding macht. Die Welt wäre dadurch definitiv nicht besser...

( nicht in sog. CD-Qualität, mindestens 24bit/96kHz, besser 64Bit/256kHz)
Was genau bringt dir nun die unendliche Steigerung der Abtastraten oder Auflösungen in der Praxis? Der limitierende Faktor ist dein Gehör und nur weil etwas mit 96kHz ausgegeben wird nützt das einem durchschnittlichen Menschen im mittleren Alter der noch bis etwa 16kHz überhaupt hören kann relativ wenig.

Auch diese Diskussion mit 16 Bit VS 24 Bit VS 32 Bit ist eher eine reine technische Diskussion. Ich spiele dir eine Audiodateo vor in 16 Bit und zwei größeren Auflösungen, wenn du nicht weißt welches Vorspiel nun was ist, dann wirst du abseits der technischen und theoretischen Analyse keinen Unterschied hören. Diejenigen die behaupten einen Qualitätsunterschied bei einem 16 Bit und 24 Bit Stück zu hören, die unterliegen in 99,9% der Fälle dem eigenen Glauben das mehr besser wäre.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Hat unser menschliches Gehör denn überhaupt so eine hohe Auflösungsfähigkeit? Ich meine, inwieweit macht dann eine Abtastrate von 256kHz am Ende Sinn?
Ich kann höchstwahrscheinlich nicht unterscheiden, ob eine Aufnahme mit 48kHz oder 96kHz gemacht wurde...
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Hat unser menschliches Gehör denn überhaupt so eine hohe Auflösungsfähigkeit? Ich meine, inwieweit macht dann eine Abtastrate von 256kHz am Ende Sinn?
Beim reinen hören nützt es dir nichts, in der digitalen Theorie kannst du mit höheren Raten natürlich detaillierter berechnen weil mehr Informationen vorhanden sind. Der Preis ist dann aber ein erheblicher Mehraufwand an Rechenleistung und auch Speicher.

Wenn du nun für das von uns gehörte nahezu identische Ergebnis 90% mehr Ressourcen aufbringen willst, dann ist eine Möglichkeit :)
 
Hi :hat:

Oha, hier ist ne Menge Frust rauszulesen.
nicht in sog. CD-Qualität, mindestens 24bit/96kHz, besser 64Bit/256kHz)

Warum gibt es das noch nicht?
Weil man schlicht den Unterschied nicht hört.

Nehmen wir eine Entwicklungsgeschwindigkeit wie bei den Kamerachips an, hätten wir heute Sampleraten von mehreren 100 kHz anstatt 48 und Auflösungen über 100 Bit statt 24.
Auch bei Digitalkameras ist die Linse entscheidender für ein gutes farbprächtiges , scharfes und kontrastreiches Foto, als die Auflösung. Ich nenne es Marketing. Hast du mal ein hochaufgelöstes Foto von einer kleinen Smartphonekamera auf Pixelgrösse rangezoomt? Da fragt man sich dann schon, wozu all die Pixel.

Es gäbe diesen Diskussionsfaden nicht, und niemand würde irgend einen Röhrenverstärker haben wollen (Außer Museen)
Röhrenverstärker sind so beliebt, weil sie harmonische Obertöne erzeugen. Aufem digitalen Weg passiert da gar nichts, egal wie hoch aufgelöst.

Beispiel: Der Profistandard für digitales Soundprozessing für Gitsrristen, der Kemper, ist das Abfallprodukt einer Keyboardentwicking aus dem letzten Jahrhundert, basierend auf einem uralten Motorola-Prozessor.
:ugly:
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Der Profistandard für digitales Soundprozessing für Gitsrristen, der Kemper, ist das Abfallprodukt einer Keyboardentwicking aus dem letzten Jahrhundert, basierend auf einem uralten Motorola-Prozessor.
Ich hoffe dir ist klar, dass du dich gerade auf ganz gefährlichen Gebiet bewegst hier im Forum? :sneaky:
:cautious:
 
Er meinte halt, es wäre nach 13 Jahren mit 13 Beiträgen mal wieder an der Zeit, etwas loszuwerden. Egal, was.
Dieser Thread war seit einem halben Jahr unbesucht, aber was sind schon 6 Monate gegen 13 Jahre ...
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Als die Pixelgrössen der Digicams ins unermesslich kleine sanken, wurde auch immer wieder gefragt, was das soll. Sehen konnte man das alles nicht mehr. Aber als es diese Megapixel wirklich gab merkten die Nutzer, dass es hinter der messtechnisch definierten Grenze der Wahrnehmung eine feinere Sensorik gab die diesem Fortschritt einen Sinn gab.

Leider gibt sich die Musiker commiunity mit schönen Werbepostillen unserer Technikversorger zufrieden, was diese weiterhin motiviert uns ihren veralteten Schrott in Neuem Gewand anzudrehen. Es beschwert sich ja keiner.

Wer sich mit Loopern befasst hat gemerkt, dass Boss mit dem RC500 gegenüber dem RC50 einen gewaltigen Sprung in der Wiedergabequalität gemacht hat, durch die Erhöhung der Samplingfrequenz.

Warum erst jetzt?
 
Leider gibt sich die Musiker commiunity mit schönen Werbepostillen unserer Technikversorger zufrieden, was diese weiterhin motiviert uns ihren veralteten Schrott in Neuem Gewand anzudrehen. Es beschwert sich ja keiner.
Ich habe eher das Gefühl, dass diese durch tolle Specs, die sie heute nicht mehr kosten, die Käufer erfolgreich animieren das gleiche Zeug in Neu zu kaufen, obwohl es nicht hörbar besser klingt. Aber wer will schon eindeutig „bessere“ Zahlen infrage stellen?
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Als die Pixelgrössen der Digicams ins unermesslich kleine sanken, wurde auch immer wieder gefragt, was das soll. Sehen konnte man das alles nicht mehr. Aber als es diese Megapixel wirklich gab merkten die Nutzer, dass es hinter der messtechnisch definierten Grenze der Wahrnehmung eine feinere Sensorik gab die diesem Fortschritt einen Sinn gab.
Ich kenne mich zufällig mit Fotografie aus, was du sagst ist nur eine Oberflächliche Wahrheit. Die Anzahl der Pixel ist nicht viel mehr als eine Information wie viele Pixel ein Sensor hat, aber keine Information darüber wie gut das Endergebnis ist.

Ich habe hier eine Spiegelreflex Kamera mit 4 Megapixel, ich lege meine Hand dafür ins Feuer, dass diese bessere Fotos macht als eine Smartphone Kamera mit 10 oder mehr Megapixel. Ganz einfach weil das Endergebnis zum viel größeren Maße von der Optik beeinflusst wird als von der Anzahl der Bildpunkte die im Bild gespeichert werden.

Auch für den Hausgebrauch sind in diesem Beispiel höhere Auflösungen sinnlos, wann hast du mal ein eigenes Foto in einer Größe von 5m x 10m ausgedruckt wo man dann wieder einzelne Bildpunkte erkennen könnte?
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Der Profistandard für digitales Soundprozessing für Gitsrristen, der Kemper, ist das Abfallprodukt einer Keyboardentwicking aus dem letzten Jahrhundert, basierend auf einem uralten Motorola-Prozessor.
...welcher heute noch von Freescale bzw. mittlerweile NXP in verbesserten Versionen hergestellt wird und in verschiedenen (nicht nur Audio) Anwendungen verwendet wird. Das Ding lacht wahrscheinlich über die Abtastraten, die für Audio benötigt werden, sofern diese nicht ausschließlich für's Marketing (noch schneller, noch höhere Auflösung) als Zahlenfetisch dienen. Das Gehör der Menschheit ist ja nicht besser geworden in den letzten Jahren, also wozu überflüssiger Overkill? Ist ja nicht wie bei den grafischen Benutzeroberflächen oder Anwendungen am PC, die mehr und mehr Ressourcen verbrauchen, um schick auszusehen oder Anwendungen, die dann schneller laufen. Das "schneller laufen" ist ja nicht erforderlich in diesem RealTime Audiobereich, also bleibt man beim bewährten Design. Daher haben solche DSP Prozessoren auch einen längeren Lifecycle als die gängigen CPUs im PC oder Mac.
Nehmen wir eine Entwicklungsgeschwindigkeit wie bei den Kamerachips an, hätten wir heute Sampleraten von mehreren 100 kHz anstatt 48 und Auflösungen über 100 Bit statt 24.
Aber warum, wenn es niemand hört (hören kann)?
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ihr habt völlig recht, genau die Leute, die uns den selben Kram mit neuen Verpackungen und netten neuen sich ständig verbessernden Kenndaten andrehen wollen. Aber selbst wenn Du das raus rechnest ist die Leistungssteigerung bei gleichzeitigem Preisverfall in der Optikbranche riesig. Und such bei der Akustik gibt es so etwas in den Handies und Küchenradios ist der Sound ständig besser geworden.

Aber gemessen an dem was möglich ist, ist die Verbesserung beispielsweise bei effektgeräten für Gitarren lächerlich.

Ich habe (wie andere auch) vor vielen Jahren mit eine Steinberg Interface Vergleichsaufnshmen in allen Sampleraten gemacht die gingen. Bei jedem Schritt war eine Soundverbesserung zu hören. Und 48khz war wirklich inakzeptabel.

Warum wird so was heute noch verkauft?

Olaf
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben