@McCoy, danke für die Vergleichsumsetzung. Ja, gut, bei meiner Version gehen mir selber nun auch nicht wirklich die Ohren auf – Klangveränderungen aus der Lostrommel, damit hätt ich mir ebenso mehr Mühe geben können (aber wollte halt nicht) wie etwa u.a. mit dynamischer Kontrastierung betonter und unbetonter Achtel/Sechzehntel, aber nach Hanon war das auch nicht ganz Sinn der Sache, wenn ich seine Begleittexte richtig verstehe.
Das ist mithin einer der Gründe warum das Projekt auch auf Eis liegt: Technische Klangvariabilität nützt nicht viel, wenn der Benutzer nicht das nötige Fundament an Musikalität mitbringt. Darum bin ich lieber im Nachbarforum sequencer.de unterwegs, gefühlt gibts da mehr Dilettanten wie mich.
Stellenweise mag die Version einem Programmierer wie dem TO (weniger einem Musiker) immerhin durchlugen lassen, was potenziell im Ansatz steckt.
Ein Kompromiss zwischen Klang, Überschaubarkeit der Notation und Zeitaufwand beim Verfassen direkt im Texteditor, Debuggen und Abhören.
Wenn ich daran denke, dass ich verwegen und in existenzialistischer Versenkung sogar mal Beethovens Pathétique – aber nur 1. Satz, glaub ich, aber immerhin mit harmoniesensitiv angepasster reiner Stimmung – so übersetzt hatte. Am Handy, in einem dummen HTML-Textarea, nix IDE oder so, regemäßig unterwegs, aus einer Fotoaufnahme von der aktuell bearbeiteten Halbseite des Henle-Urtexts! Tippen menschen-&maschinenlesbarer Texte am Handy ist echt nur was für eingefleischte Masochisten. Und das geht auch nur, wenn es einen Homeserver gibt, der das Rendering erledigt. Ich hab was gelernt, aber als Software unzumutbar für andere, und seien es Open-Source+Freaks wie der TO oder ich.
Das ist sozusagen die Notation (Piano Roll):
MIDI ist mitnichten eine Notation, virtuelle Piano Roll sind lediglich eine Sicht auf ein Subset der MIDI-Daten. Das ist ja ein binäres Datenaustauschprotokoll zwischen Geräten für Musikproduktion. Wenn auch ein Teil aus einem MIDI-Datenblob in Noten umgewandelt werden können, und ein Teil von jedem General-MIDI-kompatiblen Synthesizer umgesetzt werden. Mit SysEx-Blobs sind Menschen wie fast alle Geräte überfordert. Andererseits ist auch bei meiner Notation fraglich, wer Instrumentdefinitionen verstehen soll, außer ein einziges bestimmtes Programm. Hierin ähnelt meine Notation CSound.
Notationen sollen, um sich so schimpfen zu lassen, als Primärquelle ohne Hilfsmittel für Menschen lesbar sein.
Prima vista während des Spiels legen da bestimmt manche als noch strengeres Kriterium an. Damit könnte ich vermutlich nicht dienen, schon allein weil ich kein Instrument spiele und demnach auch nicht gelernt habe, es aus normalen Noten prima vista zu spielen.
Ein Mensch musste das System programmieren, das die Musik rendert. Ein anderer hat die Informationen und Regeln definiert, nach denen das System arbeitet. Und schließlich muss der Vorhörer entscheiden, ob das Ergebnis ungefähr dem gewünschten Klang entspricht.
Und das ist eben genau weshalb ich schrieb "nicht direkt". Könnte man in Anlehnung an "Echtzeit" auch sagen ...
ungegenwärtig. Deshalb ist notierte elektronische Musik ein Spleen der Programmierer, nicht für Musiker, und diese Ungegenwärtigkeit lässt zweifeln, ob der Begriff der Musik das überhaupt umfassen sollte. Aber Archäologen von morgen werden Notationsdateien in Unicode-Text eher finden/lesen können als binäres DAW-Zeug, gar MIDI. Und könnten glauben, das wäre Notation aller Musik gewesen. Ha!
