Guten Abend,
spannend. In meiner "aktiv(-er-)en" Zeit hatte ich ein ähnliches, vielleicht vergleichbares Hobby-Projekt, dass aber Reproduzierbarkeit nicht verdammt oder infragestellt, sondern feiert. Andere fanden für meine Hörbeispiele gern wenig schmeichelhafte Attribute für mechanisch oder tot, das hat mich angesichts des Aufwands, den ich trieb, zuweilen bis auf die Ebene von Einzelnoten, schon etwas geknickt. So tot fand ich selber nicht, was ich produzierte! *Flunschzieh* ;-) Ohren, die immer wieder das selbe falsche hören, gewöhnen sich leicht daran. Das ist tückisch.
In dem Projekt ging es um eine textförmige Sprache/Notation, die die Beschränkungen des MIDI-Protokolls überwindet, da es für bestimmte Zwecke geeignet erscheint, kam es ja aus dem Wunsch nach maschineller Interoperabilität statt nach Notation. Zu den Anlässen mich damit zu beschäftigen, wie du Dinge neu zu denken, gehörte:
- dass SonicPi/SoundCollider/TidalCycles/u.a. lästigerweise an eine grafische Benutzoberfläche gebunden waren, "Klickibunti", dachte ich vielleicht etwas überheblich, mir nicht nüchtern funktional und kryptisch genug, um mich abzugrenzen, wofür zudem mein RaspberryPi zu langsam war.
- Und, dass ich ein Projekt suchte, Python zu lernen.
- "Fertige" Musik aus Notenbüchern zu übersetzen, zu reproduzieren (und dabei zu "interpretieren", allerdings s.u.), sollte mir mehr Spaß machen als Beispiel-Quelltexte für Python irgendwo herunterzuladen, abzutippen und zur Ausführung zu bringen.
Meine Fragestellung war, wie sich die Klangdomäne und die Tondomäne notationstechnisch, sprachlich, d.h. syntaktisch-semantisch unter einen Hut bringen lässt.
Die Klangdomäne umfasst das gesamte Spektrum zwischen Sinuston und Rauschen. Menschliche Sprache, da zu kompliziert, außen vor gelassen, aber Tierstimmen sind durchaus drin, sogar Sturmgewehrsalven, das mir selber so sehr Angst gemacht hatte, sich derart echt anhörte, dass ich Notat und Rendering umgehend gelöscht hatte. Die Domäne umfasst Stimmen, Instrumente, Spielweisen, Artikulation, aber sogar (sowas wie) Raumhall, denn der gehört mit zur Akustik. Die Klangdomäne stellt grob das dar, was am Synthesizer einstellbar ist, bevor der Mensch an den Tasten die erste Taste drückt.
Die Tondimension der Musik ist die Melodie, Harmonie, Rhythmus, Tempo, Dynamik. Die Tondomäne stellt mehr oder weniger das da, was Notenstecher üblicherweise aufs Papier bringen. bestimmte Dinge auch hier ausgenommen, dafür anderes expliziter: "Sfz." gibts nicht, aber genaue Betonungsangaben auf der dBFS-Skala. Legatobögen ebenso wenig, aber stative relative Tonkürzungen-/verlängerungen. Rallentando etc. machten Tempogradientennotation Platz, und so weiter. Jeder Beat kann tempodynamisch gestaltet werden, wenn man sich diese Mühe machen will. Swing und so weiter, so Feinheiten wurden machbar, obwohl ich an den Tasten Mühe hätte nach Metronom zu spielen.
Wie lässt sich nun beides in anderthalb Sprachen ausdrücken? Das war die Frage, die sich mir stellte. Anderthalb, weil sich Pi mal Fensterkreuz ein Drittel davon der Klangdimension widmet, ein Drittel der Tondimension allein, und ein Drittel beides miteinander verknüpft, das ist der Teil, der zu beiden Domänen zugleich gehört.
Oder man überdenkt den Begriff der Notation komplett neu.
Ich finde, man muss das eh trennen. Notation ist nicht Musik, genauer, Notation ist nicht mit Interpretation/Artikulation zu verwechseln. Lässt du, lasse ich fixierte Notation von einer Software rendern, direkt in eine Audiodatei oder in den Audioausgabe-Buffer zum "einmaligen" Playback (ab dem Signal im DA-Wandler ist das eh gleich), dann ist das in Kenntnis des Verfahrens keine Musik, die Musen sind außen vor. Der Notationsaufwand, der nötig ist, um Interpretation zu "faken", steigt ins exorbitant-absurde und endet nur falsch für die Ohren, da man sowas wie ein Musikstudium gebraucht hätte. Dann doch lieber damit leben, dass sich das im Grunde doch alles mechanisch anhört. Da half es auch nicht, die reine Stimmung anzuwenden, um Absoluthörer in die Flucht zu schlagen. Aber reine Stimmung bei Stücken fürs wohl oder gleichstufig temperierte Klavier, das lehrt einiges über Stimmung und Harmonie, denn da muss man alle naslang die Stimmung dran anpassen. So Späße sind dann drin.
Das mag man anders sehen, aber ich nenne es lieber Audiorendering, allenfalls dann "Neusik", wenn man wirklich sich erdreistet konventionelle Noten so zu realisieren. Eigentlich Nerdmusik, aber erstens hab ich das -rdm- für eine Abkürzung zweckentfremdet und zweitens brauchte ich ne Domain, die noch nicht vergeben war, und drittens steht dem Nerd eine gewisse Blasiertheit zu, was Neuheit betrifft, und viertens soll das noisige irgendwie selbstironisch rüberkommen.
Interpretation ist ohne Mensch hinter den Noten nicht denkbar. Auch eine K.I. interpretiert nicht, sie tut nur so. Egal. Echtes Interpretieren, dazu brauchts instrumentenkundige Musiker. Aus dem Grund verzichte ich hier zunächst aufs Posten von Beispielen, um nicht unnötig etwaigen Berufsdünkel / Fremdscham / von dieser Diskussion wegführende Fehlerhinweise zu provozieren.
Ist fürs Thema auch egal. Worauf ich hinauswill: Die Trennung und anschließende geordnete Verbindung von Klang- und Tondomäne würde ich sehr empfehlen als Ansatz für ähnliche Projekte. Und vergiss Echtzeit, das macht alles nur unnötig kompliziert, nur um Musikern zu gefallen, die so Projekte eh nicht brauchen. Wer aus maschinenlesbarer Notation Renderings erzeugen will, muss warten können. Oder Meditieren, Kaffeekochen, Wäsche aufhängen, was weiß ich.