Notation von elektronischer Musik

C
ComputerArtist_ThL
Registrierter Benutzer
Zuletzt hier
07.07.25
Registriert
13.05.23
Beiträge
53
Kekse
691




Liebe Musikboarder,
ich möchte heute ein – aus meiner Sicht – spannendes Thema zur Diskussion stellen: die Notation elektronischer Musik, insbesondere im Bereich der klassischen bzw. „ernsten“ elektronischen Musik.
Einige von euch kennen sicher Werke von Komponisten wie Karlheinz Stockhausen oder Iannis Xenakis, in denen deutlich wird, wie herausfordernd es sein kann, elektronische Klänge angemessen zu notieren. Traditionelle Notationssysteme stoßen hier schnell an ihre Grenzen.
Vor diesem Hintergrund stellt sich die Frage, ob moderne Visualisierungsformen wie Spektrogramme – beispielsweise im Zusammenhang mit Sonic Visualiser – als alternative oder ergänzende Notationsformen verstanden werden können.
Darüber hinaus könnten wir gemeinsam überlegen, inwiefern auch MIDI-Datenströme, OSC-Protokolle oder sogar Computercode selbst eine Art zeitgenössischer Notation darstellen. Auch die konkreten Notationsansätze von Stockhausen und Xenakis bieten interessante Anknüpfungspunkte für eine Diskussion.
Ich würde mich freuen, wenn wir uns gemeinsam über diese Fragestellungen austauschen und unterschiedliche Perspektiven einbringen könnten.
 
  • Gefällt mir
  • Interessant
Reaktionen: 2 Benutzer
KI-User/Bot?
Denke da auch an Steve Reich, kein Elektroniker in dem Sinne, aber viele Einflüsse mit den Loops etc. sind in die elektronische Musik geflossen.
 
Denke da auch an Steve Reich, kein Elektroniker in dem Sinne, aber viele Einflüsse mit den Loops etc. sind in die elektronische Musik geflossen.
ch habe den Namen Steve Reich schon einmal gehört und werde definitiv noch einmal in seine Musik hineinhören. Ich finde, dass moderne Technik die Musikproduktion demokratisiert und sie für immer mehr Menschen zugänglich macht.
So direkt nicht: es muss ja auch spielbar sein, von Reproduzierbarkeit ganz zu schweigen.
Die Komplexität des Sonogramms stellt ein zentrales Problem dar – es enthält schlichtweg zu viele Informationen. Um diese Daten zugänglicher zu machen, wäre daher eine Abstraktion notwendig. In gewisser Weise übernimmt der Sonic Visualiser bereits diese Aufgabe, indem er MIDI-Daten aus einem Sonogramm extrahiert. Damit stellt sich die weiterführende Frage, ob der Programmcode – ebenso wie die daraus gewonnenen MIDI- und OSC-Daten – als eine neue Form musikalischer Notation verstanden werden kann.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
ob der Programmcode – ebenso wie die daraus gewonnenen MIDI- und OSC-Daten – als eine neue Form musikalischer Notation verstanden werden kann.
Wenn Du danach spielen kannst ... also ohne weitere Hilfsmittel ... :evil:

Und so neu wäre die dann gar nicht ...

Loops etc. sind in die elektronische Musik geflossen.
Gutes Stichwort. Wenn zB Jemand von einer Rhythmusmaschine abnudelt, und hier und da eine Handvoll Regler verdreht, kann man das kaum klassisch notieren. Im Grunde reicht da, wenn man's schriftlich festhalten oder überliefern will, eine chronologische Tabelle.
 
Wenn Du danach spielen kannst ... also ohne weitere Hilfsmittel ... :evil:

Und so neu wäre die dann gar nicht ...
Ich möchte das zunächst etwas erklären.
Ich bin Komiker und versuche, Musik zu gestalten – obwohl ich selbst kein Instrument spielen kann. Das überlasse ich lieber dem Computer, so wie Kornel Nakarow einst seinen Player-Pianos das Musizieren überließ.
Mir geht es dabei nicht darum, Musik selbst zu spielen. Vielmehr interessiert mich die Frage, wie sich der Gehalt einer elektronischen Komposition überhaupt festhalten lässt.

1751708253349.png
1751708298909.png
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Vielmehr interessiert mich die Frage, wie sich der Gehalt einer elektronischen Komposition überhaupt festhalten lässt.
Danke für Deinen Hintergrund.
Im Grunde dann: In der Form, wie Sie Dir am meisten nützt und am eingängigsten ist.

Ergänzungen:

1) So, die Line Riders, die meinte ich (hier gibt's mehr https://yewtu.be/search?q=classical+music+animation ) :


View: https://www.youtube.com/watch?v=RIz3klPET3o

2) Hier sind etwas unten im Thread einige Links: https://www.quora.com/What-are-ways-of-visualizing-music

3) Diese Ansätze erinnern eher an abstrakte Kunst ... wenn's Dir helfen sollte ...
 
Zuletzt bearbeitet:
Lieber MS-SPO
Hast du dazu vielleicht etwas Hintergrund Material. ( Links oder so etwas ).
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Vielmehr interessiert mich die Frage, wie sich der Gehalt einer elektronischen Komposition überhaupt festhalten lässt.
Ich denke, das hängt von der Absicht der Komponisten ab.
Genaue Reproduktion "wie auf der Schallplatte" halte ich für einen Mythos, sobald Menschen und traditionelle Instrumente im Spiel sind. Jedenfalls kenne ich kein Werk, dass von verschiedenen Interpreten, Dirigenten und Ensembles mehrfach ganz genau gleich gespielt wird.
Daran schließt sich die Frage an, wie groß Variationen sein dürfen.

Das führt gerade bei der Neuen Musik zum Aspekt, inwiefern die "Reproduktion" eines Werks überhaupt durch vergleichbare Aufführungen angestrebt wird. Ein Grund für sehr unterschiedliche Aufführungen kann darin liegen, dass die Komposition ausdrücklich als Konzept oder Performance angelegt ist und daher eher "Verhaltensregeln" gegeben werden. Das wäre etwas völlig anderes als möglichst genaue musikalische Vorgaben im Sinn einer Standardnotation, die freilich immer noch Spielraum für die Interpretation durch die aufführenden Musiker lässt.

Digital erzeugte Musik kann durch Programmierung beschrieben und das Werk absolut genau gespeichert werden, falls das gewünscht wird.
Damit eröffnet sich ein umfassender Spielraum von (nahezu) absoluter Reproduktion bis (quasi-)zufallsgenerierten Ergebnissen. Die Variation kann sich dabei auf jeden ins Werk eingeführten Parameter beziehen.
Es bliebe dann - eigentlich wie immer - eine Frage der Fähigkeiten und genauen Arbeit des Komponisten, wie das Ergebnis im Sinne von Festhalten und Reproduzierbarkeit ausfällt.

Gruß Claus
 
Ich denke, das hängt von der Absicht der Komponisten ab.
Genaue Reproduktion "wie auf der Schallplatte" halte ich für einen Mythos, sobald Menschen und traditionelle Instrumente im Spiel sind. Jedenfalls kenne ich kein Werk, dass von verschiedenen Interpreten, Dirigenten und Ensembles mehrfach ganz genau gleich gespielt wird.
Daran schließt sich die Frage an, wie groß Variationen sein dürfen.




Eine zentrale Frage lautet: Was ist die Absicht des Komponisten?
Möchte er eine möglichst präzise Umsetzung seiner musikalischen Idee – eine exakte Reproduktion? Oder wünscht er sich bewusst Variationen, unterschiedliche Interpretationen durch verschiedene Aufführende? Letzteres ist etwa bei der Formelkomposition von Karlheinz Stockhausen der Fall, in der die Variabilität Teil des Konzepts ist.


Vollkommen identische Reproduktionen sind ohnehin kaum realisierbar.
Bereits technische Geräte wie Schallplattenspieler erzeugen durch kleinste Abweichungen unterschiedliche Klangergebnisse. Wenn dann auch noch menschliche Interpretinnen und Interpreten ins Spiel kommen, wird die Vielfalt der möglichen Versionen noch größer – und gerade das macht Aufführungen oft besonders faszinierend.


Tatsächlich ist eine perfekte Wiederholung meist gar nicht das Ziel.
Man spricht in diesem Zusammenhang häufig von der Atmosphäre einer Aufführung – einem situativen Moment, auf den die Ausführenden reagieren. Wäre jede Aufführung identisch, gäbe es kaum noch einen Grund, Konzerte zu besuchen. Stattdessen könnten wir Musik in Dolby Surround ausschließlich zu Hause konsumieren.


Variation ist also kein Mangel, sondern ein wesentliches gestalterisches Mittel.
Auch beim Komponieren am Computer lege ich großen Wert darauf, dass nicht jedes Mal dasselbe Ergebnis entsteht. Im Gegenteil: Ich bin der Überzeugung, dass ein Werk erst beim Hören – in der konkreten Situation des Rezipienten – vollendet wird. In diesem Sinne entsteht nicht ein einzelnes Werk, sondern eine Vielzahl individueller Versionen: ein multiples, offenes Kunstwerk.
Das führt gerade bei der Neuen Musik zum Aspekt, inwiefern die "Reproduktion" eines Werks überhaupt durch vergleichbare Aufführungen angestrebt wird. Ein Grund für sehr unterschiedliche Aufführungen kann darin liegen, dass die Komposition ausdrücklich als Konzept oder Performance angelegt ist und daher eher "Verhaltensregeln" gegeben werden. Das wäre etwas völlig anderes als möglichst genaue musikalische Vorgaben im Sinn einer Standardnotation, die freilich immer noch Spielraum für die Interpretation durch die aufführenden Musiker lässt.
Wie bereits erwähnt, steht in der modernen Musik häufig nicht mehr die klassische Form im Vordergrund, sondern die möglichst vielfältige Variation klanglicher Erlebnisse. In meinen eigenen Arbeiten verfolge ich das Ziel, lediglich die zugrunde liegenden Gesetzmäßigkeiten als äußeren Rahmen eines Werkes im Code festzulegen.
Das Spektrum dieser Codierung kann dabei von einfachen Anweisungen für menschliche Interpret*innen bis hin zu komplexen Algorithmen für Computer reichen. In diesem Sinne könnte der Code selbst zur Partitur der Moderne werden. Voraussetzung dafür wäre die Entwicklung einer allgemein verständlichen Pseudo-Programmiersprache, die gleichzeitig den Anforderungen urheberrechtlicher Institutionen wie der GEMA genügt.
Ein solcher Ansatz ließe sich auch als Weiterentwicklung der traditionellen Notenschrift verstehen. Da jedoch die zunehmende Präzision musikalischer Notation in diesem Fall durch algorithmische Offenheit ersetzt wird, vollzieht sich gewissermaßen eine Umkehr der Entwicklung. In der Konsequenz könnte sich – ähnlich wie in philosophischen Diskursen – ein Kreis schließen: Der Fortschritt führt zurück zu einem neuen Anfang.






Digital erzeugte Musik kann durch Programmierung beschrieben und das Werk absolut genau gespeichert werden, falls das gewünscht wird.
Damit eröffnet sich ein umfassender Spielraum von (nahezu) absoluter Reproduktion bis (quasi-)zufallsgenerierten Ergebnissen. Die Variation kann sich dabei auf jeden ins Werk eingeführten Parameter beziehen.
Es bliebe dann - eigentlich wie immer - eine Frage der Fähigkeiten und genauen Arbeit des Komponisten, wie das Ergebnis im Sinne von Festhalten und Reproduzierbarkeit ausfällt.
Wie bereits erwähnt, halte ich eine exakte Reproduktion technisch für unmöglich. Es gibt jedoch Kompositionen, die diese Unpräzision bewusst als musikalisches Gestaltungsmittel nutzen – zum Beispiel eine, in der hundert Metronome gleichzeitig ticken und durch ihre Ungenauigkeit eine polyrhythmische Struktur erzeugen.
Die Idee, Parameter bewusst zu verändern, finde ich sehr spannend. So erhält der Hörer Einfluss auf die Aufführung des Werkes und kann sein individuelles, multiples Werk aktiv mitgestalten. Dabei stellt sich allerdings die Frage, wie das Copyright mit dieser Flexibilität umgeht.
Was ich in diesem Zusammenhang besonders wichtig finde, ist, dass der moderne Komponist lernen sollte, nicht mehr ausschließlich in exakten Klängen zu denken, sondern vielmehr in den dahinterliegenden Systemen und Zusammenhängen – quasi in Code.




 
  • Gefällt mir
Reaktionen: 1 Benutzer
Man kann ja schon die Soundparameter in Verbindung mit dem Instrument sowie die gedrückten Tasten im zeitlichen Ablauf aufschreiben oder wohl besser elektronisch speichern. Wenn es um einmalige Sounds, wie einmalige Samples geht, ist man aber schon am Ende, wenn man nicht das Sample selbst in die "Aufzeichnung" aufnimmt. Relevant erscheint mir auch, welche Komplexität die Musik annimmt, da man z.B. den Song "Popcorn" problemlos notieren kann. Im Endeffekt landet man aber unter den Aspekten der Lesbarkeit und darauf beruhender Reproduzierbarkeit über kurz oder lang bei einfach der "Aufnahme" des Stückes für dessen Wiedergabe.

Meiner Meinung nach geht es bei ernster elektronischer Musik nicht um Musik, die durch andere 1:1 nachgespielt werden soll. Überhaupt hat, und das gilt jetzt wirklich nur für mich, sind 1:1 Life-Aufführungen elektronischer Musik nicht im Sinne der letzteren, weil man da halt einfach die elektronische Reproduktion oder Aufnahme ablaufen lassen kann. Ich habe JMJ ein paar Mal live gesehen/gehört und es war nie wie auf seinen Platten, sondern hatte immer Eventcharakter - teils gewollt (Stimmung bei der Veranstaltung sowohl der Musiker als auch des Publikums), teils ungewollt (der typischerweise abgeschmierte Memorymoog, ...). Ich bin auch noch nie über Veranstaltungen gestolpert, in denen es darum ging, das XYZ JMJ spielt.

Allenfalls spielt jemand Licks und Themen von bestimmten Stücken und wählt die Sounds nach seinen Maschinen und den Stimmungen von Künstlern und Publikum sowie vielleicht auch dem Event selbst.

Daher denke ich, dass in diesem Genre die Notation keine Rolle spielt - man mag gerne Gegenbeispiele bringen, wie eben "Covers" von solcher elektronischer Musik.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Man kann ja schon die Soundparameter in Verbindung mit dem Instrument sowie die gedrückten Tasten im zeitlichen Ablauf aufschreiben oder wohl besser elektronisch speichern.
In diesem Zusammenhang kann entweder das klassische MIDI-Format oder – moderner – das OSC-Format verwendet werden. Ich habe mich bereits intensiv mit den technischen Möglichkeiten auseinandergesetzt, die Systeme wie SuperCollider und Csound bieten. Besonders interessant ist bei Csound die Trennung zwischen der Klangprogrammierung und einer Art Partitur, die unabhängig davon erstellt und zur Interpretation des Klangs genutzt wird.
Wenn es um einmalige Sounds, wie einmalige Samples geht, ist man aber schon am Ende, wenn man nicht das Sample selbst in die "Aufzeichnung" aufnimmt
Technisch ist die exakte Wiedergabe eines Klangs äußerst schwierig. Gerade deshalb lebt Computermusik in gewisser Weise von diesem Problem – es wird sozusagen zu einem ‚Feature‘. Doch selbst der Versuch, Samples einzusetzen, bringt bestimmte Herausforderungen mit sich.“
Relevant erscheint mir auch, welche Komplexität die Musik annimmt, da man z.B. den Song "Popcorn" problemlos notieren kann
Das sehe ich genauso. Einige Musikwerke lassen sich ziemlich leicht reproduzieren. Ein gutes Beispiel dafür ist „Blue Monday“ von New Order. Interessanterweise wurde der Song „Popcorn“ auch in der Einführung eines der ersten kleinen Software-Synthesizer namens Rubber Duck verwendet.
Im Endeffekt landet man aber unter den Aspekten der Lesbarkeit und darauf beruhender Reproduzierbarkeit über kurz oder lang bei einfach der "Aufnahme" des Stückes für dessen Wiedergabe.
Gerade an dieser Stelle möchte ich Kritik üben: Obwohl die Technik der Musikwiedergabe heute sehr weit fortgeschritten ist, erfordert die heutige Zeit eine neue Betrachtung des Musikhörens. Es ist wichtig, dass sich der Hörer wieder mehr für das interessiert, was er tatsächlich hört. In diesem Zusammenhang wäre eine interaktive Musikdarbietung heute genauso notwendig wie das Farbfernsehen es damals war.
Meiner Meinung nach geht es bei ernster elektronischer Musik nicht um Musik, die durch andere 1:1 nachgespielt werden soll.
Genau das sehe ich auch so: In der modernen elektronischen Musik geht es oft darum, den Hörer stärker in den Prozess der Musikentstehung einzubeziehen. Dabei stellt sich jedoch die Frage, wie sich die Strukturen dieser interaktiven Musik am besten beschreiben lassen.
Überhaupt hat, und das gilt jetzt wirklich nur für mich, sind 1:1 Life-Aufführungen elektronischer Musik nicht im Sinne der letzteren, weil man da halt einfach die elektronische Reproduktion oder Aufnahme ablaufen lassen kann.
Ich finde, dass dies am Anfang der elektronischen Musik ein wichtiges Problem war: Was bedeutet es eigentlich, diese Musik aufzuführen – besonders im Hinblick auf die Aufführungspraxis? Welchen Sinn hat es, einfach nur eine Stereoanlage auf die Bühne zu stellen?
Ich habe JMJ ein paar Mal live gesehen/gehört und es war nie wie auf seinen Platten, sondern hatte immer Eventcharakter - teils gewollt (Stimmung bei der Veranstaltung sowohl der Musiker als auch des Publikums), teils ungewollt (der typischerweise abgeschmierte Memorymoog, ...). Ich bin auch noch nie über Veranstaltungen gestolpert, in denen es darum ging, das XYZ JMJ spielt.
Eine wichtige Frage lautet: Was ist das Wesen der musikalischen Aufführung in Zeiten der elektronischen Reproduzierbarkeit? Diese Frage hat, soweit ich weiß, schon Theodor Arnold gestellt. Doch angesichts der rasanten technischen Entwicklungen seit damals ist es an der Zeit, sie heute neu zu diskutieren.
Allenfalls spielt jemand Licks und Themen von bestimmten Stücken und wählt die Sounds nach seinen Maschinen und den Stimmungen von Künstlern und Publikum sowie vielleicht auch dem Event selbst.
Genau dies ist ein wesentlicher Aspekt der zuvor gestellten Frage nach dem Wesen der Aufführung: Könnte der Begriff des Musikwerks letztendlich überwunden werden, wenn der Hörer im Dialog mit der Maschine seine Musik selbst erzeugt?
Daher denke ich, dass in diesem Genre die Notation keine Rolle spielt - man mag gerne Gegenbeispiele bringen, wie eben "Covers" von solcher elektronischer Musik.
Oder man überdenkt den Begriff der Notation komplett neu.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Was ich in diesem Zusammenhang besonders wichtig finde, ist, dass der moderne Komponist lernen sollte, nicht mehr ausschließlich in exakten Klängen zu denken, sondern vielmehr in den dahinterliegenden Systemen und Zusammenhängen – quasi in Code.
Naja, eigentlich ist es ein Merkmal innovativ-relevanter Kunst, Grenzen zu erweitern oder gar zu sprengen.
Die Ära der akademischen oder kanonischen Kunstausübung ging schon vor 150 Jahren zu Ende.
Da kann ich mir kaum vorstellen, dass Überlegungen und Forderungen an die Künstler wie deine heutzutage noch normative Kraft entwickeln können.

Gruß Claus
 
  • Gefällt mir
Reaktionen: 1 Benutzer
@ComputerArtist_ThL : Vielen Dank für die detaillierte Befassung mit meinen Darstellungen. Ich finde damit bestätigt, dass alles Ansichtssache ist und relativ zu verschiedenen Aspekten zu betrachten ist. Das macht damit aber auch das Thema Notation jedenfalls bei elektronischer E-Musik zu einer individuellen Angelegenheit und ist mit der klassischen und streng geregelten Notation nicht mehr zu bewältigen.

Nur als "kleine" Anmerkung zu
In diesem Zusammenhang kann entweder das klassische MIDI-Format oder – moderner – das OSC-Format verwendet werden. Ich habe mich bereits intensiv mit den technischen Möglichkeiten auseinandergesetzt, die Systeme wie SuperCollider und Csound bieten. Besonders interessant ist bei Csound die Trennung zwischen der Klangprogrammierung und einer Art Partitur, die unabhängig davon erstellt und zur Interpretation des Klangs genutzt wird.
Die Schwachstelle von gespeicherten Midi-Daten oder was auch immer ist meine "Einschränkung" durch "in Verbindung mit dem Instrument". Ein Prophet XY wird die für einen Memorymoog gespeicherten Soundeinstellungen ja eben anders interpretieren und dieselben Daten erzeugen dann eben nicht in den beiden Maschinen dieselben Sounds.

Und, wenn ich tatsächlich die Midi-Daten samt Notenabfolge in dieselbe Maschine eingebe, für die sie erstellt wurden, wo ist da noch der Unterschied zu einer reinen Audioaufnahme, die ich abspiele?

Tangerine Dream und auch Froese solo, um nur Beispiele zu nennen, gaben ja Life-Konzerte. Aber diese Darbietungen waren eben gerade nicht 1:1 Wiedergaben der Studioaufnahmen und sollten es auch nicht sein, sondern nutzten eben nur musikalische Themen der Studioaufnahmen.

Etwas anders betrachten könnte man vielleicht z.B. ELP, deren instrumentale Stücke ja schon gecovert werden und ich durchaus auch als elektronische E-Musik bezeichnen würde. Was die in den Covers verwendeten Sounds anbelangt, so möchte ich da halt auch nur von Ähnlichkeiten auf Basis von Hörensagen sprechen. Auch ELP selbst (also konkret Emerson) verwendete nicht immer exakt dieselben Klänge. JMJ hab ich ja schon angesprochen.

Dann fallen mir noch einige vor allem japanische Synthesizer-Künstler ab Mitte der 70er bis Ende der 80er ein, von denen einige Life-Events mit komplexer elektronischer Musik gaben. Aus meiner Erinnerung gab es da auch welche, die live tatsächlich ihre teils komplexen Anlagen zumindest soundmäßig komplett per Midi steuerten und halt zur Show ein paar Tasten drückten (aber trotzdem teilweise phänomenale Musik machten). Die erforderlichen Sounds als Favoriten zu speichern und durch was auch immer im Verlauf der Darbietung durchzusteppen war natürlich mit dem Aufkommen der Speichermöglichkeiten normal, gehört aber für mich überhaupt nicht zur Thematik Notation, sondern ist einfach das Weglegen eines Instruments (Sounds) und Nehmen eines anderen Instruments (Sounds). Das letztere ist seit Digitaltechnik ohnehin Standard, wobei ich jetzt nicht die klassischen "Alleinunterhalter" meine, sondern so Leute wie z.B. Schiller aka Christopher von Deylen.

Und, letztlich, welcher Musiker dreht schon noch live während des Spielens an seinen Soundeinstellungen (die ja meistens nur noch über tiefe Menüs bearbeitbar sind), wie Wellenformen, Filtern, Envelopes, ... Deshalb mag ich Maschinen mit einer gehörigen Anzahl von Drehknöpfen so gerne ;)

PS: Sorry, wenn ich vielleicht etwas in historischen Ansätzen verhaftet bin, aber Du bist ja selbst auch mit Stockhausen und dergleichen gestartet.
 
Zuletzt bearbeitet:
Naja, eigentlich ist es ein Merkmal innovativ-relevanter Kunst, Grenzen zu erweitern oder gar zu sprengen.
Ich beobachte besonders in der Kunst eine starke Tendenz, immer wieder Neues und noch nie Dagewesenes zu schaffen. Mich selbst fasziniert dabei vor allem die Avantgarde.
Die Ära der akademischen oder kanonischen Kunstausübung ging schon vor 150 Jahren zu Ende.
Verstehe ich das richtig: Heutzutage benötigt man keine formale Ausbildung mehr, um Komponist zu werden? Wenn das so ist, freut mich das sehr – dann habe ich noch die Chance, Komponist zu werden.
Da kann ich mir kaum vorstellen, dass Überlegungen und Forderungen an die Künstler wie deine heutzutage noch normative Kraft entwickeln können.
Ich glaube nicht, dass diese Ideen wirklich neu sind. Vielmehr sind sie nur noch nicht im Alltag angekommen. Noch immer hält man am traditionellen Bild des Komponisten fest. Wie der Musikunterricht heute gestaltet ist, weiß ich nicht, da ich leider selbst keinen Musikunterricht hatte.
Vielen Dank für die detaillierte Befassung mit meinen Darstellungen. Ich finde damit bestätigt, dass alles Ansichtssache ist und relativ zu verschiedenen Aspekten zu betrachten ist.
Habe ich den Sinn deiner Darstellungen wirklich verstanden? Es würde mich freuen, wenn ich allmählich ein besseres musikalisches Verständnis entwickeln könnte. Gerade in der Kunst ist ja alles Ansichtssache, und das kann ich nur bestätigen.
Das macht damit aber auch das Thema Notation jedenfalls bei elektronischer E-Musik zu einer individuellen Angelegenheit und ist mit der klassischen und streng geregelten Notation nicht mehr zu bewältigen.
Ich sehe das ähnlich: Die Art der Partitur hängt im Wesentlichen vom jeweiligen Verwendungszweck ab. Für das Spielen klassischer Synthesizer bietet sich der Einsatz von MIDI an, während bei virtuell modularen Synthesizern eher das Open Sound Control (OSC) Protokoll geeignet ist.
In diesem Zusammenhang stellt sich die Frage, wie grafische Partituren am Computer einzuordnen sind – zum Beispiel solche, wie sie mit Programmen wie Iannix erstellt werden können.
Die Schwachstelle von gespeicherten Midi-Daten oder was auch immer ist meine "Einschränkung" durch "in Verbindung mit dem Instrument". Ein Prophet XY wird die für einen Memorymoog gespeicherten Soundeinstellungen ja eben anders interpretieren und dieselben Daten erzeugen dann eben nicht in den beiden Maschinen dieselben Sounds.
Ein Vergleich zwischen SuperCollider und CSound erscheint sinnvoll, denn beide Systeme bieten unterschiedliche Ansätze zur Klangsynthese. Zwar können alle Synthesizer aus denselben MIDI-Daten verschiedene Klänge erzeugen – doch genau darin lag eine grundlegende Schwäche des MIDI-Standards: Er spezifizierte primär Noteninformationen, jedoch kaum detaillierte Klangparameter.
Die genauere Steuerung von Sounds erfolgte über sogenannte System-Exclusive-Messages, die jedoch schnell an ihre Grenzen stießen – insbesondere im Kontext moderner virtueller, modularer Synthesizer. Diese erfordern eine deutlich flexiblere und umfangreichere Kommunikation, wie sie das erweiterte OSC-Protokoll (Open Sound Control) bietet. Dieses wurde entwickelt, um die Limitierungen von MIDI zu überwinden und komplexere Klangarchitekturen effizienter ansprechen zu können.
Und, wenn ich tatsächlich die Midi-Daten samt Notenabfolge in dieselbe Maschine eingebe, für die sie erstellt wurden, wo ist da noch der Unterschied zu einer reinen Audioaufnahme, die ich abspiele?
Ich finde, genau diese Reduktion der gestalterischen Möglichkeiten sollte im Sinne eines interaktiven Hörerlebnisses dem Hörer selbst überlassen werden. Die eigentliche Aufgabe des modernen Komponisten besteht heute vielmehr darin, die musikalischen Strukturen grob zu definieren – beispielsweise in Form von MIDI-Daten, was theoretisch auch ein generativer Algorithmus übernehmen könnte. Darüber hinaus liegt eine zentrale kreative Leistung in der Auswahl und Spezifizierung des Synthesizers, der diese Daten klanglich interpretiert.
Ich vermute allerdings, dass genau dieser Ansatz bereits in der Praxis umgesetzt wurde – so, wie du es zuvor beschrieben hast.
Tangerine Dream und auch Froese solo, um nur Beispiele zu nennen, gaben ja Life-Konzerte. Aber diese Darbietungen waren eben gerade nicht 1:1 Wiedergaben der Studioaufnahmen und sollten es auch nicht sein, sondern nutzten eben nur musikalische Themen der Studioaufnahmen.
Wie ich schon geschrieben hatte kommt es bei der Aufführung von Musik immer auf die jeweilige Situation an - wäre dies nicht so wäre die Musik Tot - doch selbst das hören von musikaufnahmen - finde ich - ist im gewissen Sinne Tot - wenn nicht dem Hörer die Möglichkeit gegeben wird auf diese Musik einzuwirken - wenn nicht zumindest durch die eigene kreatgive Auswahl der Musik
Etwas anders betrachten könnte man vielleicht z.B. ELP, deren instrumentale Stücke ja schon gecovert werden und ich durchaus auch als elektronische E-Musik bezeichnen würde
Es tut mir leid, dass ich die Musikgruppe ELP nicht kenne. Ich denke aber, dass das Spektrum der elektronischen Musik sehr breit ist – zum einen gibt es ernste bzw. klassische elektronische Musik, zum anderen unterhaltende und tanzorientierte elektronische Musik.
Ich bin außerdem der Meinung, dass seit jener Zeit, als etwa Karlheinz Stockhausen erstmals Lautsprecher anstelle von Musikern auf die Bühne stellte, eine Entwicklung hin zu einem persönlichen, interaktiven Hörerlebnis stattfinden sollte – und vermutlich auch bereits stattgefunden hat.
Was die in den Covers verwendeten Sounds anbelangt, so möchte ich da halt auch nur von Ähnlichkeiten auf Basis von Hörensagen sprechen. Auch ELP selbst (also konkret Emerson) verwendete nicht immer exakt dieselben Klänge. JMJ hab ich ja schon angesprochen.
Wie bereits erwähnt, kenne ich die Gruppen ELP und JMU leider nicht. Dennoch bin ich überzeugt, dass gerade die Vielfalt der Klänge eine musikalische Darbietung lebendig und spannend macht – und somit ein würdiges Tribut an das Ereignis selbst darstellt.
Dann fallen mir noch einige vor allem japanische Synthesizer-Künstler ab Mitte der 70er bis Ende der 80er ein, von denen einige Life-Events mit komplexer elektronischer Musik gaben.
Leider kenne ich mich weder mit aktueller noch mit historischer japanischer Synthie-Musik aus. Vielleicht sollte ich mich einmal intensiver mit diesem Genre beschäftigen. Kennst du legale und kostenlose Möglichkeiten, um solche Musik online zu hören?
Aus meiner Erinnerung gab es da auch welche, die live tatsächlich ihre teils komplexen Anlagen zumindest soundmäßig komplett per Midi steuerten und halt zur Show ein paar Tasten drückten (aber trotzdem teilweise phänomenale Musik machten).
Das erinnert mich ein bisschen an Kraftwerk. Soweit ich das gesehen habe, zum Beispiel auf YouTube, spielen sie bei ihren Auftritten fast fertige elektronische Musik ab. Dabei verstehen sie sich jedoch nicht als Musiker, sondern eher als Techniker und Dienstleister. Ihre Musik ist für sie weniger ein künstlerisches, sondern vielmehr ein industrielles Produkt – allerdings im positiven Sinne. Damit grenzen sie sich bewusst von der Kritik durch die Industrial-Musik ab.
Die erforderlichen Sounds als Favoriten zu speichern und durch was auch immer im Verlauf der Darbietung durchzusteppen war natürlich mit dem Aufkommen der Speichermöglichkeiten normal, gehört aber für mich überhaupt nicht zur Thematik Notation,
Ich sehe den künstlerischen Schaffensprozess – egal ob in der bildenden Kunst oder in der Musik – als das Sammeln von Ideen und Fragmenten, die durch intensive Auseinandersetzung zu einem Kunstwerk geformt werden. Besonders in der Musik erweitert sich dieser Prozess durch die Möglichkeit, nicht nur Klangfragmente zu sammeln, sondern sich auch mit der Struktur und der inneren Logik des Werkes auseinanderzusetzen. Für mich ist dabei eine zentrale Frage, wie all diese Elemente festgehalten werden können. Genau hier spielt die Partitur eine entscheidende Rolle.
sondern ist einfach das Weglegen eines Instruments (Sounds) und Nehmen eines anderen Instruments (Sounds).
Dies ist meiner Meinung nach das schlimmste Szenario – und ein künstlerisches Missverständnis. Ich denke dabei zum Beispiel an die Klangfarbenmelodien von Arnold Schönberg. Meiner Meinung nach sollte sich der Künstler mit allen Ebenen seines Musikwerks gestalterisch auseinandersetzen – also sowohl mit dem Klang, beginnend mit dessen spektraler Gestalt (hier hatte ich an das Spektrogramm als Partitur gedacht), als auch mit der Makrostruktur der Liedsatzform. Hier denke ich zum Beispiel an graphische Partituren oder an die Möglichkeit von MIDI.
Das letztere ist seit Digitaltechnik ohnehin Standard, wobei ich jetzt nicht die klassischen "Alleinunterhalter" meine, sondern so Leute wie z.B. Schiller aka Christopher von Deylen.
So weit ich weiß, gibt es die Tendenz, einfach die Instrumente zu nehmen – durch Trial and Error zu sehen, was passt – vor allem in der Unterhaltungsmusik. Hier glaube ich, ist es ein Tribut an die Unüberschaubarkeit der Möglichkeiten.
Und, letztlich, welcher Musiker dreht schon noch live während des Spielens an seinen Soundeinstellungen (die ja meistens nur noch über tiefe Menüs bearbeitbar sind), wie Wellenformen, Filtern, Envelopes, ... Deshalb mag ich Maschinen mit einer gehörigen Anzahl von Drehknöpfen so gerne
Es mag sein, dass nur noch wenige Musiker so arbeiten, aber ich denke dabei besonders an Live-Coding-Events. Dort wird der Prozess der Programmentwicklung in Echtzeit zum zentralen Bestandteil der Aufführung. So entsteht nicht nur die Musik, sondern auch das Erschaffen neuer Sounds und deren Parameter unmittelbar während des Konzerts. Für diese Art der Darbietung gibt es spezielle Programme wie Chunk, SuperCollider oder SonicPy, die genau das ermöglichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Verstehe ich das richtig: Heutzutage benötigt man keine formale Ausbildung mehr, um Komponist zu werden?
Nein, Du kannst jederzeit als Komponist arbeiten, einschlägige Verträge schließen, eine GEMA-Anmeldung nach deren Bedingungen vornehmen und Millionen scheffeln wie einst Frank Fahrian (Koch) oder immer noch Dieter Bohlen (Diplomkaufmann).
Mein Liebling ist allerdings eher Charles Ives, kein ganz so eindeutiger Berufsschwänzer. Ives hatte ein Musikstudium, betrieb die Musik dann aber als (ernsthafte) Nebenbeschäftigung und war im Hauptberuf erfolgreicher Versicherungsunternehmer.
Charles Ives, The Unanswered Question. Andrés Orozco-Estrada mit dem hr-Sinfonieorchester

Im Gegensatz zu vielen anderen Tätigkeiten ist für einen Komponisten keine Ausbildung vorgeschrieben, keine Gewerbeanmeldung und schon gar keine Gewerbeerlaubnis notwendig.'
Im Fall von Einnahmen gelten natürlich die steuerrechtlichen Vorschriften und bei Bezug öffentlicher Hilfen die Mitteilungspflicht.

Gruß Claus
 
Guten Abend,

spannend. In meiner "aktiv(-er-)en" Zeit hatte ich ein ähnliches, vielleicht vergleichbares Hobby-Projekt, dass aber Reproduzierbarkeit nicht verdammt oder infragestellt, sondern feiert. Andere fanden für meine Hörbeispiele gern wenig schmeichelhafte Attribute für mechanisch oder tot, das hat mich angesichts des Aufwands, den ich trieb, zuweilen bis auf die Ebene von Einzelnoten, schon etwas geknickt. So tot fand ich selber nicht, was ich produzierte! *Flunschzieh* ;-) Ohren, die immer wieder das selbe falsche hören, gewöhnen sich leicht daran. Das ist tückisch.

In dem Projekt ging es um eine textförmige Sprache/Notation, die die Beschränkungen des MIDI-Protokolls überwindet, da es für bestimmte Zwecke geeignet erscheint, kam es ja aus dem Wunsch nach maschineller Interoperabilität statt nach Notation. Zu den Anlässen mich damit zu beschäftigen, wie du Dinge neu zu denken, gehörte:
  • dass SonicPi/SoundCollider/TidalCycles/u.a. lästigerweise an eine grafische Benutzoberfläche gebunden waren, "Klickibunti", dachte ich vielleicht etwas überheblich, mir nicht nüchtern funktional und kryptisch genug, um mich abzugrenzen, wofür zudem mein RaspberryPi zu langsam war.
  • Und, dass ich ein Projekt suchte, Python zu lernen.
  • "Fertige" Musik aus Notenbüchern zu übersetzen, zu reproduzieren (und dabei zu "interpretieren", allerdings s.u.), sollte mir mehr Spaß machen als Beispiel-Quelltexte für Python irgendwo herunterzuladen, abzutippen und zur Ausführung zu bringen.

Meine Fragestellung war, wie sich die Klangdomäne und die Tondomäne notationstechnisch, sprachlich, d.h. syntaktisch-semantisch unter einen Hut bringen lässt.

Die Klangdomäne umfasst das gesamte Spektrum zwischen Sinuston und Rauschen. Menschliche Sprache, da zu kompliziert, außen vor gelassen, aber Tierstimmen sind durchaus drin, sogar Sturmgewehrsalven, das mir selber so sehr Angst gemacht hatte, sich derart echt anhörte, dass ich Notat und Rendering umgehend gelöscht hatte. Die Domäne umfasst Stimmen, Instrumente, Spielweisen, Artikulation, aber sogar (sowas wie) Raumhall, denn der gehört mit zur Akustik. Die Klangdomäne stellt grob das dar, was am Synthesizer einstellbar ist, bevor der Mensch an den Tasten die erste Taste drückt.

Die Tondimension der Musik ist die Melodie, Harmonie, Rhythmus, Tempo, Dynamik. Die Tondomäne stellt mehr oder weniger das da, was Notenstecher üblicherweise aufs Papier bringen. bestimmte Dinge auch hier ausgenommen, dafür anderes expliziter: "Sfz." gibts nicht, aber genaue Betonungsangaben auf der dBFS-Skala. Legatobögen ebenso wenig, aber stative relative Tonkürzungen-/verlängerungen. Rallentando etc. machten Tempogradientennotation Platz, und so weiter. Jeder Beat kann tempodynamisch gestaltet werden, wenn man sich diese Mühe machen will. Swing und so weiter, so Feinheiten wurden machbar, obwohl ich an den Tasten Mühe hätte nach Metronom zu spielen.

Wie lässt sich nun beides in anderthalb Sprachen ausdrücken? Das war die Frage, die sich mir stellte. Anderthalb, weil sich Pi mal Fensterkreuz ein Drittel davon der Klangdimension widmet, ein Drittel der Tondimension allein, und ein Drittel beides miteinander verknüpft, das ist der Teil, der zu beiden Domänen zugleich gehört.


Oder man überdenkt den Begriff der Notation komplett neu.
Ich finde, man muss das eh trennen. Notation ist nicht Musik, genauer, Notation ist nicht mit Interpretation/Artikulation zu verwechseln. Lässt du, lasse ich fixierte Notation von einer Software rendern, direkt in eine Audiodatei oder in den Audioausgabe-Buffer zum "einmaligen" Playback (ab dem Signal im DA-Wandler ist das eh gleich), dann ist das in Kenntnis des Verfahrens keine Musik, die Musen sind außen vor. Der Notationsaufwand, der nötig ist, um Interpretation zu "faken", steigt ins exorbitant-absurde und endet nur falsch für die Ohren, da man sowas wie ein Musikstudium gebraucht hätte. Dann doch lieber damit leben, dass sich das im Grunde doch alles mechanisch anhört. Da half es auch nicht, die reine Stimmung anzuwenden, um Absoluthörer in die Flucht zu schlagen. Aber reine Stimmung bei Stücken fürs wohl oder gleichstufig temperierte Klavier, das lehrt einiges über Stimmung und Harmonie, denn da muss man alle naslang die Stimmung dran anpassen. So Späße sind dann drin.

Das mag man anders sehen, aber ich nenne es lieber Audiorendering, allenfalls dann "Neusik", wenn man wirklich sich erdreistet konventionelle Noten so zu realisieren. Eigentlich Nerdmusik, aber erstens hab ich das -rdm- für eine Abkürzung zweckentfremdet und zweitens brauchte ich ne Domain, die noch nicht vergeben war, und drittens steht dem Nerd eine gewisse Blasiertheit zu, was Neuheit betrifft, und viertens soll das noisige irgendwie selbstironisch rüberkommen.

Interpretation ist ohne Mensch hinter den Noten nicht denkbar. Auch eine K.I. interpretiert nicht, sie tut nur so. Egal. Echtes Interpretieren, dazu brauchts instrumentenkundige Musiker. Aus dem Grund verzichte ich hier zunächst aufs Posten von Beispielen, um nicht unnötig etwaigen Berufsdünkel / Fremdscham / von dieser Diskussion wegführende Fehlerhinweise zu provozieren.

Ist fürs Thema auch egal. Worauf ich hinauswill: Die Trennung und anschließende geordnete Verbindung von Klang- und Tondomäne würde ich sehr empfehlen als Ansatz für ähnliche Projekte. Und vergiss Echtzeit, das macht alles nur unnötig kompliziert, nur um Musikern zu gefallen, die so Projekte eh nicht brauchen. Wer aus maschinenlesbarer Notation Renderings erzeugen will, muss warten können. Oder Meditieren, Kaffeekochen, Wäsche aufhängen, was weiß ich.
 
Nein, Du kannst jederzeit als Komponist arbeiten, einschlägige Verträge schließen, eine GEMA-Anmeldung nach deren Bedingungen vornehmen
Ich habe ein Problem: Wie kann ich mich als absoluter Laie von professionellen Komponisten abgrenzen? Liegt der Unterschied nur darin, wie viel man mit dem Komponieren verdient und wie bekannt man ist? Und wie kann ich sicherstellen, dass andere verstehen, dass ich ein Laien-Komponist bin?
und Millionen scheffeln wie einst Frank Fahrian (Koch) oder immer noch Dieter Bohlen (Diplomkaufmann).
Meiner persönlichen Einschätzung nach ist das eher ein Negativbeispiel dafür, was ein Komponist sein kann. Dennoch bin ich mir sicher, dass er bekannt ist, gut verdient und somit als Berufskomponist anerkannt wird.
Mein Liebling ist allerdings eher Charles Ives, kein ganz so eindeutiger Berufsschwänzer. Ives hatte ein Musikstudium, betrieb die Musik dann aber als (ernsthafte) Nebenbeschäftigung und war im Hauptberuf erfolgreicher Versicherungsunternehmer.
Charles Ives, The Unanswered Question. Andrés Orozco-Estrada mit dem hr-Sinfonieorchester
Bei mir ist es als Laienmusiker und -komponist ganz ähnlich: Da ich kein Instrument spiele, sondern ausschließlich am Computer arbeite, kommt ein klassisches Musikstudium für mich nicht infrage. Außerdem habe ich nie beabsichtigt, mit Musik Geld zu verdienen – höchstens mal ein Mittagessen, wenn ich im UPH bin. Für mich sind das Komponieren und Programmieren vor allem ein Hobby, das mir einfach Spaß macht.
Im Gegensatz zu vielen anderen Tätigkeiten ist für einen Komponisten keine Ausbildung vorgeschrieben, keine Gewerbeanmeldung und schon gar keine Gewerbeerlaubnis notwendig.'
Im Fall von Einnahmen gelten natürlich die steuerrechtlichen Vorschriften und bei Bezug öffentlicher Hilfen die Mitteilungspflicht
An diesem Punkt kommen wir zur rechtlichen Frage: Darf ich mir ein Mittagessen spendieren lassen, ohne es steuerlich anzugeben? ,-))
 
  • Gefällt mir
Reaktionen: 1 Benutzer
In meiner "aktiv(-er-)en" Zeit hatte ich ein ähnliches, vielleicht vergleichbares Hobby-Projekt, dass aber Reproduzierbarkeit nicht verdammt oder infragestellt, sondern feiert
Wie ich bereits versucht habe zu erklären, geht es mir darum, die verschiedenen Variationsmöglichkeiten der Programmdurchläufe zu nutzen, um eine Verbindung zwischen dem Konzept multipler Formen und einem individuellen Kunstwerk herzustellen. Dadurch soll ein Mehrwert geschaffen werden, der an den Hörer weitergegeben wird.
Andere fanden für meine Hörbeispiele gern wenig schmeichelhafte Attribute für mechanisch oder tot, das hat mich angesichts des Aufwands, den ich trieb, zuweilen bis auf die Ebene von Einzelnoten, schon etwas geknickt.
Für meine musikalischen Ergebnisse gab es unterschiedliche Bezeichnungen, wie zum Beispiel „Kakophonie in Violett“. Erfolg ist nicht jedem Komponisten einfach in den Schoß gelegt, und nicht jeder Mensch versteht das Spiel – auch wenn es beruflich als ernsthaftes Spiel mit Kunst und Musik gilt.
So tot fand ich selber nicht, was ich produzierte! *Flunschzieh* ;-) Ohren, die immer wieder das selbe falsche hören, gewöhnen sich leicht daran. Das ist tückisch.
Ich kann das Problem gut nachvollziehen. Es gibt jedoch noch einen weiteren Aspekt: Die Musik der Avantgarde ist zum Beispiel nicht für jeden leicht zugänglich. Wenn man etwas nicht versteht, wird es oft umso langweiliger.
In dem Projekt ging es um eine textförmige Sprache/Notation, die die Beschränkungen des MIDI-Protokolls überwindet, da es für bestimmte Zwecke geeignet erscheint, kam es ja aus dem Wunsch nach maschineller Interoperabilität statt nach Notation.
In diesem Sinne könnte man einen Programmtext verwenden, um dein Ziel zu erreichen. Auch wenn ich die Begrenztheit der MIDI-Notation sehe, war sie dennoch ein wichtiger Schritt in der Entwicklung. Wenn ich diese Aufgabe übernehmen würde, würde ich momentan auf SuperCollider oder Csound zurückgreifen.
dass SonicPi/SoundCollider/TidalCycles/u.a. lästigerweise an eine grafische Benutzoberfläche gebunden waren, "Klickibunti", dachte ich vielleicht etwas überheblich, mir nicht nüchtern funktional und kryptisch genug, um mich abzugrenzen, wofür zudem mein RaspberryPi zu langsam war.
Ja, ich weiß, wir Computer-Nerds sind meist echte Masochisten und suchen gerne die Herausforderung. Trotzdem sollte man sich die Arbeit – oder besser gesagt das Hobby – nicht unnötig schwer machen. Mir ist klar, dass es hier mehr auf den Weg als auf das Ziel ankommt, aber trotzdem…
Und, dass ich ein Projekt suchte, Python zu lernen.
Python war die zweite Programmiersprache, die ich gelernt habe – nach QBASIC. Der Übergang von BASIC zu Python fiel mir besonders wegen der objektorientierten Programmierung schwer. Mittlerweile beschäftige ich mich mit Clojure und der datenorientierten Programmierung. Besonders spannend finde ich, dass man mit Clojure und Overtone Musik machen kann – und das sogar ganz ohne grafische Benutzeroberfläche.
"Fertige" Musik aus Notenbüchern zu übersetzen, zu reproduzieren (und dabei zu "interpretieren", allerdings s.u.), sollte mir mehr Spaß machen als Beispiel-Quelltexte für Python irgendwo herunterzuladen, abzutippen und zur Ausführung zu bringen.
Wenn man großes Interesse daran hat, etwas zu lernen, lernt man automatisch schneller und besser. Ich zum Beispiel hatte früher immer Schwierigkeiten mit der englischen Sprache, weil ich keinen wirklichen Nutzen darin sah. Heute komme ich ohne Englisch kaum noch aus, denn alle Foren und die gesamte Dokumentation sind auf Englisch. Dadurch habe ich letztendlich doch noch Englisch gelernt.
Meine Fragestellung war, wie sich die Klangdomäne und die Tondomäne notationstechnisch, sprachlich, d.h. syntaktisch-semantisch unter einen Hut bringen lässt.
Wie bereits erwähnt, beschäftige ich mich autodidaktisch mit Musik und Kunst – zwar hauptsächlich als Hobby. Dabei möchte ich mich vertieft mit der Semiotik und Semantik in beiden Bereichen auseinandersetzen. Mein Fokus liegt dabei auf den Begriffen „Gestaltung in Zeit und Raum“. In diesem Zusammenhang finde ich es besonders interessant zu untersuchen, welche semiotischen Elemente diese Gestaltung prägen und welche Bedeutungen (Semantiken) ihnen dabei zugeschrieben werden.
Die Klangdomäne umfasst das gesamte Spektrum zwischen Sinuston und Rauschen.
Wie ich bereits erwähnt habe, möchte ich mich später noch mit der Semiotik der Zeitgestaltung beschäftigen. In diesem Zusammenhang wird es spannend sein, das Spektrum zwischen Sinustönen und Rauschen genauer zu betrachten. Meines Wissens hat beispielsweise Karlheinz Stockhausen mit Sinustönen und Impulstönen gearbeitet, während die musique concrète ihren Ausgangspunkt im Geräusch nimmt. In gewisser Weise sollen diese verschiedenen Klangarten den Zeitraum füllen und gestalten.
Menschliche Sprache, da zu kompliziert, außen vor gelassen, aber Tierstimmen sind durchaus drin, sogar Sturmgewehrsalven
Für dieses Thema ist es wichtig, die Semantik der zuvor genannten Elemente zu betrachten. Die menschliche Sprache ist besonders semantisch geprägt, da sie die Grundlage für Bedeutung bildet. Aber auch andere Geräusche tragen eine semantische Bedeutung, was insbesondere in der Musik Concrete eine große Rolle spielt.
das mir selber so sehr Angst gemacht hatte, sich derart echt anhörte, dass ich Notat und Rendering umgehend gelöscht hatte.
Ich bezeichne diesen Vorgang gerne als „semantischen Kurschluss“. Er tritt ein, wenn die semantische Bedeutung gegenüber der Betrachtung der semiotischen Gestalt in den Vordergrund rückt. Dadurch endet das Musikalische, und das Sprachliche gewinnt an Bedeutung.
Dieses Phänomen stellt vor allem dann ein Problem dar, wenn Musik von Maschinen verarbeitet wird. Wie ich bereits an anderer Stelle erwähnt habe, liegt mein Interesse irgendwo an der Schnittstelle von Informatik (insbesondere Künstliche Intelligenz), Musik, Kunst und Philosophie.
Die Domäne umfasst Stimmen, Instrumente, Spielweisen, Artikulation,
Wir sind ja bereits auf das Thema Stimmen eingegangen, insbesondere auf das Instrument und seine Spielweise beziehungsweise Artikulation. Was mich dabei beschäftigt, ist die Frage, warum wir stets vom Instrument selbst ausgehen und nicht von einem Kontinuum von Tönen – etwa von reinen Sinustönen. Warum betrachten wir den Klang des Instruments immer als eine einzelne, abgeschlossene Einheit (Monade), anstatt ihn als Teil eines kontinuierlichen Spektrums von Tönen zu sehen?
aber sogar (sowas wie) Raumhall, denn der gehört mit zur Akustik.
Ich bin ein großer Freund von Raumhall, auch wenn ich ihn meist künstlich erzeuge. Denn erst durch den Hall erhält die Musik einen besonderen Raum und Glanz. Dabei frage ich mich oft: Wie weit kann man mit dem Reverb gehen, bis er selbst zum bestimmenden Element wird – quasi zum eigenen Instrument?
Die Klangdomäne stellt grob das dar, was am Synthesizer einstellbar ist, bevor der Mensch an den Tasten die erste Taste drückt.
Das bringt mich zu einer weiteren Frage: Wie unterscheidet man eigentlich den Klang eines Instruments vom Klang einer Komposition? Wo liegt der Unterschied zwischen dem musikalischen Mikrokosmos und Makrokosmos? Bei traditioneller Musik mag das noch relativ einfach sein – hier gilt oft deine Regel: der Klang vor und nach dem Tastendruck. Doch wie verhält es sich bei elektronischer Musik, die häufig eine Mischung aus Sinustönen und Geräuschen darstellt?
Die Tondimension der Musik ist die Melodie, Harmonie, Rhythmus, Tempo, Dynamik.
Ich möchte hier eine Unterscheidung zwischen primären Ton-Dimensionen und Klang-Dimensionen einführen. Der Ton lässt sich durch seine Frequenzen definieren. Es ist für mich wichtig, den Ton als eine Menge von Frequenzen zu betrachten, insbesondere im Hinblick auf den letzten Punkt, bei dem ich die Unterscheidung zum Instrument hinterfragt habe – dabei spielen auch die Amplituden dieser Frequenzen eine Rolle.
Klang-Dimensionen umfassen für mich hingegen Melodie und Harmonie – oder anders gesagt Harmonie und Kontrapunkt –, die traditionell die Makrostruktur der Musik prägen.
Eine weitere wichtige Klang-Dimension bilden Rhythmus und Tempo. Interessanterweise werden diese in der traditionellen Musiktheorie meiner Beobachtung nach eher als weniger bedeutsam angesehen. So konnte ich weder in meiner Stadtbibliothek noch in der Universitätsbibliothek ein umfassendes Buch zum Thema Rhythmus finden. Zudem wird das Tempo oft in BPM und Notenlängen getrennt behandelt, was ich zumindest verwirrend finde. Vielleicht kann hier jemand für Klarheit sorgen.

Die Tondomäne stellt mehr oder weniger das da, was Notenstecher üblicherweise aufs Papier bringen. bestimmte Dinge auch hier ausgenommen, dafür anderes expliziter:
Ich glaube, du meinst hier eher die Klangdomäne – also Elemente wie Harmonie, Melodie, Rhythmus und Tempo. Es wäre wichtig zu klären, wie sich die Gestalt von Ton und Klangdomäne beschreiben lässt. Mit einer solchen Beschreibungstechnik könnte man auch das Thema Notation besser verstehen und lösen.
Legatobögen ebenso wenig, aber stative relative Tonkürzungen-/verlängerungen. Rallentando etc. machten Tempogradientennotation Platz, und so weiter.
Dies sind meiner Erfahrung nach Elemente, die oft in der traditionellen Notation benutzt werden – aber zum Beispiel in der MIDI-Aufzeichnung keine Entsprechung haben. Eine interessante Frage ist hier zum Beispiel auch, ob musikalische Notenverzierungen es dem Dirigenten und den Instrumentalisten ermöglichen, die Partitur besser zu lesen als in der ausgeschriebenen Form.
Jeder Beat kann tempodynamisch gestaltet werden, wenn man sich diese Mühe machen will.
Ein interessanter Aspekt ist, dass heute jedes Element einer Komposition sehr genau geplant und gestaltet werden kann. Die entscheidende Frage dabei ist jedoch, wie präzise diese Ausarbeitung sein muss, damit der künstlerische Gedanke für den Zuhörer wirklich verständlich und erlebbar wird. Ein gutes Beispiel dafür sind die Player-Piano-Kompositionen von Kornell Nankarow, der diesen Prozess bis zur Perfektion – oder sogar bis ins Extrem – getrieben hat.
Wie lässt sich nun beides in anderthalb Sprachen ausdrücken? Das war die Frage, die sich mir stellte.
Genau, deshalb möchte ich nach einer zeitgemäßen Form der Notation und Partitur fragen.
 
Zuletzt bearbeitet:
Anderthalb, weil sich Pi mal Fensterkreuz ein Drittel davon der Klangdimension widmet, ein Drittel der Tondimension allein, und ein Drittel beides miteinander verknüpft, das ist der Teil, der zu beiden Domänen zugleich gehört.
Ich finde deine Begründung zur Sache mit dem Andrethalb sehr gelungen. Würde man eine Partitur oder Notation nach unseren bisherigen Gedanken gestalten, müsste sie zum einen die Mikro-Ebene des Instrumentenklangs beschreiben – vorausgesetzt, man möchte am Gedanken des Instruments festhalten. Diese Ebene entspricht deiner Tonebene. Zum anderen müsste sie die Makro-Ebene abbilden, also zum Beispiel die Liedform oder die Form von Sonaten und Fugen, was deiner Klangebene entspricht.
Darüber hinaus sollte es eine Verbindung zwischen diesen Ebenen geben, was besonders interessant wird, wenn man den Gedanken des Instruments überwindet.
Ich finde, man muss das eh trennen. Notation ist nicht Musik,
Notation ist genauso wenig Musik wie ein Kalender Zeit ist – sie ist vielmehr eine Beschreibung der Form der organisierten Zeit. Andererseits gibt es schon seit langem graphische Partituren, die nicht zum Aufführen gedacht sind, sondern zum Betrachten mit den Augen.
In gewissem Sinne sind auch die Bilder von Wassily Kandinsky als graphische Notationen zu verstehen, die als Musik oder Tanz umgesetzt werden könnten – und genau das sah dieser Künstler auch so. Ähnlich verhält es sich mit den Partituren von Iannis Xenakis, der sowohl Architekt als auch Komponist war.
Notation ist nicht mit Interpretation/Artikulation zu verwechseln.
Nein, erst in der Aufführung kommen diese Parameter hinzu, die die Musik lebendig machen. Notation dient dabei als Stütze, um die ungefähre Organisation der gestalteten Zeit festzuhalten und zu beschreiben – ähnlich wie die Planung und Organisation einer Veranstaltung.
Lässt du, lasse ich fixierte Notation von einer Software rendern, direkt in eine Audiodatei oder in den Audioausgabe-Buffer zum "einmaligen" Playback (ab dem Signal im DA-Wandler ist das eh gleich), dann ist das in Kenntnis des Verfahrens keine Musik, die Musen sind außen vor
Ich denke, das, was wir als Musik bezeichnen, bleibt es auch dann, wenn sie nur abgespielt wird – so wie das Abspielen eines Tonbandes weiterhin Musik ist. Allerdings ist dies kein schöpferischer Akt der Musikerzeugung. In diesem Sinne sind die Musen wahrscheinlich nicht beteiligt. Trotzdem müsste man drei verschiedene Stufen unterscheiden: Zum einen den großen schöpferischen Akt, bei dem das ursprüngliche Werk gestaltet wird; zum anderen den Prozess der interaktiven Aufführung durch den Rezipienten; und schließlich den eigentlichen Moment des hingebungsvollen Hörens.
Der Notationsaufwand, der nötig ist, um Interpretation zu "faken", steigt ins exorbitant-absurde und endet nur falsch für die Ohren, da man sowas wie ein Musikstudium gebraucht hätte.
Das erinnert mich, wie gesagt, an den Kompositionsprozess von Kornell Nankarow. Er musste sein Werk in Lochkarten festhalten und durfte sich dabei nicht verschreiben. Doch welchen Sinn hat das? Meiner Meinung nach ist das Zeit- und Müheverschwendung. Ich bevorzuge eine Version, in der ein Werk als multiples, individuelles Kunstwerk verstanden wird.
Dann doch lieber damit leben, dass sich das im Grunde doch alles mechanisch anhört.
Wie ich bereits schrieb, empfinde ich das als verschwendete Zeit und Mühe. Für mich ist daher eher diese Version des interaktiven Musikhörens passend.
Da half es auch nicht, die reine Stimmung anzuwenden, um Absoluthörer in die Flucht zu schlagen.
Die reine Stimmung habe ich bisher eigentlich nicht ganz verstanden. Soweit ich weiß, geht es dabei darum, die einzelnen Intervalle exakt so zu spielen, wie sie in der Obertonskala auftreten. Allerdings harmoniert das nicht vollständig mit dem Prinzip der Quintenschichtung, sodass die Intervalle immer leicht verstimmt sind. In der modernen Musik verwendet man stattdessen die gleichmäßig temperierte Skala, bei der die Intervalle gleichmäßig verstimmt sind.
In der elektronischen Musik ist dieses Thema kaum noch relevant, da hier beliebig genaue Frequenzen verwendet werden können. Aus meiner Erfahrung entstehen dabei jedoch andere Probleme im Zusammenspiel der Intervalle.
Eine gewisse Ungenauigkeit ist also unvermeidlich. Man muss darauf vertrauen, dass der Hörer sich die Töne trotzdem harmonisch zurechthört – was glücklicherweise meistens gelingt.
Aber reine Stimmung bei Stücken fürs wohl oder gleichstufig temperierte Klavier, das lehrt einiges über Stimmung und Harmonie, denn da muss man alle naslang die Stimmung dran anpassen. So Späße sind dann drin.
Wie gerade erwähnt, ist heutzutage das gleichstufig temperierte Instrument der allgemein übliche Standard in der Aufführungspraxis. Diese Stimmung hat sich sogar bis in die elektronische Musik durchgesetzt.
Was du mit dem Problem der Stimmungsanpassung meinst, verstehe ich nicht ganz. Meinst du vielleicht, dass selbst bei einer exakten Stimmung die einzelnen Intervalle nicht perfekt zueinander passen?
Das mag man anders sehen, aber ich nenne es lieber Audiorendering, allenfalls dann "Neusik", wenn man wirklich sich erdreistet konventionelle Noten so zu realisieren.
Ich beziehe mich noch einmal auf den Punkt, dass eine exakte Festlegung der Aufführung überflüssig ist und den Aufwand nicht rechtfertigt. Dieser Gedanke lässt sich auch auf die Problematik von Intervallen und Stimmungen übertragen – in diesem Zusammenhang erhält der Begriff der Neuen Musik eine völlig neue Bedeutung.
Eigentlich Nerdmusik, aber erstens hab ich das -rdm- für eine Abkürzung zweckentfremdet und zweitens brauchte ich ne Domain, die noch nicht vergeben war,
Darf ich eine blöde Frage stellen? Wozu brauchst du eine freie Domain? Hast du jetzt eine Webseite erstellt, die sich mit diesem Thema beschäftigt? Das wäre aus meiner Sicht ein spannendes Thema für eine Diplomarbeit – speziell im Bereich Aufführungspraxis. Oder steht die Domain für eine bestimmte Abkürzung? Wofür genau brauchst du sie?
und drittens steht dem Nerd eine gewisse Blasiertheit zu, was Neuheit betrifft, und viertens soll das noisige irgendwie selbstironisch rüberkommen.
Also, hier treffen zwei Nerds aufeinander: einer mit Erfahrung, der andere noch am Anfang – und ich bin wohl derjenige, der noch viel zu lernen hat. Auch wenn ich mich immer für Neues begeistern kann, muss ich einsehen, dass das Thema vielleicht gar nicht mehr so neu ist – vielleicht ist es sogar schon kalter Kaffee.
 
Zuletzt bearbeitet:

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben