Notation von elektronischer Musik

C
ComputerArtist_ThL
Registrierter Benutzer
Zuletzt hier
05.07.25
Registriert
13.05.23
Beiträge
34
Kekse
0




Liebe Musikboarder,
ich möchte heute ein – aus meiner Sicht – spannendes Thema zur Diskussion stellen: die Notation elektronischer Musik, insbesondere im Bereich der klassischen bzw. „ernsten“ elektronischen Musik.
Einige von euch kennen sicher Werke von Komponisten wie Karlheinz Stockhausen oder Iannis Xenakis, in denen deutlich wird, wie herausfordernd es sein kann, elektronische Klänge angemessen zu notieren. Traditionelle Notationssysteme stoßen hier schnell an ihre Grenzen.
Vor diesem Hintergrund stellt sich die Frage, ob moderne Visualisierungsformen wie Spektrogramme – beispielsweise im Zusammenhang mit Sonic Visualiser – als alternative oder ergänzende Notationsformen verstanden werden können.
Darüber hinaus könnten wir gemeinsam überlegen, inwiefern auch MIDI-Datenströme, OSC-Protokolle oder sogar Computercode selbst eine Art zeitgenössischer Notation darstellen. Auch die konkreten Notationsansätze von Stockhausen und Xenakis bieten interessante Anknüpfungspunkte für eine Diskussion.
Ich würde mich freuen, wenn wir uns gemeinsam über diese Fragestellungen austauschen und unterschiedliche Perspektiven einbringen könnten.
 
  • Interessant
Reaktionen: 1 Benutzer
KI-User/Bot?
Denke da auch an Steve Reich, kein Elektroniker in dem Sinne, aber viele Einflüsse mit den Loops etc. sind in die elektronische Musik geflossen.
 
Denke da auch an Steve Reich, kein Elektroniker in dem Sinne, aber viele Einflüsse mit den Loops etc. sind in die elektronische Musik geflossen.
ch habe den Namen Steve Reich schon einmal gehört und werde definitiv noch einmal in seine Musik hineinhören. Ich finde, dass moderne Technik die Musikproduktion demokratisiert und sie für immer mehr Menschen zugänglich macht.
So direkt nicht: es muss ja auch spielbar sein, von Reproduzierbarkeit ganz zu schweigen.
Die Komplexität des Sonogramms stellt ein zentrales Problem dar – es enthält schlichtweg zu viele Informationen. Um diese Daten zugänglicher zu machen, wäre daher eine Abstraktion notwendig. In gewisser Weise übernimmt der Sonic Visualiser bereits diese Aufgabe, indem er MIDI-Daten aus einem Sonogramm extrahiert. Damit stellt sich die weiterführende Frage, ob der Programmcode – ebenso wie die daraus gewonnenen MIDI- und OSC-Daten – als eine neue Form musikalischer Notation verstanden werden kann.
 
ob der Programmcode – ebenso wie die daraus gewonnenen MIDI- und OSC-Daten – als eine neue Form musikalischer Notation verstanden werden kann.
Wenn Du danach spielen kannst ... also ohne weitere Hilfsmittel ... :evil:

Und so neu wäre die dann gar nicht ...

Loops etc. sind in die elektronische Musik geflossen.
Gutes Stichwort. Wenn zB Jemand von einer Rhythmusmaschine abnudelt, und hier und da eine Handvoll Regler verdreht, kann man das kaum klassisch notieren. Im Grunde reicht da, wenn man's schriftlich festhalten oder überliefern will, eine chronologische Tabelle.
 
Wenn Du danach spielen kannst ... also ohne weitere Hilfsmittel ... :evil:

Und so neu wäre die dann gar nicht ...
Ich möchte das zunächst etwas erklären.
Ich bin Komiker und versuche, Musik zu gestalten – obwohl ich selbst kein Instrument spielen kann. Das überlasse ich lieber dem Computer, so wie Kornel Nakarow einst seinen Player-Pianos das Musizieren überließ.
Mir geht es dabei nicht darum, Musik selbst zu spielen. Vielmehr interessiert mich die Frage, wie sich der Gehalt einer elektronischen Komposition überhaupt festhalten lässt.

1751708253349.png
1751708298909.png
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Vielmehr interessiert mich die Frage, wie sich der Gehalt einer elektronischen Komposition überhaupt festhalten lässt.
Danke für Deinen Hintergrund.
Im Grunde dann: In der Form, wie Sie Dir am meisten nützt und am eingängigsten ist.

Ergänzungen:

1) So, die Line Riders, die meinte ich (hier gibt's mehr https://yewtu.be/search?q=classical+music+animation ) :


View: https://www.youtube.com/watch?v=RIz3klPET3o

2) Hier sind etwas unten im Thread einige Links: https://www.quora.com/What-are-ways-of-visualizing-music

3) Diese Ansätze erinnern eher an abstrakte Kunst ... wenn's Dir helfen sollte ...
 
Zuletzt bearbeitet:
Lieber MS-SPO
Hast du dazu vielleicht etwas Hintergrund Material. ( Links oder so etwas ).
 
Vielmehr interessiert mich die Frage, wie sich der Gehalt einer elektronischen Komposition überhaupt festhalten lässt.
Ich denke, das hängt von der Absicht der Komponisten ab.
Genaue Reproduktion "wie auf der Schallplatte" halte ich für einen Mythos, sobald Menschen und traditionelle Instrumente im Spiel sind. Jedenfalls kenne ich kein Werk, dass von verschiedenen Interpreten, Dirigenten und Ensembles mehrfach ganz genau gleich gespielt wird.
Daran schließt sich die Frage an, wie groß Variationen sein dürfen.

Das führt gerade bei der Neuen Musik zum Aspekt, inwiefern die "Reproduktion" eines Werks überhaupt durch vergleichbare Aufführungen angestrebt wird. Ein Grund für sehr unterschiedliche Aufführungen kann darin liegen, dass die Komposition ausdrücklich als Konzept oder Performance angelegt ist und daher eher "Verhaltensregeln" gegeben werden. Das wäre etwas völlig anderes als möglichst genaue musikalische Vorgaben im Sinn einer Standardnotation, die freilich immer noch Spielraum für die Interpretation durch die aufführenden Musiker lässt.

Digital erzeugte Musik kann durch Programmierung beschrieben und das Werk absolut genau gespeichert werden, falls das gewünscht wird.
Damit eröffnet sich ein umfassender Spielraum von (nahezu) absoluter Reproduktion bis (quasi-)zufallsgenerierten Ergebnissen. Die Variation kann sich dabei auf jeden ins Werk eingeführten Parameter beziehen.
Es bliebe dann - eigentlich wie immer - eine Frage der Fähigkeiten und genauen Arbeit des Komponisten, wie das Ergebnis im Sinne von Festhalten und Reproduzierbarkeit ausfällt.

Gruß Claus
 
Ich denke, das hängt von der Absicht der Komponisten ab.
Genaue Reproduktion "wie auf der Schallplatte" halte ich für einen Mythos, sobald Menschen und traditionelle Instrumente im Spiel sind. Jedenfalls kenne ich kein Werk, dass von verschiedenen Interpreten, Dirigenten und Ensembles mehrfach ganz genau gleich gespielt wird.
Daran schließt sich die Frage an, wie groß Variationen sein dürfen.




Eine zentrale Frage lautet: Was ist die Absicht des Komponisten?
Möchte er eine möglichst präzise Umsetzung seiner musikalischen Idee – eine exakte Reproduktion? Oder wünscht er sich bewusst Variationen, unterschiedliche Interpretationen durch verschiedene Aufführende? Letzteres ist etwa bei der Formelkomposition von Karlheinz Stockhausen der Fall, in der die Variabilität Teil des Konzepts ist.


Vollkommen identische Reproduktionen sind ohnehin kaum realisierbar.
Bereits technische Geräte wie Schallplattenspieler erzeugen durch kleinste Abweichungen unterschiedliche Klangergebnisse. Wenn dann auch noch menschliche Interpretinnen und Interpreten ins Spiel kommen, wird die Vielfalt der möglichen Versionen noch größer – und gerade das macht Aufführungen oft besonders faszinierend.


Tatsächlich ist eine perfekte Wiederholung meist gar nicht das Ziel.
Man spricht in diesem Zusammenhang häufig von der Atmosphäre einer Aufführung – einem situativen Moment, auf den die Ausführenden reagieren. Wäre jede Aufführung identisch, gäbe es kaum noch einen Grund, Konzerte zu besuchen. Stattdessen könnten wir Musik in Dolby Surround ausschließlich zu Hause konsumieren.


Variation ist also kein Mangel, sondern ein wesentliches gestalterisches Mittel.
Auch beim Komponieren am Computer lege ich großen Wert darauf, dass nicht jedes Mal dasselbe Ergebnis entsteht. Im Gegenteil: Ich bin der Überzeugung, dass ein Werk erst beim Hören – in der konkreten Situation des Rezipienten – vollendet wird. In diesem Sinne entsteht nicht ein einzelnes Werk, sondern eine Vielzahl individueller Versionen: ein multiples, offenes Kunstwerk.
Das führt gerade bei der Neuen Musik zum Aspekt, inwiefern die "Reproduktion" eines Werks überhaupt durch vergleichbare Aufführungen angestrebt wird. Ein Grund für sehr unterschiedliche Aufführungen kann darin liegen, dass die Komposition ausdrücklich als Konzept oder Performance angelegt ist und daher eher "Verhaltensregeln" gegeben werden. Das wäre etwas völlig anderes als möglichst genaue musikalische Vorgaben im Sinn einer Standardnotation, die freilich immer noch Spielraum für die Interpretation durch die aufführenden Musiker lässt.
Wie bereits erwähnt, steht in der modernen Musik häufig nicht mehr die klassische Form im Vordergrund, sondern die möglichst vielfältige Variation klanglicher Erlebnisse. In meinen eigenen Arbeiten verfolge ich das Ziel, lediglich die zugrunde liegenden Gesetzmäßigkeiten als äußeren Rahmen eines Werkes im Code festzulegen.
Das Spektrum dieser Codierung kann dabei von einfachen Anweisungen für menschliche Interpret*innen bis hin zu komplexen Algorithmen für Computer reichen. In diesem Sinne könnte der Code selbst zur Partitur der Moderne werden. Voraussetzung dafür wäre die Entwicklung einer allgemein verständlichen Pseudo-Programmiersprache, die gleichzeitig den Anforderungen urheberrechtlicher Institutionen wie der GEMA genügt.
Ein solcher Ansatz ließe sich auch als Weiterentwicklung der traditionellen Notenschrift verstehen. Da jedoch die zunehmende Präzision musikalischer Notation in diesem Fall durch algorithmische Offenheit ersetzt wird, vollzieht sich gewissermaßen eine Umkehr der Entwicklung. In der Konsequenz könnte sich – ähnlich wie in philosophischen Diskursen – ein Kreis schließen: Der Fortschritt führt zurück zu einem neuen Anfang.






Digital erzeugte Musik kann durch Programmierung beschrieben und das Werk absolut genau gespeichert werden, falls das gewünscht wird.
Damit eröffnet sich ein umfassender Spielraum von (nahezu) absoluter Reproduktion bis (quasi-)zufallsgenerierten Ergebnissen. Die Variation kann sich dabei auf jeden ins Werk eingeführten Parameter beziehen.
Es bliebe dann - eigentlich wie immer - eine Frage der Fähigkeiten und genauen Arbeit des Komponisten, wie das Ergebnis im Sinne von Festhalten und Reproduzierbarkeit ausfällt.
Wie bereits erwähnt, halte ich eine exakte Reproduktion technisch für unmöglich. Es gibt jedoch Kompositionen, die diese Unpräzision bewusst als musikalisches Gestaltungsmittel nutzen – zum Beispiel eine, in der hundert Metronome gleichzeitig ticken und durch ihre Ungenauigkeit eine polyrhythmische Struktur erzeugen.
Die Idee, Parameter bewusst zu verändern, finde ich sehr spannend. So erhält der Hörer Einfluss auf die Aufführung des Werkes und kann sein individuelles, multiples Werk aktiv mitgestalten. Dabei stellt sich allerdings die Frage, wie das Copyright mit dieser Flexibilität umgeht.
Was ich in diesem Zusammenhang besonders wichtig finde, ist, dass der moderne Komponist lernen sollte, nicht mehr ausschließlich in exakten Klängen zu denken, sondern vielmehr in den dahinterliegenden Systemen und Zusammenhängen – quasi in Code.




 
Man kann ja schon die Soundparameter in Verbindung mit dem Instrument sowie die gedrückten Tasten im zeitlichen Ablauf aufschreiben oder wohl besser elektronisch speichern. Wenn es um einmalige Sounds, wie einmalige Samples geht, ist man aber schon am Ende, wenn man nicht das Sample selbst in die "Aufzeichnung" aufnimmt. Relevant erscheint mir auch, welche Komplexität die Musik annimmt, da man z.B. den Song "Popcorn" problemlos notieren kann. Im Endeffekt landet man aber unter den Aspekten der Lesbarkeit und darauf beruhender Reproduzierbarkeit über kurz oder lang bei einfach der "Aufnahme" des Stückes für dessen Wiedergabe.

Meiner Meinung nach geht es bei ernster elektronischer Musik nicht um Musik, die durch andere 1:1 nachgespielt werden soll. Überhaupt hat, und das gilt jetzt wirklich nur für mich, sind 1:1 Life-Aufführungen elektronischer Musik nicht im Sinne der letzteren, weil man da halt einfach die elektronische Reproduktion oder Aufnahme ablaufen lassen kann. Ich habe JMJ ein paar Mal live gesehen/gehört und es war nie wie auf seinen Platten, sondern hatte immer Eventcharakter - teils gewollt (Stimmung bei der Veranstaltung sowohl der Musiker als auch des Publikums), teils ungewollt (der typischerweise abgeschmierte Memorymoog, ...). Ich bin auch noch nie über Veranstaltungen gestolpert, in denen es darum ging, das XYZ JMJ spielt.

Allenfalls spielt jemand Licks und Themen von bestimmten Stücken und wählt die Sounds nach seinen Maschinen und den Stimmungen von Künstlern und Publikum sowie vielleicht auch dem Event selbst.

Daher denke ich, dass in diesem Genre die Notation keine Rolle spielt - man mag gerne Gegenbeispiele bringen, wie eben "Covers" von solcher elektronischer Musik.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Man kann ja schon die Soundparameter in Verbindung mit dem Instrument sowie die gedrückten Tasten im zeitlichen Ablauf aufschreiben oder wohl besser elektronisch speichern.
In diesem Zusammenhang kann entweder das klassische MIDI-Format oder – moderner – das OSC-Format verwendet werden. Ich habe mich bereits intensiv mit den technischen Möglichkeiten auseinandergesetzt, die Systeme wie SuperCollider und Csound bieten. Besonders interessant ist bei Csound die Trennung zwischen der Klangprogrammierung und einer Art Partitur, die unabhängig davon erstellt und zur Interpretation des Klangs genutzt wird.
Wenn es um einmalige Sounds, wie einmalige Samples geht, ist man aber schon am Ende, wenn man nicht das Sample selbst in die "Aufzeichnung" aufnimmt
Technisch ist die exakte Wiedergabe eines Klangs äußerst schwierig. Gerade deshalb lebt Computermusik in gewisser Weise von diesem Problem – es wird sozusagen zu einem ‚Feature‘. Doch selbst der Versuch, Samples einzusetzen, bringt bestimmte Herausforderungen mit sich.“
Relevant erscheint mir auch, welche Komplexität die Musik annimmt, da man z.B. den Song "Popcorn" problemlos notieren kann
Das sehe ich genauso. Einige Musikwerke lassen sich ziemlich leicht reproduzieren. Ein gutes Beispiel dafür ist „Blue Monday“ von New Order. Interessanterweise wurde der Song „Popcorn“ auch in der Einführung eines der ersten kleinen Software-Synthesizer namens Rubber Duck verwendet.
Im Endeffekt landet man aber unter den Aspekten der Lesbarkeit und darauf beruhender Reproduzierbarkeit über kurz oder lang bei einfach der "Aufnahme" des Stückes für dessen Wiedergabe.
Gerade an dieser Stelle möchte ich Kritik üben: Obwohl die Technik der Musikwiedergabe heute sehr weit fortgeschritten ist, erfordert die heutige Zeit eine neue Betrachtung des Musikhörens. Es ist wichtig, dass sich der Hörer wieder mehr für das interessiert, was er tatsächlich hört. In diesem Zusammenhang wäre eine interaktive Musikdarbietung heute genauso notwendig wie das Farbfernsehen es damals war.
Meiner Meinung nach geht es bei ernster elektronischer Musik nicht um Musik, die durch andere 1:1 nachgespielt werden soll.
Genau das sehe ich auch so: In der modernen elektronischen Musik geht es oft darum, den Hörer stärker in den Prozess der Musikentstehung einzubeziehen. Dabei stellt sich jedoch die Frage, wie sich die Strukturen dieser interaktiven Musik am besten beschreiben lassen.
Überhaupt hat, und das gilt jetzt wirklich nur für mich, sind 1:1 Life-Aufführungen elektronischer Musik nicht im Sinne der letzteren, weil man da halt einfach die elektronische Reproduktion oder Aufnahme ablaufen lassen kann.
Ich finde, dass dies am Anfang der elektronischen Musik ein wichtiges Problem war: Was bedeutet es eigentlich, diese Musik aufzuführen – besonders im Hinblick auf die Aufführungspraxis? Welchen Sinn hat es, einfach nur eine Stereoanlage auf die Bühne zu stellen?
Ich habe JMJ ein paar Mal live gesehen/gehört und es war nie wie auf seinen Platten, sondern hatte immer Eventcharakter - teils gewollt (Stimmung bei der Veranstaltung sowohl der Musiker als auch des Publikums), teils ungewollt (der typischerweise abgeschmierte Memorymoog, ...). Ich bin auch noch nie über Veranstaltungen gestolpert, in denen es darum ging, das XYZ JMJ spielt.
Eine wichtige Frage lautet: Was ist das Wesen der musikalischen Aufführung in Zeiten der elektronischen Reproduzierbarkeit? Diese Frage hat, soweit ich weiß, schon Theodor Arnold gestellt. Doch angesichts der rasanten technischen Entwicklungen seit damals ist es an der Zeit, sie heute neu zu diskutieren.
Allenfalls spielt jemand Licks und Themen von bestimmten Stücken und wählt die Sounds nach seinen Maschinen und den Stimmungen von Künstlern und Publikum sowie vielleicht auch dem Event selbst.
Genau dies ist ein wesentlicher Aspekt der zuvor gestellten Frage nach dem Wesen der Aufführung: Könnte der Begriff des Musikwerks letztendlich überwunden werden, wenn der Hörer im Dialog mit der Maschine seine Musik selbst erzeugt?
Daher denke ich, dass in diesem Genre die Notation keine Rolle spielt - man mag gerne Gegenbeispiele bringen, wie eben "Covers" von solcher elektronischer Musik.
Oder man überdenkt den Begriff der Notation komplett neu.
 
Was ich in diesem Zusammenhang besonders wichtig finde, ist, dass der moderne Komponist lernen sollte, nicht mehr ausschließlich in exakten Klängen zu denken, sondern vielmehr in den dahinterliegenden Systemen und Zusammenhängen – quasi in Code.
Naja, eigentlich ist es ein Merkmal innovativ-relevanter Kunst, Grenzen zu erweitern oder gar zu sprengen.
Die Ära der akademischen oder kanonischen Kunstausübung ging schon vor 150 Jahren zu Ende.
Da kann ich mir kaum vorstellen, dass Überlegungen und Forderungen an die Künstler wie deine heutzutage noch normative Kraft entwickeln können.

Gruß Claus
 
  • Gefällt mir
Reaktionen: 1 Benutzer
@ComputerArtist_ThL : Vielen Dank für die detaillierte Befassung mit meinen Darstellungen. Ich finde damit bestätigt, dass alles Ansichtssache ist und relativ zu verschiedenen Aspekten zu betrachten ist. Das macht damit aber auch das Thema Notation jedenfalls bei elektronischer E-Musik zu einer individuellen Angelegenheit und ist mit der klassischen und streng geregelten Notation nicht mehr zu bewältigen.

Nur als "kleine" Anmerkung zu
In diesem Zusammenhang kann entweder das klassische MIDI-Format oder – moderner – das OSC-Format verwendet werden. Ich habe mich bereits intensiv mit den technischen Möglichkeiten auseinandergesetzt, die Systeme wie SuperCollider und Csound bieten. Besonders interessant ist bei Csound die Trennung zwischen der Klangprogrammierung und einer Art Partitur, die unabhängig davon erstellt und zur Interpretation des Klangs genutzt wird.
Die Schwachstelle von gespeicherten Midi-Daten oder was auch immer ist meine "Einschränkung" durch "in Verbindung mit dem Instrument". Ein Prophet XY wird die für einen Memorymoog gespeicherten Soundeinstellungen ja eben anders interpretieren und dieselben Daten erzeugen dann eben nicht in den beiden Maschinen dieselben Sounds.

Und, wenn ich tatsächlich die Midi-Daten samt Notenabfolge in dieselbe Maschine eingebe, für die sie erstellt wurden, wo ist da noch der Unterschied zu einer reinen Audioaufnahme, die ich abspiele?

Tangerine Dream und auch Froese solo, um nur Beispiele zu nennen, gaben ja Life-Konzerte. Aber diese Darbietungen waren eben gerade nicht 1:1 Wiedergaben der Studioaufnahmen und sollten es auch nicht sein, sondern nutzten eben nur musikalische Themen der Studioaufnahmen.

Etwas anders betrachten könnte man vielleicht z.B. ELP, deren instrumentale Stücke ja schon gecovert werden und ich durchaus auch als elektronische E-Musik bezeichnen würde. Was die in den Covers verwendeten Sounds anbelangt, so möchte ich da halt auch nur von Ähnlichkeiten auf Basis von Hörensagen sprechen. Auch ELP selbst (also konkret Emerson) verwendete nicht immer exakt dieselben Klänge. JMJ hab ich ja schon angesprochen.

Dann fallen mir noch einige vor allem japanische Synthesizer-Künstler ab Mitte der 70er bis Ende der 80er ein, von denen einige Life-Events mit komplexer elektronischer Musik gaben. Aus meiner Erinnerung gab es da auch welche, die live tatsächlich ihre teils komplexen Anlagen zumindest soundmäßig komplett per Midi steuerten und halt zur Show ein paar Tasten drückten (aber trotzdem teilweise phänomenale Musik machten). Die erforderlichen Sounds als Favoriten zu speichern und durch was auch immer im Verlauf der Darbietung durchzusteppen war natürlich mit dem Aufkommen der Speichermöglichkeiten normal, gehört aber für mich überhaupt nicht zur Thematik Notation, sondern ist einfach das Weglegen eines Instruments (Sounds) und Nehmen eines anderen Instruments (Sounds). Das letztere ist seit Digitaltechnik ohnehin Standard, wobei ich jetzt nicht die klassischen "Alleinunterhalter" meine, sondern so Leute wie z.B. Schiller aka Christopher von Deylen.

Und, letztlich, welcher Musiker dreht schon noch live während des Spielens an seinen Soundeinstellungen (die ja meistens nur noch über tiefe Menüs bearbeitbar sind), wie Wellenformen, Filtern, Envelopes, ... Deshalb mag ich Maschinen mit einer gehörigen Anzahl von Drehknöpfen so gerne ;)

PS: Sorry, wenn ich vielleicht etwas in historischen Ansätzen verhaftet bin, aber Du bist ja selbst auch mit Stockhausen und dergleichen gestartet.
 
Zuletzt bearbeitet:
Naja, eigentlich ist es ein Merkmal innovativ-relevanter Kunst, Grenzen zu erweitern oder gar zu sprengen.
Ich beobachte besonders in der Kunst eine starke Tendenz, immer wieder Neues und noch nie Dagewesenes zu schaffen. Mich selbst fasziniert dabei vor allem die Avantgarde.
Die Ära der akademischen oder kanonischen Kunstausübung ging schon vor 150 Jahren zu Ende.
Verstehe ich das richtig: Heutzutage benötigt man keine formale Ausbildung mehr, um Komponist zu werden? Wenn das so ist, freut mich das sehr – dann habe ich noch die Chance, Komponist zu werden.
Da kann ich mir kaum vorstellen, dass Überlegungen und Forderungen an die Künstler wie deine heutzutage noch normative Kraft entwickeln können.
Ich glaube nicht, dass diese Ideen wirklich neu sind. Vielmehr sind sie nur noch nicht im Alltag angekommen. Noch immer hält man am traditionellen Bild des Komponisten fest. Wie der Musikunterricht heute gestaltet ist, weiß ich nicht, da ich leider selbst keinen Musikunterricht hatte.
Vielen Dank für die detaillierte Befassung mit meinen Darstellungen. Ich finde damit bestätigt, dass alles Ansichtssache ist und relativ zu verschiedenen Aspekten zu betrachten ist.
Habe ich den Sinn deiner Darstellungen wirklich verstanden? Es würde mich freuen, wenn ich allmählich ein besseres musikalisches Verständnis entwickeln könnte. Gerade in der Kunst ist ja alles Ansichtssache, und das kann ich nur bestätigen.
Das macht damit aber auch das Thema Notation jedenfalls bei elektronischer E-Musik zu einer individuellen Angelegenheit und ist mit der klassischen und streng geregelten Notation nicht mehr zu bewältigen.

Die Schwachstelle von gespeicherten Midi-Daten oder was auch immer ist meine "Einschränkung" durch "in Verbindung mit dem Instrument". Ein Prophet XY wird die für einen Memorymoog gespeicherten Soundeinstellungen ja eben anders interpretieren und dieselben Daten erzeugen dann eben nicht in den beiden Maschinen dieselben Sounds.

Und, wenn ich tatsächlich die Midi-Daten samt Notenabfolge in dieselbe Maschine eingebe, für die sie erstellt wurden, wo ist da noch der Unterschied zu einer reinen Audioaufnahme, die ich abspiele?

Tangerine Dream und auch Froese solo, um nur Beispiele zu nennen, gaben ja Life-Konzerte. Aber diese Darbietungen waren eben gerade nicht 1:1 Wiedergaben der Studioaufnahmen und sollten es auch nicht sein, sondern nutzten eben nur musikalische Themen der Studioaufnahmen.

Etwas anders betrachten könnte man vielleicht z.B. ELP, deren instrumentale Stücke ja schon gecovert werden und ich durchaus auch als elektronische E-Musik bezeichnen würde

Was die in den Covers verwendeten Sounds anbelangt, so möchte ich da halt auch nur von Ähnlichkeiten auf Basis von Hörensagen sprechen. Auch ELP selbst (also konkret Emerson) verwendete nicht immer exakt dieselben Klänge. JMJ hab ich ja schon angesprochen.

Dann fallen mir noch einige vor allem japanische Synthesizer-Künstler ab Mitte der 70er bis Ende der 80er ein, von denen einige Life-Events mit komplexer elektronischer Musik gaben.

Aus meiner Erinnerung gab es da auch welche, die live tatsächlich ihre teils komplexen Anlagen zumindest soundmäßig komplett per Midi steuerten und halt zur Show ein paar Tasten drückten (aber trotzdem teilweise phänomenale Musik machten).

Die erforderlichen Sounds als Favoriten zu speichern und durch was auch immer im Verlauf der Darbietung durchzusteppen war natürlich mit dem Aufkommen der Speichermöglichkeiten normal, gehört aber für mich überhaupt nicht zur Thematik Notation,

Die erforderlichen Sounds als Favoriten zu speichern und durch was auch immer im Verlauf der Darbietung durchzusteppen war natürlich mit dem Aufkommen der Speichermöglichkeiten normal, gehört aber für mich überhaupt nicht zur Thematik Notation, sondern ist einfach das Weglegen eines Instruments (Sounds) und Nehmen eines anderen Instruments (Sounds).

Das letztere ist seit Digitaltechnik ohnehin Standard, wobei ich jetzt nicht die klassischen "Alleinunterhalter" meine, sondern so Leute wie z.B. Schiller aka Christopher von Deylen.

Und, letztlich, welcher Musiker dreht schon noch live während des Spielens an seinen Soundeinstellungen (die ja meistens nur noch über tiefe Menüs bearbeitbar sind), wie Wellenformen, Filtern, Envelopes, ... Deshalb mag ich Maschinen mit einer gehörigen Anzahl von Drehknöpfen so gerne
 
Verstehe ich das richtig: Heutzutage benötigt man keine formale Ausbildung mehr, um Komponist zu werden?
Nein, Du kannst jederzeit als Komponist arbeiten, einschlägige Verträge schließen, eine GEMA-Anmeldung nach deren Bedingungen vornehmen und Millionen scheffeln wie einst Frank Fahrian (Koch) oder immer noch Dieter Bohlen (Diplomkaufmann).
Mein Liebling ist allerdings eher Charles Ives, kein ganz so eindeutiger Berufsschwänzer. Ives hatte ein Musikstudium, betrieb die Musik dann aber als (ernsthafte) Nebenbeschäftigung und war im Hauptberuf erfolgreicher Versicherungsunternehmer.
Charles Ives, The Unanswered Question. Andrés Orozco-Estrada mit dem hr-Sinfonieorchester

Im Gegensatz zu vielen anderen Tätigkeiten ist für einen Komponisten keine Ausbildung vorgeschrieben, keine Gewerbeanmeldung und schon gar keine Gewerbeerlaubnis notwendig.'
Im Fall von Einnahmen gelten natürlich die steuerrechtlichen Vorschriften und bei Bezug öffentlicher Hilfen die Mitteilungspflicht.

Gruß Claus
 
Guten Abend,

spannend. In meiner "aktiv(-er-)en" Zeit hatte ich ein ähnliches, vielleicht vergleichbares Hobby-Projekt, dass aber Reproduzierbarkeit nicht verdammt oder infragestellt, sondern feiert. Andere fanden für meine Hörbeispiele gern wenig schmeichelhafte Attribute für mechanisch oder tot, das hat mich angesichts des Aufwands, den ich trieb, zuweilen bis auf die Ebene von Einzelnoten, schon etwas geknickt. So tot fand ich selber nicht, was ich produzierte! *Flunschzieh* ;-) Ohren, die immer wieder das selbe falsche hören, gewöhnen sich leicht daran. Das ist tückisch.

In dem Projekt ging es um eine textförmige Sprache/Notation, die die Beschränkungen des MIDI-Protokolls überwindet, da es für bestimmte Zwecke geeignet erscheint, kam es ja aus dem Wunsch nach maschineller Interoperabilität statt nach Notation. Zu den Anlässen mich damit zu beschäftigen, wie du Dinge neu zu denken, gehörte:
  • dass SonicPi/SoundCollider/TidalCycles/u.a. lästigerweise an eine grafische Benutzoberfläche gebunden waren, "Klickibunti", dachte ich vielleicht etwas überheblich, mir nicht nüchtern funktional und kryptisch genug, um mich abzugrenzen, wofür zudem mein RaspberryPi zu langsam war.
  • Und, dass ich ein Projekt suchte, Python zu lernen.
  • "Fertige" Musik aus Notenbüchern zu übersetzen, zu reproduzieren (und dabei zu "interpretieren", allerdings s.u.), sollte mir mehr Spaß machen als Beispiel-Quelltexte für Python irgendwo herunterzuladen, abzutippen und zur Ausführung zu bringen.

Meine Fragestellung war, wie sich die Klangdomäne und die Tondomäne notationstechnisch, sprachlich, d.h. syntaktisch-semantisch unter einen Hut bringen lässt.

Die Klangdomäne umfasst das gesamte Spektrum zwischen Sinuston und Rauschen. Menschliche Sprache, da zu kompliziert, außen vor gelassen, aber Tierstimmen sind durchaus drin, sogar Sturmgewehrsalven, das mir selber so sehr Angst gemacht hatte, sich derart echt anhörte, dass ich Notat und Rendering umgehend gelöscht hatte. Die Domäne umfasst Stimmen, Instrumente, Spielweisen, Artikulation, aber sogar (sowas wie) Raumhall, denn der gehört mit zur Akustik. Die Klangdomäne stellt grob das dar, was am Synthesizer einstellbar ist, bevor der Mensch an den Tasten die erste Taste drückt.

Die Tondimension der Musik ist die Melodie, Harmonie, Rhythmus, Tempo, Dynamik. Die Tondomäne stellt mehr oder weniger das da, was Notenstecher üblicherweise aufs Papier bringen. bestimmte Dinge auch hier ausgenommen, dafür anderes expliziter: "Sfz." gibts nicht, aber genaue Betonungsangaben auf der dBFS-Skala. Legatobögen ebenso wenig, aber stative relative Tonkürzungen-/verlängerungen. Rallentando etc. machten Tempogradientennotation Platz, und so weiter. Jeder Beat kann tempodynamisch gestaltet werden, wenn man sich diese Mühe machen will. Swing und so weiter, so Feinheiten wurden machbar, obwohl ich an den Tasten Mühe hätte nach Metronom zu spielen.

Wie lässt sich nun beides in anderthalb Sprachen ausdrücken? Das war die Frage, die sich mir stellte. Anderthalb, weil sich Pi mal Fensterkreuz ein Drittel davon der Klangdimension widmet, ein Drittel der Tondimension allein, und ein Drittel beides miteinander verknüpft, das ist der Teil, der zu beiden Domänen zugleich gehört.


Oder man überdenkt den Begriff der Notation komplett neu.
Ich finde, man muss das eh trennen. Notation ist nicht Musik, genauer, Notation ist nicht mit Interpretation/Artikulation zu verwechseln. Lässt du, lasse ich fixierte Notation von einer Software rendern, direkt in eine Audiodatei oder in den Audioausgabe-Buffer zum "einmaligen" Playback (ab dem Signal im DA-Wandler ist das eh gleich), dann ist das in Kenntnis des Verfahrens keine Musik, die Musen sind außen vor. Der Notationsaufwand, der nötig ist, um Interpretation zu "faken", steigt ins exorbitant-absurde und endet nur falsch für die Ohren, da man sowas wie ein Musikstudium gebraucht hätte. Dann doch lieber damit leben, dass sich das im Grunde doch alles mechanisch anhört. Da half es auch nicht, die reine Stimmung anzuwenden, um Absoluthörer in die Flucht zu schlagen. Aber reine Stimmung bei Stücken fürs wohl oder gleichstufig temperierte Klavier, das lehrt einiges über Stimmung und Harmonie, denn da muss man alle naslang die Stimmung dran anpassen. So Späße sind dann drin.

Das mag man anders sehen, aber ich nenne es lieber Audiorendering, allenfalls dann "Neusik", wenn man wirklich sich erdreistet konventionelle Noten so zu realisieren. Eigentlich Nerdmusik, aber erstens hab ich das -rdm- für eine Abkürzung zweckentfremdet und zweitens brauchte ich ne Domain, die noch nicht vergeben war, und drittens steht dem Nerd eine gewisse Blasiertheit zu, was Neuheit betrifft, und viertens soll das noisige irgendwie selbstironisch rüberkommen.

Interpretation ist ohne Mensch hinter den Noten nicht denkbar. Auch eine K.I. interpretiert nicht, sie tut nur so. Egal. Echtes Interpretieren, dazu brauchts instrumentenkundige Musiker. Aus dem Grund verzichte ich hier zunächst aufs Posten von Beispielen, um nicht unnötig etwaigen Berufsdünkel / Fremdscham / von dieser Diskussion wegführende Fehlerhinweise zu provozieren.

Ist fürs Thema auch egal. Worauf ich hinauswill: Die Trennung und anschließende geordnete Verbindung von Klang- und Tondomäne würde ich sehr empfehlen als Ansatz für ähnliche Projekte. Und vergiss Echtzeit, das macht alles nur unnötig kompliziert, nur um Musikern zu gefallen, die so Projekte eh nicht brauchen. Wer aus maschinenlesbarer Notation Renderings erzeugen will, muss warten können. Oder Meditieren, Kaffeekochen, Wäsche aufhängen, was weiß ich.
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben