Notation von elektronischer Musik

Und wie kann ich sicherstellen, dass andere verstehen, dass ich ein Laien-Komponist bin?
Indem Du es bei passender Gelegenheit erwähnst. Ohne Vermarktungsabsicht brauchst Du natürlich auch keine GEMA.
Darf ich mir ein Mittagessen spendieren lassen, ohne es steuerlich anzugeben? ,-))
Rechtliche Fragen dürfen konkret nur von Menschen behandelt werden, die dazu berechtigt sind, z.B. Rechtsanwälte oder zu deiner Frage z.B. Steuerberater.
Aus meiner praktischen Erfahrung als jahrzehntelang selbständiger Kaufmann kann ich sagen, dass man natürlich zum Mittagessen einladen oder eingeladen werden kann, das ist zunächst reine Privatsache.
Besteht für das Mittagessen ein geschäftlicher Anlass, dann wird aus der Rechnung eine zur "Bewirtung", die sich bei der Steuerberechnung berücksichtigen lässt. In diesem Fall muss der Name des/der Eingeladenen auf der Rechnung angegeben werden und die geschäftliche Veranlassung sollte im Fall einer Prüfung des Finanzamts plausibel sein.

Genau, deshalb möchte ich nach einer zeitgemäßen Form der Notation und Partitur fragen.
Standardnotation ist zeitgemäß und erweiterbar, Partitur ist nur die konkrete Erscheinungsform davon.
Verlässt man den Rahmen der Konventionen, dann sollte man halt ein ausreichendes kompositorisches Handwerkszeug und Wissen haben, damit alternative Notationsformen verstanden werden können.
Elektronische bzw. am Computer erzeugte Musik braucht keine "Notation", schließlich gibt es die Speicherformate der Datenverarbeitung ebenso wie den beliebigen Datenabruf.

Was wahrscheinlich nicht funktioniert: mächtig hohe Ansprüche, die nur im Kopf entwickelt werden, obwohl man selbst nicht weiß, wie sie sich verwirklichen lassen.

Gruß Claus
 
Grund: Recthschreibung, letzten Satz umformuliert.
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Es ist für mich wichtig, den Ton als eine Menge von Frequenzen zu betrachten, insbesondere im Hinblick auf den letzten Punkt, bei dem ich die Unterscheidung zum Instrument hinterfragt habe – dabei spielen auch die Amplituden dieser Frequenzen eine Rolle.
Das ist nach gängiger Lehrmeinung (ich hoffe, ich lieg nicht falsch, das hatte mich auch ziemlich beschäftigt) eben der Klang. In der Musik wird der "Ton" als Symbol für den Klang verwendet, vom physikalischen Ton abstrahiert. Aber wer soll im Detail das noch verstehen, wenn man sagt, dass ein Dreiklang aus drei Tönen bestehen soll. Jedenfalls, nach meinem Verständnis ist der Ton Bestandteil von Musik, während der Klang der Akkustik zugehörig, Konglomerat von sinusförmigen Einzelschwingungen ist, die kaum bis mäßig abhängig voneinander an- und abschwellen. Die Note symbolisiert wiederum einen Ton auf dem Papier. In der Linguistik verhält es sich genauso zwischen Graphem und Phonem und zwischen phonemisch und phonetisch. Letzteres bezieht sich auf die Realisierung eines Phonems bei einem bestimmten Sprecher auf einem bestimmten Medium. Beispiel: Bei alten Telephonen gab es einen zu geringen phonetischen Unterschied zwischen /f/ und /s/; dass es sich an einer bestimmten Stelle um das Phonem <f> handelt, musste sich aus dem Kontext ergeben. Darum erfand man Buchstabieralphabete, die Verwechselungsgefahr mit Redundanz ausschließen. Zusammenfassend: Graphem - Note, Phonem - Ton, Phon - Klang.

Was mich dabei beschäftigt, ist die Frage, warum wir stets vom Instrument selbst ausgehen und nicht von einem Kontinuum von Tönen – etwa von reinen Sinustönen. Warum betrachten wir den Klang des Instruments immer als eine einzelne, abgeschlossene Einheit (Monade), anstatt ihn als Teil eines kontinuierlichen Spektrums von Tönen zu sehen?
Wenn du mir die Worte im Munde umdrehst, ist kein Wunder, wenn es im Nachgang Verständnisprobleme gibt; weil das für die Tondomäne nicht relevant ist, sondern für die Klangdomäne. Da es bei einer Drone keine Tondomäne gibt, besteht sie nur aus Klang. Umgekehrt, dies ist das andere Extrem, ist in der klassischen Musik die Klangdomäne überwiegend die von Instrumentenbauer und die des Instrumentenunterrichts. In einer Orchesteraufführung interessiert nur, dass eine Stimme sich adäquat im Rahmen der Möglichkeiten des Instruments und der musikalischen Sinnhaftigkeit optimal artikuliert.
Ein gutes Beispiel dafür sind die Player-Piano-Kompositionen von Kornell Nankarow
Conlon Nancarrow, so heißt der Mensch richtig, inspiriert mich sehr, für mich war er ein Vertreter der "Neusik" vor Geburt meinereiner, des Begriffsprägers. Er hatte sich viel mit krummer Polymetrik beschäftigt. Dessen Kompositionen würden mich an die Grenze dessen bringen, was meine Sprache zu leisten vermag.

Elektronische bzw. am Computer erzeugte Musik braucht keine "Notation", schließlich gibt es die Speicherformate der Datenverarbeitung ebenso wie den beliebigen Datenabruf.
Die Probleme mit MIDI und die der Bearbeitungen von Audiosamples sind derart zahlreich, dass es nicht allzu sehr überraschen sollte, dass es Lilypond, ABC, MusicXML, Csound etc. gibt und eine Handvoll Nerds, die sich um Notation von elektronischer Musik verdient machen. Oder zumindest Kümmern. Ich für meinen Teil freue mich, dass es Mitstreiter auf dem Gebiet gibt.
 
Grund: Typo
Zuletzt bearbeitet:
Heutzutage benötigt man keine formale Ausbildung mehr, um Komponist zu werden?
Hat man noch nie gebraucht. Das einzige was man können muss ist, Musik zu schreiben.
kenne ich die Gruppen ELP und JMU leider nicht
leider? Wenn du leider sagst, warum änderst du es dann nicht? Es gibt da seit neuestem in geiles Tool namnes Internet, da kann man Sachen kennen lernen die man nicht kennt
Wie kann ich mich als absoluter Laie von professionellen Komponisten abgrenzen? Liegt der Unterschied nur darin, wie viel man mit dem Komponieren verdient und wie bekannt man ist? Und wie kann ich sicherstellen, dass andere verstehen, dass ich ein Laien-Komponist bin?
Was der Unterschied ist kann du in diesem und anderen Foren in hunderten von Threads versuchen rauszukriegen. Warum müssen andere das verstehen? Wenn ihnen deine Musik gefällt werden sie sie anhören, wenn nicht, dann nicht. Dass Philip Glass vom Taxifahren gelebt hat ändert an seiner Musik nichts (oder vielleicht doch? Da hat sicher jemand mal eine Doktorarbeit drüber geschrieben).
Du hast es leider bisher konsequent vermieden, uns deine Musik vorzustellen, aber ich gehe mal davon aus, dass sie eher für einen eingeschränkten Hörerkreis geeignet ist.
und nicht von einem Kontinuum von Tönen – etwa von reinen Sinustönen.
Man könnte eine Beethoven Sinfonie durchaus in ihrer Fourier-Zerlegung als Sinustöne darstellen, ich stelle mir das aber für praktische Zwecke als eher unhandlich vor.
 
Interpretation ist ohne Mensch hinter den Noten nicht denkbar. Auch eine K.I. interpretiert nicht, sie tut nur so. Egal. Echtes Interpretieren, dazu brauchts instrumentenkundige Musiker
Eigentlich möchte ich das nicht einfach so infrage stellen, aber ich finde, man sollte heute darüber nachdenken, ob es neben dem Menschen noch andere Formen von Intelligenz geben könnte. Diese könnten möglicherweise ihre eigene Art von Musik erschaffen. In diesem Zusammenhang wäre der Computer ein besonders interessantes Studienobjekt.
Die Trennung und anschließende geordnete Verbindung von Klang- und Tondomäne würde ich sehr empfehlen als Ansatz für ähnliche Projekte.
Auch ich halte die Trennung und anschließende Rückverbindung für einen guten Ansatz, um das Problem zu lösen. Ein ähnliches Konzept ist bereits in Csound umgesetzt, und in gewisser Weise ist es auch in SuperCollider mit der Trennung von Frontend und Backend vorbereitet beziehungsweise angedacht.
Und vergiss Echtzeit, das macht alles nur unnötig kompliziert, nur um Musikern zu gefallen, die so Projekte eh nicht brauchen
Im Grunde hast du recht: Echtzeit wäre nur dann nötig, wenn man dem Hörer einen interaktiven Zugang zum Musikhören bieten möchte. Ansonsten ist sie überflüssig, da die Musik auch später noch gehört werden kann.
Wer aus maschinenlesbarer Notation Renderings erzeugen will, muss warten können. Oder Meditieren, Kaffeekochen, Wäsche aufhängen, was weiß ich.
Das würde ich heute nicht mehr unbedingt so sagen. Die Entwicklung immer leistungsfähigerer Computer schreitet unglaublich schnell voran. Es gibt den Spruch, dass ein heute gekaufter Computer schon morgen technisch veraltet sein kann. Was ich damit ausdrücken möchte, ist: Was gestern noch unmöglich war, ist morgen oft schon technisch machbar. Trotzdem befinden wir uns immer irgendwo dazwischen.
 
Problem der Stimmungsanpassung
Bei einer reinen Stimmung hast du Probleme wenn du in eine andere Tonart willst, bei einer temperierten Stimmung hast du in jeder Tonart Probleme, aber dafür kleinere. Bei Instrumenten die das erlauben (also zB Blas- und Streichinstrumente) umgeht man das damit, dass der Instrumentalist entsprechend intoniert, dann passt das wieder, bei Klavier etc mit festgelegten Tonhönen muss man damit leben, was ich abern icht als Problem empfinde.

Ein ähnliches Konzept ist bereits in Csound umgesetzt,
Negativ formuliert: Csound klebt noch am alten Konzept der Trennung zwischen Partitur und Instrument.
 
Das ist nach gängiger Lehrmeinung (ich hoffe, ich lieg nicht falsch, das hatte mich auch ziemlich beschäftigt) eben der Klang. In der Musik wird der "Ton" als Symbol für den Klang verwendet, vom physikalischen Ton abstrahiert.
Genau darin liegt der Unterschied zwischen Musik und Akustik – und gerade dieser Unterschied führt in der elektronischen Musik zu besonderen Herausforderungen. Denn der Künstler muss hier in der Schnittmenge zwischen beiden Bereichen arbeiten.
Klang ist stets eine Zusammensetzung aus Sinustönen. Gerade deshalb entstand bei Künstlern wie Karlheinz Stockhausen die Hoffnung, mithilfe der Erzeugung von Sinustongemischen jeden gewünschten Klang erzeugen zu können. Dieses Verfahren scheiterte jedoch letztlich am hohen Aufwand.
Aber wer soll im Detail das noch verstehen, wenn man sagt, dass ein Dreiklang aus drei Tönen bestehen soll.
Genau genommen haben wir es hier schon beim Klang selbst mit Mehrklängen aus Sinustönen zu tun. Doch was unterscheidet diese eigentlich von musikalischen Mehrklängen? Meiner Meinung nach liegt der Unterschied darin, dass bei traditionellen Instrumenten der Sinuston-Akkord – also die Klangfarbe und die Stimmen des Instruments – festgelegt sind. Dagegen lässt sich der musikalische Mehrklang oft flexibler variieren. In der modernen elektronischen Musik scheint diese Grenze jedoch immer mehr zu verschwimmen.
Jedenfalls, nach meinem Verständnis ist der Ton Bestandteil von Musik, während der Klang der Akkustik zugehörig,
Wie bereits erwähnt, mag diese Trennung in der traditionellen Musik funktionieren, doch in der elektronischen Musik führt sie gerade zu Problemen, wie ich weiter oben bereits erläutert habe.
Konglomerat von sinusförmigen Einzelschwingungen ist, die kaum bis mäßig abhängig voneinander an- und abschwellen.
Genau das ist Musik und damit gestaltete Zeit aus Sicht der elektronischen Musik – dem elektronischen Komponisten bleibt die Aufgabe, diese Beziehungen im Programmcode zu bestimmen. Und das Programm sollte einen musikalischen Weg durch diese Regeln finden.
Die Note symbolisiert wiederum einen Ton auf dem Papier. In der Linguistik verhält es sich genauso zwischen Graphem und Phonem und zwischen phonemisch und phonetisch.
Das stimmt – auch aus meiner Sicht. Die Partitur ist im Grunde eine grafische Abstraktion eines akustischen Geschehens. Was die weiteren Eigenschaften der Partitur angeht, möchte ich an das Lesen grafischer Partituren mit dem Auge erinnern.
Letzteres bezieht sich auf die Realisierung eines Phonems bei einem bestimmten Sprecher auf einem bestimmten Medium
Dieser Prozess entspricht der Umsetzung von Musik – von ihrer abstrakten Form hin zu einem realen akustischen Ereignis.
Was ich ganz vergessen habe: Die graphische Notation verhält sich zu diesem Ereignis ungefähr so, wie ein Roman zur Inszenierung eines Theaterstücks.
Beispiel: Bei alten Telephonen gab es einen zu geringen phonetischen Unterschied zwischen /f/ und /s/; dass es sich an einer bestimmten Stelle um das Phonem <f> handelt, musste sich aus dem Kontext ergeben.
ch würde das mit den technischen Schwierigkeiten bei Musikaufführungen vergleichen. So waren zum Beispiel die ersten Schallplatten noch sehr verrauscht. Heute bietet die CD dafür eigentlich eine perfekte Lösung.
Darum erfand man Buchstabieralphabete, die Verwechselungsgefahr mit Redundanz ausschließen. Zusammenfassend: Graphem - Note, Phonem - Ton, Phon - Klang.
Eine gute Zusammenfassung. Am meisten interessiert mich jedoch die Frage, was passieren würde, wenn das Instrument seinen statischen Klang überwinden könnte und sich die Klangfarbe im Werk dynamisch verändern würde.
Beitrag automatisch zusammengefügt:

Wenn du mir die Worte im Munde umdrehst, ist kein Wunder, wenn es im Nachgang Verständnisprobleme gibt; weil das für die Tondomäne nicht relevant ist, sondern für die Klangdomäne
Entschuldigung – ich werde in Zukunft genauer darauf achten, deine Aussagen richtig zu verstehen.
Die Begriffe Tondomäne und Klangdomäne finde ich allerdings etwas verwirrend – vielleicht könntest du mir den Unterschied noch einmal erklären?
Es tut mir leid, wenn es so wirkt, als ob ich nicht aufmerksam wäre. Das ist nicht meine Absicht, und ich werde in Zukunft besser aufpassen.
Da es bei einer Drone keine Tondomäne gibt, besteht sie nur aus Klang.
Wie bereits erwähnt, bin ich etwas verwirrt über deinen Gebrauch der Begriffe. Ich war bisher der Meinung, dass ‚Klang‘ das Zusammengesetzte bezeichnet, während ‚Ton‘ für das Einzelne steht.
Umgekehrt, dies ist das andere Extrem, ist in der klassischen Musik die Klangdomäne überwiegend die von Instrumentenbauer und die des Instrumentenunterrichts.
Meiner Beobachtung nach liegt der Fokus in der Musiktheorie vor allem auf Harmonie und Kontrapunkt, während Aspekte wie Rhythmus oder Klangfarbe der Instrumente kaum Beachtung finden. Der Unterricht konzentriert sich nahezu ausschließlich auf diese beiden theoretischen Bereiche. Wenn Klangfarben thematisiert werden, geschieht dies meist nur am Rande – etwa im Zusammenhang mit der Geschichte der Instrumentenentwicklung. Auch in der Harmonielehre bleibt häufig unberücksichtigt, mit welcher Lautstärke oder Ausdruckskraft Töne gespielt werden.
In einer Orchesteraufführung interessiert nur, dass eine Stimme sich adäquat im Rahmen der Möglichkeiten des Instruments und der musikalischen Sinnhaftigkeit optimal artikuliert.
Der Einsatz der Instrumente stellt wirklich ein Problem dar, und ich konnte bislang kein geeignetes Buch zum Thema Orchestrierung finden. Dabei ist Orchestrierung heute von großer Bedeutung. Zumindest lassen sich Ideen von der Orgel auf den Synthesizer übertragen.
Conlon Nancarrow, so heißt der Mensch richtig, inspiriert mich sehr, für mich war er ein Vertreter der "Neusik" vor Geburt meinereiner, des Begriffsprägers.
Noch einmal Entschuldigung – ich war mir nicht mehr ganz sicher, wie dieser Name geschrieben wird. Vielen Dank, dass du ihn korrigiert hast. Ich freue mich außerdem, vielleicht jemanden gefunden zu haben, der sich ebenfalls für diese Musik begeistern kann. Nochmals vielen Dank!“
Er hatte sich viel mit krummer Polymetrik beschäftigt. Dessen Kompositionen würden mich an die Grenze dessen bringen, was meine Sprache zu leisten vermag.
Er hat intensiv mit Polymetrik gearbeitet – so komplex, dass seine Werke schließlich nur noch von Maschinen gespielt werden konnten, weil menschliche Musiker an ihre Grenzen stießen. Dadurch wird auch das verstehende Hören schnell herausgefordert. Könntest du etwas genauer erläutern, warum gerade hier deine Sprache an ihre Grenzen stößt?
Die Probleme mit MIDI und die der Bearbeitungen von Audiosamples sind derart zahlreich, dass es nicht allzu sehr überraschen sollte, dass es Lilypond, ABC, MusicXML, Csound etc. gibt und eine Handvoll Nerds, die sich um Notation von elektronischer Musik verdient machen.
Wie bereits erwähnt, suche ich den Austausch mit Menschen, die ähnliche Interessen haben. Mit Programmen wie LilyPond und Csound bin ich vertraut und beschäftige mich hobbymäßig regelmäßig damit. Vor diesem Hintergrund stellt sich für mich die Frage, was nach dem Open Sound Control (OSC) Protokoll kommt, das MIDI bereits in vielen Bereichen abgelöst hat. In diesem Zusammenhang möchte ich auch auf das Programm IanniX hinweisen, das sich hervorragend für grafische Partituren eignet.
 
Zuletzt bearbeitet:
Das würde ich heute nicht mehr unbedingt so sagen. Die Entwicklung immer leistungsfähigerer Computer schreitet unglaublich schnell voran. Es gibt den Spruch, dass ein heute gekaufter Computer schon morgen technisch veraltet sein kann. Was ich damit ausdrücken möchte, ist: Was gestern noch unmöglich war, ist morgen oft schon technisch machbar. Trotzdem befinden wir uns immer irgendwo dazwischen.
Auf jeden Fall. Nun ist halt die Frage, wenn deine Hardware im Nu fertig wird, ob du dir mit der Notation auch genug Mühe gegeben hast, alle Möglichkeiten ausgeschöpft hast, Denkzeit investiert hast, die der schnellere Rechner wieder mit schnellerem Warten zubringt.
Du kannst einen Klavierklang sicher passabel mit einem bis zwei Dutzend Partials (dich und Laien ohne musikalische Vorbildung) überzeugend umsetzen. Pianisten und Klavierbauer lachen natürlich und setzen dich mit dem kleinen Finger unterm Kragen vor die Tür.

Während ich Noten aus einer Partitur in meine Sprache übersetzte, nutzte ich eine
Instrumentendefinition von ein paar wenigen Eigenschaften, sagen wir, einen Transienten (Attack), einem Decay, einem Sustain, einem Release, vielleicht noch einer Frequenzmodulation, gemeinsam bezogen auf eine Handvoll Sinus-Oszi-Layer – hört sich ganz klar synthetisch an. Und das soll es auch, mir egal, so lange die Partitur nicht vollständig im Kasten ist, kann die Akustik Kosmetik sein. Darum kümmerte ich mich erst später, wenn ich auch die Notenköpfe (=Unicode-Buchstaben) nach Belieben austauschen und ihre klanglichen Gesetzmäßigkeiten festlegen konnte. Die kann man frei gestalten – aber mit Blick auf die jahrtausendelange Tradition physischer Instrumente sollte man diese nicht aus dem Blick verlieren, will man fremde Ohren für sich gewinnen. Es sei denn, man bevorzugt einen Hörerkreis der von Einheitsohrenstopfe Gelangweilten, will also "Avantgarde" sein.

Sagt mir meinetwegen irgend ne Übung aus dem Hanon, hab hier ne Peters-Edition rumfliegen (oder will mir hier einer vertellen, das Material – hier nicht zu verwechseln mit dem Notenbild – käme irgendwie auch nur in die Nähe von urheberrechtsrelevanter Schöpfungshöhe?!) und ich demonstrier mal was, wo dem einen oder anderen vielleicht die Ohren aufgehen – Hanon ist nur langweilig an einem statischen, akustischen Instrument, nicht an Elektronik, eben weil der Komponist da auch über die Klangdomäne herrscht. Mit echtem Material knauser ich hier im Forum und wedel mit Gesetzen von wegen darf ich nicht und so weiter, wenigstens das hab ich mir gekonnt von Musikern abgeschaut.
 
Zuletzt bearbeitet:
Sagt mir meinetwegen irgend ne Übung aus dem Hanon, hab hier ne Peters-Edition rumfliegen (oder will mir hier einer vertellen, das Material – hier nicht zu verwechseln mit dem Notenbild – käme irgendwie auch nur in die Nähe von urheberrechtsrelevanter Schöpfungshöhe?!) und ich demonstrier mal was,
Hanon ist nach geltendem Recht seit 1971 gemeinfrei. Ich schlage Hanon 47 vor.

1751795822740.png


Viele Grüße,
McCoy
 
😎
 
Hat man noch nie gebraucht. Das einzige was man können muss ist, Musik zu schreiben.
Also müsste ich auch als Komponist gelten, wenn ich einfach den Computer anweisen kann, Klangstrukturen zu erzeugen – demnach ist schon jeder Komponist, der zum Beispiel SuperCollider bedienen kann. Und dann wäre auch ich ein Komponist.
Nun müssen wir diese Musik überhaupt schreiben – mit Programmen wie Iannix müsste es möglich sein, auch Musik zu zeichnen.
leider? Wenn du leider sagst, warum änderst du es dann nicht? Es gibt da seit neuestem in geiles Tool namnes Internet, da kann man Sachen kennen lernen die man nicht kennt
Okay, ich nutze ja bereits das Internet. Meine eigentliche Frage war eher, wo man diese Musik kostenlos und legal finden kann – zum Beispiel auf YouTube oder auf der Webseite der Bücherei.
Was der Unterschied ist kann du in diesem und anderen Foren in hunderten von Threads versuchen rauszukriegen. Warum müssen andere das verstehen?
Ich glaube, der Unterschied besteht darin, dass ich mit vielen Fragen dastehe, während ihr eher Antworten geben könnt. Dadurch könnte ich mich als Komponist damit profilieren, welche Fähigkeiten ich in dieses Forum einbringen kann. Anschließend müsste ich nur noch auf meine Statistik verweisen.
Wenn ihnen deine Musik gefällt werden sie sie anhören, wenn nicht, dann nicht.
Ich könnte zum Beispiel Musik auf Jamendo veröffentlichen und dabei auf die dortigen Statistiken verweisen. Aber welche Zahlen sind dort realistisch? Sind 1000 Anhörungen viel oder wenig? Woran orientiert man sich, um das einzuschätzen?
Dass Philip Glass vom Taxifahren gelebt hat ändert an seiner Musik nichts (oder vielleicht doch? Da hat sicher jemand mal eine Doktorarbeit drüber geschrieben).
Man muss als Komponist nicht unbedingt von seiner Musik leben können. Man kann auch einfach aus Interesse an der Musik komponieren. Dieses Argument nutze ich gerne, wenn ich mich als Komponist vorstelle. Ähnlich kenne ich das aus der Malerei, wo die meisten Maler ihren Lebensunterhalt mit etwas anderem verdienen mussten.

an mod Leider weis ich nicht was du mit Rattenschwanz meinst !!!???
 
Grund: Erneut Zitate ohne Antwort enfernt.
Zuletzt bearbeitet:
Eigentlich möchte ich das nicht einfach so infrage stellen, aber ich finde, man sollte heute darüber nachdenken, ob es neben dem Menschen noch andere Formen von Intelligenz geben könnte.
Intelligenz würde ich das nicht nennen, denn die ist nun einmal ein Konstrukt der Psychologie, um (keineswegs einheitlich) menschliche Leistungsfähigkeit zur Lösung bestimmter, geistig wenig bis sehr fordernder Aufgaben zu bestimmen.
Die entscheidende Frage dabei ist jedoch, wie präzise diese Ausarbeitung sein muss, damit der künstlerische Gedanke für den Zuhörer wirklich verständlich und erlebbar wird.
Zum Glück ist es allein Sache der Zuhörer, wie sie den "künstlerischen Gedanken" auffassen, Rückschlüsse auf die Qualität eines Werks sind daraus nicht unbedingt möglich. Pole: ein Zuhörer ohne musikalische Begabung und Ausbildung wird Musik zwangsläufig ganz anders hören als ein fähiger Berufsmusiker.

Klang ist stets eine Zusammensetzung aus Sinustönen.
Nein.
Klang ist ein Begriff für die Beschaffenheit von harmonischen Schwingungen, die über Jahrtausende natürlichen Urspungs waren. Die Beschaffenheit der Obertonschwingungen eines Klangs bestimmt, wie wir ihn (bei entsprechendem Wissen) wiedererkennen und z.B. einem akustischen Instrument zuordnen können.
Ton ist durch seine Frequenz bestimmt, sein Klang wird vom Begriff dagegen nicht erfasst.

Es gibt natürliche, obertonarme Schwingungen, z.B. bei einer sanft gespielten (Block-)Flöte.
Wenn Du mit elektronischen Tongeneratoren spielst, dann kannst Du feststellen, dass Du mit Sinusschwinungen eben nicht "alle" Klänge simulieren kannst.
Man wird praktisch bei additiver Synthese auch mit Rechteck- und Sägezahnwellen, ganz abgesehen von den Wirkungen der Filter und Hüllkurven. Vor gut 40 Jahren hatte ich einen Yamaha DX7, auf dem sich das gut auspobieren ließ, schon lange geht natürlich auch mit Software-Synths am Notebook.

Gruß Claus
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben