Gibt es Menschen, die keine musikalische Wahrnehmung haben?

  • Ersteller Subsonic75
  • Erstellt am
Als Informatiker kann ich dir sagen, dass deine Idee technisch kalter Kaffe ist.
Eine gesungene Melodie analysieren und dazu passenden Harmonien (Begleitung) zu finden und dies mit Drums zu unterlegen ist sei Jahren technisch machbar.

Kannst du mir eventuell sagen in welcher Software sowas umgesetzt wird. Ich habe mich schon mit diversen Tools beschäftigt aber wirklich hilfreich war das nicht.
 
Kannst du mir eventuell sagen in welcher Software sowas umgesetzt wird. Ich habe mich schon mit diversen Tools beschäftigt aber wirklich hilfreich war das nicht.

Ich kenne keine Software, die so etwas umsetzt. Dafür müsstest du mal in einem anderen Thema nachfragen. Ich sehe auch keinen Bedarf dafür und wüsste nicht, warum eine Firma so ein Programm professionell und aufwändig erstellen sollte.
 
Bleibt die Frage, was das soll. Sowas wäre evtl. ein Spielzeug für Menschen, die keinen musikalischen Zugang haben.
Entweder wird ein Algorithmus verwendet, der zu einer Melodie immer die gleiche Begleitung generiert, was bedeutet, dass die Ergebnisse vorhersehbar, gleich und langweilig sind oder es könnte zu einer Melodie hunderte und Tausende von Begleitvariationen erzeugt werden.
Dem Bediener bliebe dann bloss noch die Aufgabe, ein paar Tausend Varianten durchzuhören und die ihm geeignetste herauszusuchen. Für einen Musiker sehe ich da keinen Sinn drin.

Version 1 deiner Überlegung führt zu nichts.

Ich würde mich für Version 2 entscheiden.

Ich würde deine Beschreibung mal mit der additiven Synthese vergleichen. Jeder nur erdenkliche oder unerdenkliche Klang lässt sich damit erzeugen. Der Sound ist absolut überzeugend aber die Sache hat einen Haken. Diese Technologie kann niemand vernünftig bedienen, da diese Art der Klangerzeugung nicht auf Hörerfahrungen basiert. Im Gegensatz zur subtraktiven Synthese, bei der Frequenz/Signalanteile von einem vorhandenem Klang entfernt werden, muss man bei der additiven Synthese jede Frequenz/Wellenform eines Klanges von Grund auf aufbauen. Das Gehör ist kein Fouriertransformator und kann mit den Grundbausteinen, die im Übrigen auch "nur" auf sinusförmigen Obertonreihen basieren, nichts anfangen. Das Ganze endet nicht selten in einem reinen Trial & Error Prinzip ähnlich wie bei der Frequenzmodulation im Yamaha DX7 Anfang der 80er jahre.

Trotz allen Nachteilen bietet die Additive Synthese Möglichkeiten, die mit keiner anderen Syntheseart Möglich sind und genauso wie in der Musiktheorie, gibt es eine nahezu unendliche Flut an Parametern, die zu berücksichtigen sind. Alles basiert auf den mathematischen und physikalischen Grundregeln der Akustik und der Schwingungslehre. Ein Mensch kann diese Maschine nicht bedienen aber ein Computer schon.

Schritt 1: Analyse eines x beliebigen Audiosignals über FFT oder Wavelet Analyse
Schritt 2: Zerlegung des Signals in eine dynamische Obertonreihe
Schritt 3: Anpassung oder Veränderung des Mischungsverhältnisses der Obertöne
Schritt 4: Reproduktion des Audiosignals durch Erzeugung der Obertonstruktur durch eine Anzahl von x Sinusoszillatoren

Schritt 1 bis 4 wird als Resynthese bezeichnet
Schritt 3 bis 4 ist die reine additive Synthese ohne Ausgangsmaterial

Ich bin der Meinung, dass sich die Musiktheorie mit ihren Noten und Obertonstrukturen absolut mit dieser Idee vergleichen lässt, weil es nicht anderes ist als genau das. Eine Basis von nahezu unendlich vielen Möglichkeiten zusammenfassbar in einem mathematischen Zusammenhang, den wir als Menschen zwar nicht verarbeiten aber durchaus nutzen können. Wir sprechen hierbei nicht mehr von einem Musiker im klassischen Sinn, der vorhandene akustische Gegebenheiten (Instrumente) nutzt, um seiner Musik Ausdruck zu verleihen. Wir sprechen hier von einer Arbeitsweise, die diesen Schritt überspringt und Musik als gegeben betrachtet.

Was bis dahin noch fehlt, ist eine allgemeingültige Regel wie die Fourier Transformation, die alle musikalischen Zusammenhänge beschreiben kann. Es ist nur eine Frage wie bedienbar das Ganze ist bzw. wie genau man diese Technologie auf sein Ziel abstimmen kann und wieviele Parameter wirklich ausschlaggebend sind.

Ich kenne keine Software, die so etwas umsetzt. Dafür müsstest du mal in einem anderen Thema nachfragen. Ich sehe auch keinen Bedarf dafür und wüsste nicht, warum eine Firma so ein Programm professionell und aufwändig erstellen sollte.

Der Bedarf einer solchen Lösung ergibt sich in vielen Bereichen.

Eine Verwendung sehe ich z.B. darin, dass man auf diese Weise den Zugang zur Musik wesentlich erleichtert. Jeder könnte durch die Eingabe weniger Parameter Musik erlernen, da er sofort ein akustisches Feedback seiner Überlegung bekommt. Man müsste nicht jahrelang sein Instrument kennenlernen um angenehme Klänge zu erzeugen. Man könnte also die Erfahrung, die andere Leute seit 3000 Jahren gesammelt haben per Knopfdruck abrufen und in greifbare/hörbare Informationen übersetzen. Also als reine Lernhilfe ... So klingt also Beethoven, wenn die Streicher nicht a-moll sondern m-maj7add11 spielen und nun versuch mal das überzeugend ohne Orchester umzusetzen. Wir haben ja nun gelernt, dass ein Midifile keine Emotionen vermitteln kann :)

Eine weitere Anwendung findet sich in der immer schneller und effektiv werdenden Gesellschaft und in der Industrie. Wer wird den Auftrag einer Musikproduktion für Imagefilme eines Kunden bekommen? Der, der 2 Wochen benötigt um 3 Minuten Musik zu produzieren die am Ende nicht gefällt oder der, der in 10 Minuten ein fertiges Produkt bereit stellen kann? Wenn sich eine Emotion mit wenigen Parametern, ganz gezielt in ein akustisches Ereignis packen lässt und dieses auch noch Kosten spart ...

denk weiter darüber nach. Dir fällt sicher noch mehr dazu ein :)
 
Zuletzt bearbeitet:
Der Bedarf einer solchen Lösung ergibt sich in vielen Bereichen.

Eine Verwendung sehe ich z.B. darin, dass man auf diese Weise den Zugang zur Musik wesentlich erleichtert. Jeder könnte durch die Eingabe weniger Parameter Musik erlernen, da er sofort ein akustisches Feedback seiner Überlegung bekommt. Man müsste nicht jahrelang sein Instrument kennenlernen um angenehme Klänge zu erzeugen. Man könnte also die Erfahrung, die andere Leute seit 3000 Jahren gesammelt haben per Knopfdruck abrufen und in greifbare/hörbare Informationen übersetzen. Also als reine Lernhilfe ... So klingt also Beethoven, wenn die Streicher nicht a-moll sondern m-maj7add11 spielen und nun versuch mal das überzeugend ohne Orchester umzusetzen. Wir haben ja nun gelernt, dass ein Midifile keine Emotionen vermitteln kann :)

Eine weitere Anwendung findet sich in der immer schneller und effektiv werdenden Gesellschaft und in der Industrie. Wer wird den Auftrag einer Musikproduktion für Imagefilme eines Kunden bekommen? Der, der 2 Wochen benötigt um 3 Minuten Musik zu produzieren die am Ende nicht gefällt oder der, der in 10 Minuten ein fertiges Produkt bereit stellen kann? Wenn sich eine Emotion mit wenigen Parametern, ganz gezielt in ein akustisches Ereignis packen lässt und dieses auch noch Kosten spart ...

denk weiter darüber nach. Dir fällt sicher noch mehr dazu ein :)

Deine Beispiele überzeugen mich überhaupt nicht.
Man lernt (fast) gar nichts, wenn die Musik generiert wird.
Zudem muss man heutzutage kein Instrument lernen, um Wohlklänge zu erstellen; was man lernen muss, ist zu hören, was wie zusammenpasst und in welchem Kontext wirkt.
Für einen einfachen Zugang zur Musik gibt es bereits Systeme, bei denen man Baukastenmässig Komponenten zusammensetzen kann.
Was die Produktionszeit angeht ist es genau umgekehrt. Ein asugebildeter Musiker weiss, wie er eine Harmonisierung durchzuführen hat. Sich durch hunderte von generierten Möglichkeiten durchzuhören würde Wochen dauern.
Einzige Anwendung: Spielzeug für Nichtmusiker.

Was bis dahin noch fehlt, ist eine allgemeingültige Regel wie die Fourier Transformation, die alle musikalischen Zusammenhänge beschreiben kann.

Das Thema hatten wir doch bereits...
Ich habe dir doch vorgerechnet, was passiert, wenn man nur einen Bruchteil der musikalischen Möglichkeiten betrachtet.
Es gibt keine Formel für ALLE (SIC!) musikalische Zusammenhänge.
Bei dir habe ich wirklich das Gefühl, permanent gegen eine Wand anzureden.
 
Sich durch hunderte von generierten Möglichkeiten durchzuhören würde Wochen dauern.

Genau das ist momentan das Problem. Wenn du eine allgemeingültige Regel wie die Fourier Transformation hättest, müsstest du das nicht tun. Es gäbe einen Parameter mit einer endlichen Anzahl von Möglichkeiten, der den Charakter von depressiv über melancholisch, neutral , fröhlich bis euphorisch regel kann ohne das du jahrelange Erfahrungen mit Klangfarben sammeln musst. Du würdest einfach die Erfahrungen anderer dafür nutzen. Vielleicht gibt es ja sogar einen Algorythmus der künstlich intelligent weiter lernen kann und Zusammenhänge entdeckt, die bisher kein Mensch gefunden hat. Es ist ja "nur" Mathematik :)
 
Genau das ist momentan das Problem. Wenn du eine allgemeingültige Regel wie die Fourier Transformation hättest, müsstest du das nicht tun. Es gäbe einen Parameter mit einer endlichen Anzahl von Möglichkeiten, der den Charakter von depressiv über melancholisch, neutral , fröhlich bis euphorisch regel kann ohne das du jahrelange Erfahrungen mit Klangfarben sammeln musst. Du würdest einfach die Erfahrungen anderer dafür nutzen. Vielleicht gibt es ja sogar einen Algorythmus der künstlich intelligent weiter lernen kann und Zusammenhänge entdeckt, die bisher kein Mensch gefunden hat. Es ist ja "nur" Mathematik :)

Entschuldige, aber liest du wirkliich die gesamten Beiträge?

Das ganze wurde dir doch schon mehrfach erklärt.
Solange du Musik als Schwingungen verstehst, und denkst, die eine sei 'euphorisch' und die 'depressiv' wirst du niemals verstehen, warum deine Ansatz nicht funktionieren wird.

Stell dir vor, es gibt ein Programm, das Bilder malt. Du kannst jetzt angeben, dass rechts ein Baum und links ein Busch sein soll. Wieviele Möglichkeiten Büsche und Bäume zu malen gibt es? Bei einer festen Auflösung und festen Farben endlich viele. Niemals wirst du ein Programm bekommen, was alle 'sinnvollen' Büsche und Bäume malen kann, obwohl Büsche und Bäume nach Regeln aufgebaut sind.
 
Entschuldige, aber liest du wirkliich die gesamten Beiträge?

Das ganze wurde dir doch schon mehrfach erklärt.
Solange du Musik als Schwingungen verstehst, und denkst, die eine sei 'euphorisch' und die 'depressiv' wirst du niemals verstehen, warum deine Ansatz nicht funktionieren wird.

Stell dir vor, es gibt ein Programm, das Bilder malt. Du kannst jetzt angeben, dass rechts ein Baum und links ein Busch sein soll. Wieviele Möglichkeiten Büsche und Bäume zu malen gibt es? Bei einer festen Auflösung und festen Farben endlich viele. Niemals wirst du ein Programm bekommen, was alle 'sinnvollen' Büsche und Bäume malen kann, obwohl Büsche und Bäume nach Regeln aufgebaut sind.

Bei deinem Vergleich muss ich dir widersprechen. Man kann sehr wohl eine Maschine (Software) entwickeln, die nach bestimmten Regeln Bäume wachsen lässt. Sonst wären HPC Simulationen von Wetterentwicklungen oder dem Wachstum von Sternen oder ganzen Galaxien nicht möglich. Tausende von Wissenschaftlern unserer Forschungseinrichtungen wie der Max Planck Gesellschaft, Fraunhofer, Leibniz oder Helmholtz Gesellschaft tun den ganzen Tag nichts anderes als zu Simulieren wie Atome verschmelzen, Vulkane ausbrechen, DNS mutiert oder sich die Vegetation im Regenwald entwickeln wird. Dafür gibt es Algorythmen, die von Jahr zu Jahr präziser und genauer rechnen. Deren Datenumfang von Anfangs weniges Megabyte inzwischen in den Petabytebereich hineinwachsen. Man baut riesige Compute Cluster zur Berechnung von Gebäudestatiken oder der Auswirkung von Überschwemmungen. Dagegen ist das Wachstum einer Pflanze, die "nur" in Richtung Sonne wächst geradezu lächerlich. Nach 10 Minuten Simulation kannst du einen ganzen virtuellen Wald wachsen lassen, das 3D Bild rendern und du denkst es ist ein Foto. Dann veränderst du einige Ausgangsparameter wie die Temperatur oder die Luftfeuchtigkeit und es sieht jedesmal völlig anders aus. Glaubst du das die Gesetze der Musik nur ansatzweise so komplex sind, wie die Entstehung von Sternen oder schwarzen Löchern? Ich denke wir sprechen nicht von den gleichen Dingen. :)

Falls du im Web was über den Yamaha VP1 findest, führ dir das mal zu Gemüte. Das Ding ist inzwischen etwa 20 Jahre alt. Physical Modeling Synthese. Leider unbezahlbar und desshalb nicht weiter entwickelt aber diese Kiste hat vor 20 jahren schon musikalische Dinge getan, die sich heute kaum jemand vorstellen kann.

Gruß
 
Wenn sich eine Emotion mit wenigen Parametern ganz gezielt in ein akustisches Ereignis packen lässt und dieses auch noch Kosten spart ...
Ein 'interessanter' Aspekt: Musikschaffende haben vornehmlich das Ziel, Kosten zu sparen. War mir bisher nicht klar, denn ich dachte bisher, Musikschaffende interessieren sich mehr für Musik als für Kosten-Optimierung.

Man müsste nicht jahrelang sein Instrument kennenlernen, um angenehme Klänge zu erzeugen.
Und das spart dann auch wieder Kosten, nämlich finanzielle (Instrumental-Unterricht will bezahlt sein, und es kann schon mal ein paar Jahre lang Unterrichtsgebühren kosten, bis der Lernende sein Instrument ausreichend kennt) und Energie-Kosten, denn nicht nur daß es den Lernenden Geld kostet, nein, er muß sich dafür auch noch anstrengen.

Zum Thema "automatische" oder "algorithmische" Komposition habe ich eigentlich gar keine eigene Meinung, bzw. habe davon keine sehr gute, fand's aber doch interessant, welche Programme es dafür bereits gibt (eine kleine Liste ohne Anspruch auf Vollständigkeit und ohne Anspruch auf Wertung, welches Programm und welches hohle Versprechen zu seiner Leistungsfähigkeit blöder sei als das andere):

http://www.komponieren.de/Funktionen.htm
Dazu ein Artikel der ZEIT: http://www.zeit.de/2007/40/C-Kompositionssoftware

http://www.slate.com/id/2254232/

http://www.cvr-net.de/cms/cvr/index.php?id=28

http://supercollider.sourceforge.net/audiocode-examples/

http://www.symboliccomposer.com/page_main.shtml

http://www.capella.de/tonica.cfm
 
Ein 'interessanter' Aspekt: Musikschaffende haben vornehmlich das Ziel, Kosten zu sparen. War mir bisher nicht klar, denn ich dachte bisher, Musikschaffende interessieren sich mehr für Musik als für Kosten-Optimierung.

:) Musikschaffende haben in unserem Wertesystem sehr oft die negative Eigenschaft, nur den Dunstkreis der Kunst zu betrachten. Leider scheitern sehr viele positive Entwicklungen daran, sich darüber bewusst zu werden, was ein Tag im Aufnahmestudio einer Plattenfirma kostet. Davon abgesehen, sollte man sich als Musiker auch darüber bewusst sein, das über Erfolg oder Mißerfolg des Schaffens sehr oft andere entscheiden als man selbst. Auch wenn Musik als Kunstrichtung zu betrachten ist, sollte man Themen der Wirtschaftlichkeit nicht außer betracht lassen. Man möchte ja schließlich im Idealfall davon leben und wenn man als Musiker davon lebt, leben andere noch 10mal besser davon als man selbst. Es ist also auch eine statistische Frage wieviel man dem Markt anbieten kann um eventuell mal Gehör zu finden. Seihen wir doch mal ehrlich... ich denke nicht, dass sich in diesem Forum ausschließlich Supergenies der Branche tummeln. Sollte das so sein, frage ich mich ob es nicht angenehmere Lebensinhalte gibt :) man könnte sich in seinem Genius sonnen und Superstar spielen.

Und das spart dann auch wieder Kosten, nämlich finanzielle (Instrumental-Unterricht will bezahlt sein, und es kann schon mal ein paar Jahre lang Unterrichtsgebühren kosten, bis der Lernende sein Instrument ausreichend kennt) und Energie-Kosten, denn nicht nur daß es den Lernenden Geld kostet, nein, er muß sich dafür auch noch anstrengen.

Gewusst wie, spart zeit un Energie. Denn der Mensch ist von Natur aus faul und egoistisch. :)

Zum Thema "automatische" oder "algorithmische" Komposition habe ich eigentlich gar keine eigene Meinung, bzw. habe davon keine sehr gute, fand's aber doch interessant, welche Programme es dafür bereits gibt (eine kleine Liste ohne Anspruch auf Vollständigkeit und ohne Anspruch auf Wertung, welches Programm und welches hohle Versprechen zu seiner Leistungsfähigkeit blöder sei als das andere):

Ich kann deine Einstellung dazu wirklich nachvollziehen. Ich denke aber, dass sie zum Großteil einerseits in der schlechten Qualität der Algorythmen begründet ist und andererseits ein Konflikt mit der Rolle als Musiker besteht. Eine Maschine darf eure Autos bauen, sie darf auch Häuser bauen, Essen kochen und Geld drucken. Sie darf euer ganzes Hab und Gut verwalten aber Musik machen darf sie nicht. Das geht ja an die Ehre ;)

Ganz ehrlich... ich halte das alles für Unsinn und gehe davon aus, dass die Logik irgendwann siegen wird. Sie hat heute schon einen Vorteil ... Computer streiten sich nicht :D
 
Maler spricht hier etwas ganz Essentielles an, was ich auch versucht hatte in die Diskussion einzubringen:
Den Faktor der menschlichen Wahrnehmung.
Es gibt einfach keine Formel für eine musikalische Gestaltung, die auf alle Menschen gleich wirkt. Wie soll das möglich sein?
Wenn du viele Feldstudien betreibst, kannst du evtl ein paar grundlegende Dinge herausfinden (Komplexitätsgrad, Dur-/Moll-Tonalität) die bei Menschen tendenziell eher einen "mag ich" oder "mag ich nicht" - Charakter hervorruft, aber du wirst das nicht in ein vom Computer umzusetzendes Konzept umwandeln können, weil einfach unheimlich viele Parameter eine Rolle spielen die du nicht in der Musik beeinflussen kannst: Emotionaler Zustand des Hörers, Erfahrungen des Hörers, Physis des Hörers, Umgebung (Temperatur, Luft, Raumakustik) und und und. Das sind dutzende elementarer Faktoren die eine Rolle spielen.
Und ganz ehrlich: bei einem Satz wie: "eine Emotion ... ganz gezielt in ein akustisches Ereignis packen"... brrr.. klingt wie "Nehmen sie diese Tablette und sie fühlen sich gut"...



________________________
Jetzt noch ganz kurz zur Nebendiskussion: (Mod-Paul, sollen wir die vllt mal in ein neues Thema auslagern?)

Und ich habe mich daran gestoßen, dass Du diesen Teil in meinm Beitrag als Unsinn bezeichnet hast!
Ist okay, war vllt etwas scharf formuliert, geb ich zu, ich erklär aber auch wieso:

Dein Originalsatz auf den sich das bezog war folgender: "jeder Akkord hat eigene Schwingungsverhältnisse"
Und das ist einfach eine extrem diffuse Aussage, weil das was du meintest kein "Verhältnis" im Sinne "x zu y" ist. Das Wort Schwingungsverhältnis ist hier einfach nicht zu gebrauchen. (Daher das böse Wort mit dem "U am Anfang.
Es sei denn du wolltest sagen: C-Dur (temperiert) hat z.b. das Verhältnis 65,4 / 82,4 / 98 und D-Dur (temperiert) hat 73,4 / 92,5 / 110.. aber das hat einfach keinerlei Aussagekraft.

Zu dem was du nun wirklich meintest:
Die Quinten (gemeint sind die temperierten! Anm d. Zitierenden) innerhalb der Oktav a - a1 schweben z.B. mit ungefähr einer Schwebung je Sekunde. Diese Erscheinung liegt daran, dass bei unseren Intrumenten keine Töne sondern Klänge (Tongemische aus harmonischen Teiltönen) entstehen.......[/I]
Das ist ja durchaus eine korrekte Aussage, keine Frage, aber es ist eine sehr vereinfachte Aussage.
Wichtig ist hier zu hinterfragen WOHER diese Schwebung kommt, denn sonst hat man den ganzen Hintergrund nicht verstanden:
Die Schwebung entsteht ja nicht einfach dadurch, dass das Intervall gespielt wird. Würde man Sinustöne nehmen gäbe es keine solche wahrnehmbare Schwebung.
Die Schwebung entsteht in den Obertönen: Beispiel Quinte C-G:
Der zweite Oberton des C ist g.
Der erste Oberton von G ist ebenfalls g. Dieses g ist aber 2ct tiefer als jenes, welches durch das C hervorgerufen wurde.
Warum? Weil die Quinte C-G in der temperierten Stimmung 2ct zu klein eingestimmt wird.
g hat 196 Hz. Zwei Cent Abweichung entsprechen also grob 0,2 Hz. Das macht eine Schwebung alle 5 Sekunden.
Soweit wirst du mir sicherlich zustimmen und sagen: Jap, und wenn man das weiterführt hat man immer mehr Schwebungen je höher man wird. Korrekt. Wenn man davon ausgeht, dass der Cent-Abstand des Intervalls immer derselbe ist.
Und das ist der Knackpunkt.

Jetzt kommen wir zu den instrumentenspezifischen und praktischen Kriterien:
Kein Klavier ist exakt temperiert gestimmt. (Es gibt ja sogar diverse Stimmungsarten, Werkmeister I, II, III etc), Keine Gitarre ist exakt gestimmt. Kein Bläser intoniert temperiert, kein Geiger geigt temperiert.
Dazu kommt, dass bei manchen Instrumenten der Erste Oberton sogar lauter ist als der Grundton.
D.h. die Cent-Abstände werden nie exakt gleich sein. Oder es wird Schwebungen geben, die man Aufgrund zu geringer Lautstärke gar nicht wahrnimmt.
Es kann also gut sein, dass etwa bei einem Klavier der Akkord C-Dur in der großen Oktave viel mehr hörbare Schwebungen erzeugt, als D-Dur in der gleichen Oktave, obwohl es rein physikalisch betrachtet total unlogisch wäre und andersrum sein müsste.
Einfach aufgrund der äußeren Umstände.

Die Aussage "Quinten ...in der Oktave a-a1 schweben mit ungefähr einer Schwebung je Sekunde" hat nicht so wirklich den praktischen Gebrauchswert, weil hier einfach sämtliche Umgebungsvariablen ignoriert werden, wie das Instrument an sich, Lufttemperatur, Luftfeuchtigkeit etcetc.
In der Praxis wird die Quinte c1-g1 auch mal mehr Schwebungen erzeugen als d1-a1.
Einem Akkord in einer bestimmten Lage ein festes "Schwingungsverhältnis" (oder wie man es auch nennen mag) zuzuordnen mag in einer theoretischen perfekten Umgebung funktionieren, vernachlässigt aber sträflich die Realität.

Ich hoffe das erklärt ein wenig was ich sagen wollte ;-)
 
Bei deinem Vergleich muss ich dir widersprechen. Man kann sehr wohl eine Maschine (Software) entwickeln, die nach bestimmten Regeln Bäume wachsen lässt.

Mir ist vollkommen bewusst, dass es Programme gibt, die Pflanzen berechnen und ich habe dem auch nicht wiedersprochen.
Folgendes hatte ich geschrieben:
Niemals wirst du ein Programm bekommen, was alle 'sinnvollen' Büsche und Bäume malen kann, obwohl Büsche und Bäume nach Regeln aufgebaut sind.
Alle 'sinnvollen'! Also die Menge aller Bilder, die ein Mensch als Busch oder Baum interpretiert. Analog dazu, dass ein Programm 'alle musikalischen Zusammenhänge' errechnen soll.
Du kannst Büsche und Bäume auch durch Häuser, Autos oder Gesichter ersetzen. Kein Programm wird alle Gesichter, die Menschen möglicherweise haben können, zeichnen können, obwohl die Menge aller Bilder endlich ist (gegeben durch feste Auflösung und Farbanzahl).

Da du wieder mal meinen Beitrag nicht richtig gelesen hast, werde ich in diesem Thread nicht mehr schreiben. Den Kampf gegen die Windmühlen gebe ich auf.
 
Darf ich deine These einmal etwas aufschlüsseln ?

Den Faktor der menschlichen Wahrnehmung.
Es gibt einfach keine Formel für eine musikalische Gestaltung, die auf alle Menschen gleich wirkt. Wie soll das möglich sein?

Muss das denn möglich sein? Es würde genügen, wenn man mit den Parametern etwa 50% der Zuhörer erreicht.


Wenn du viele Feldstudien betreibst, kannst du evtl ein paar grundlegende Dinge herausfinden (Komplexitätsgrad, Dur-/Moll-Tonalität) die bei Menschen tendenziell eher einen "mag ich" oder "mag ich nicht" - Charakter hervorruft, aber du wirst das nicht in ein vom Computer umzusetzendes Konzept umwandeln können, weil einfach unheimlich viele Parameter eine Rolle spielen die du nicht in der Musik beeinflussen kannst:

... die man BISHER in der Musik nicht beeinflussen konnte. Fliegen können wir auch erst seit "100 Jahren" und beobachten Vögel schon einige Tausend Jahre.

Emotionaler Zustand des Hörers, Erfahrungen des Hörers

Sind rein psychologische Parameter, die man in der bisherigen Herangehensweise auch nicht berücksichtigen kann bzw. mit denen sich nie jemand statistisch auseinander gesetzt hat. Die Frage ist ob das eine Rolle spielt. Ich möchte eigentlich nicht jeden psychischen Zustand jedes Hörers bedienen. Wobei man aber durchaus Parameter setzen könnte, die z.B. spezielle Zustände wie Depressionen ansprechen oder umgehen können.

Physis des Hörers

Es gibt bereits Technologien, die die physischen Eigenschaften des menschlichen Gehörs nutzen. Nehmen wir mal die Binaurale Mikrofonie (Kunstkopfmikrofon Neumann KU100). Diese baut exakt auf den physischen Voraussetzungen des Menschen auf. Natürlich ist der Effekt nicht bei jedem Hörer identisch aber die Erfahrung hat gezeigt, dass die Unterschiede zu vernachlässigen sind. Mit einer Simulation dieser Hörweise ist also jede räumliche Verteilung von Schallquellen möglich. Es gibt auch bereits Audio Plugins, die diese Technik in den Rechner bringen.

Umgebung (Temperatur, Luft, Raumakustik) und und und. Das sind dutzende elementarer Faktoren die eine Rolle spielen.

jepp gebe ich dir Recht aber auch darauf gibt es eine Lösung ... Impulsantworten. Diese Technologie wird ebenfalls in vielen Situationen eingesetzt. Parameter wie Temperatur, Luftfeuchte, Gasgemisch usw. beeinflussen natürlich die Raumakustik und die Akustik der Instrumente. Selbst wenn man jeden erdenklichen Zustand abbilden müsste wäre es technisch machbar. Ich glaube aber nicht, dass das nötig ist, denn aufgenommene Studioalben werden immer unter ähnlichen Einflüssen produziert und mal ganz ehrlich... wen interessiert es denn ob die Gitarre im Studio bei 20 oder 25 Grad aufgenommen wurde. Die akustischen Unterschiede durch diesen Einfluss sind wahrscheinlich so gering, das man sie durch die weitere Signalverarbeitung (Kompression, EQ´s, Digitalisierung, Mastering) sowieso unhörbar macht.

bei einem Satz wie: "eine Emotion ... ganz gezielt in ein akustisches Ereignis packen"... brrr.. klingt wie "Nehmen sie diese Tablette und sie fühlen sich gut"...

Vielleicht nochmal zur Verdeutlichung... wir sprechen hier nicht über Erkenntnisse, die wir bis heute gesammelt haben. Ich versuche hier gerade eine Theorie zu entwickeln, zu der noch sehr viele Teile fehlen. Wir wissen heute noch nicht wie das Gehirn funktioniert. Wir wissen auch nicht, wie man mit Lichtgeschwindigkeit reist. 1750 wussten wir auch nichts von HIV oder synthetischen Drogen. Wir sprechen hier von technisch/wissenschaftlichen Entwicklungen, die zum Teil in primitiver Form vorliegen aber noch nicht ausgereift sind. Vielleicht nehmen wir in 100 Jahren eine Kapsel und hören Musik die gar nicht da ist. Wer weiß :D
 
Mir ist vollkommen bewusst, dass es Programme gibt, die Pflanzen berechnen und ich habe dem auch nicht wiedersprochen.
Folgendes hatte ich geschrieben:
Alle 'sinnvollen'! Also die Menge aller Bilder, die ein Mensch als Busch oder Baum interpretiert. Analog dazu, dass ein Programm 'alle musikalischen Zusammenhänge' errechnen soll.
Du kannst Büsche und Bäume auch durch Häuser, Autos oder Gesichter ersetzen. Kein Programm wird alle Gesichter, die Menschen möglicherweise haben können, zeichnen können, obwohl die Menge aller Bilder endlich ist (gegeben durch feste Auflösung und Farbanzahl).

Da du wieder mal meinen Beitrag nicht richtig gelesen hast, werde ich in diesem Thread nicht mehr schreiben. Den Kampf gegen die Windmühlen gebe ich auf.

Du hast es leider immer noch nicht verstanden. Ich möchte nicht alle möglichen Kombinationen durchprobieren sondern Zusammenhänge finden, die auf das Wesentliche reduziert sind bzw. Parameter, die ganze Gruppen von Zusammenhängen beeinflussen können.

Weißt DU was das Wesentliche in der Musik ist? NEIN. Also kannst du auch nicht sagen das es nicht funktionieren kann. Das unwesentliche Signalanteile entfernt werden können, wissen wir bereits durch die MP3 Datenkompression. Diese wurde am Fraunhofer Institut in Ilmenau durch Forschung entwickelt.

Was du hier nicht erkennst ist, dass die Meisten im Forum in einer Lernphase sind, die nichtmal ansatzweise die komplette Musiktheorie beinhaltet, geschweige denn darüber hinaus geht. :)

Ich versuche hier gerade Ideenimpulse zu geben, die man entweder weiterdenken kann oder man verschließt sich dagegen.
 
Zuletzt bearbeitet:
Sind rein psychologische Parameter, die man in der bisherigen Herangehensweise auch nicht berücksichtigen kann bzw. mit denen sich nie jemand statistisch auseinander gesetzt hat. Die Frage ist ob das eine Rolle spielt.

Ähm.. du redest die ganze Zeit darüber Musik zu machen/konzipieren, die bei Menschen bestimmte Gefühle hervorrufen und fragst ernsthaft ob psychologische Parameter eine Rolle spielen?
Ich für meinen Teil kann das relativ einfach mit "aber sowas von" beantworten.
Ich kann ein und dieselbe Musik hören ein an einem Tag macht sie mich fröhlich und am nächsten Tag macht sie mich traurig.
Das stützt sich natürlich auf psychologische Aspekte.


Vielleicht nochmal zur Verdeutlichung... wir sprechen hier nicht über Erkenntnisse, die wir bis heute gesammelt haben. Ich versuche hier gerade eine Theorie zu entwickeln, zu der noch sehr viele Teile fehlen. Wir wissen heute noch nicht wie das Gehirn funktioniert. Wir wissen auch nicht, wie man mit Lichtgeschwindigkeit reist. 1750 wussten wir auch nichts von HIV oder synthetischen Drogen. Wir sprechen hier von technisch/wissenschaftlichen Entwicklungen, die zum Teil in primitiver Form vorliegen aber noch nicht ausgereift sind. Vielleicht nehmen wir in 100 Jahren eine Kapsel und hören Musik die gar nicht da ist. Wer weiß :D

Ja, aber ich denke es gibt einfach Aspekte, die sich nicht in eine "Weltformel" oder ähnliches pressen lassen.

Das wär im Grunde als würdest du sagen:
Hey, nennt mir doch mal Kombinationen von Buchstaben in der deutschen Sprache, die andere Menschen fröhlich machen.
Die pack ich dann in ein Computerprogramm und werde Politiker, weil mich immer alle lieben...
 
Hallo Subsonic75,

ich komme auf Deine die Ausgangsfrage zurück
„Gibt es Menschen, die keine musikalische Wahrnehmung haben?“
und auf einige Aussagen, die wohl charakteristisch für Dein Musik-Verständnis sind.

Von mir selbst habe ich das subjektive Empfinden, das mein Gehör stark technisch ausgeprägt ist.
Du versuchst offenbar mit technischen Kategorien das Wesen der Musik zu erfassen.
Dies zeigt sich in Aussagen, wie:

(viele Parameter) ... die man BISHER in der Musik nicht beeinflussen konnte. Fliegen können wir auch erst seit "100 Jahren" und beobachten Vögel schon einige Tausend Jahre.
...
"eine Emotion ... ganz gezielt in ein akustisches Ereignis packen"
...
Wir sprechen hier von technisch/wissenschaftlichen Entwicklungen, die zum Teil in primitiver Form vorliegen aber noch nicht ausgereift sind. Vielleicht nehmen wir in 100 Jahren eine Kapsel und hören Musik die gar nicht da ist.

Ich möchte ... Zusammenhänge finden, die auf das Wesentliche reduziert sind bzw. Parameter, die ganze Gruppen von Zusammenhängen beeinflussen können.

Weißt DU was das Wesentliche in der Musik ist? NEIN. ... Das unwesentliche Signalanteile entfernt werden können, wissen wir bereits durch die MP3 Datenkompression.

Was ist das denn nun das Wesentliche in der Musik oder allgemein in der Kunst?

Der Musiker bzw. Künstler ist in der Lage, etwas Bedeutendes zu gestalten. Gib einem Maler Farbkasten und Malgrund und er wird etwas Beeindruckendes daraus gestalten können. Gib einem Schriftsteller die Worte unserer Sprache und er wird dies auf seine Weise bewerkstelligen. Gib einem Komponisten entsprechende Mittel zur Klangerzeugung und -speicherung (z.B. Instrument und Notenpapier) und er kann ein musikalisches Kunstwerk schaffen.

Diese Künstler unterscheiden sich von Nicht-Künstlern dadurch, daß sie eben dazu in der Lage sind. Ihr Kunstwerk kann auch "Ganzheiten" oder "Gestaltungen" nennen. Diese Begriffen machen das, worum es geht vielleicht etwas deutlicher, als das Wort "Werk".

Der Künstler ist jemand, der die vielen Einzelteile (z.B. Pinselstriche, Worte, Töne) zu solchen "Ganzheiten" zusammensetzen kann, die eine bedeutende Aussage haben, jedenfalls für die, welche in der Lage sind, diese zu erkennen. Alle Künstler sind Komponisten. Sie setzen etwas zusammen (lat. componere = „zusammensetzen“).

Lassen sich Kunstwerke auf das "Wesentliche" reduzieren, vergleichbar mit der Datenkompression?

Nein! Denn sie stellen bereits eine optimierte Kompression dar. Ein wahrer Künstler verdichtet das, was er aussagen möchte auf ein Höchstmaß. Dies kommt auch in Worten, wie "Dichtkunst" und "Gedicht" zum Ausdruck. Was wird nun eigentlich "verdichtet"? Im Prinzip fließt das ganze Leben des Künstlers ein, mit alle seinen Eindrücken, Gefühlen und Gedanken.

Hegel drückte Zutreffendes in seinen "Vorlesungen über Ästhetik" aus:

... muß der Künstler sich nicht nur viel in der Welt umgesehen und mit ihren äußeren und inneren Erscheinungen bekannt gemacht haben, sondern es muß auch Vieles und Großes durch seine eigene Brust gezogen, sein Herz muß schon tief ergriffen und bewegt worden sein, er muß viel durchgemacht und durchgelebt haben, ehe er die echten Tiefen des Lebens zu konkreten Erscheinungen herauszubilden imstande ist.
Wer möchte die Mona Lisa noch weiter komprimieren? Wer Goethes Faust oder bedeutende musikalische Kunstwerke?
"Grad so viel Noten, Eure Majestät, als nötig sind." antwortete Mozart auf den Kommentar von Kaiser Joseph II., auf dessen Kommentar zur Oper Entführung aus dem Serail: "Zu schön für unsere Ohren und gewaltig viel Noten, lieber Mozart."

Nun kann man bei vielem, was als Kunstwerk ausgegeben wird möglicherweise auch noch mehr komprimieren. Doch das liegt dann daran, daß diese noch nicht vollendet sind. Wahre Künstler sind bestrebt ihr Werk genau so zu gestalten, daß nichts weggenommen oder hinzugefügt werden kann, ohne daß die gewünschte Aussage darunter leidet. Würdest Du jetzt bei solchen Kunstwerken versuchen noch weiter zu komprimieren, würden wichtige Zusammenhänge verloren gehen. Das würde sicher nicht jeder Laie hören. Dem Kunst-Kenner würde es sofort auffallen.

Gustav Mahler sagte einmal, daß das Schönste der Musik "nicht in den Noten" steht. Aus Noten wird für entsprechend befähigte Menschen die Gestaltidee des Kunstwerks deutlich, oft läßt sie sich nur erahnen – ein Freiraum für die Interpretation. Man kann den Gedanken noch weiterspinnen: So wie Noten letzlich nur Symbole für die gestalterische Idee sind, so ist die äußere Form des musikalischen Kunstwerks, also das was man an Schallwellen aufnimmt, selbst nur ein Symbol für seine inhaltliche Aussage. Der Inhalt kann aber nur erfaßt werden, wenn beim Hörer entsprechende Assoziationen ausgelöst werde können. Es müssen Gemeinsamkeiten zwischen dem Komponisten und dem Hörer bestehen, die eine Kommunikation mit Symbolen (die ja nicht als Komprimierungen sind) ermöglichen.

Es ist eine wesentliche Fähigkeit des Künstlers die richtigen Symbole zu finden für ein maximales Kunsterlebnis. Wenn andererseits beim Hörer aufgrund fehlender Erfahrungen die Symbole keinen Resonanzboden finden, handelt es sich um Menschen, welche diese Musik nicht entsprechend wahrnehmen können.
Im Einzelfall einer bestimmten Musik und eines bestimmten Menschen wäre Deine Frage „Gibt es Menschen, die (im Einzelfall) keine musikalische Wahrnehmung haben?“ also mit "ja" zu beantworten.

Viele Grüße

Klaus
 
Zuletzt bearbeitet:
Hallo Klaus,

Glaub bitte, dass ich verstehe was du aussagen willst und ich gebe dir und den benannten Herren in allen erwähnten Punkten recht. Ihr habt auch alle miteinander Recht was die Diskussionen über Tontheorie, Harmonien usw. betrifft. Ich habe nur ein Problem mit der Ausgangssituation dieser Erkenntnisse.

All diese "Fakten", "Annahmen", "Theorien", "Erfahrungen" und "Tatsachen" resultieren aus einer Denk- und Arbeitsweise, die schon seit hunderten oder tausenden Jahren so gedacht und gelebt wird. Ich möchte mit meinen Überlegungen aber nicht auf dieser Stelle stehen bleiben sondern Möglichkeiten betrachten, die wir bisher nicht mit einbezogen haben. Vor 100000 Jahren haben wir Fleisch roh gegessen. Heute braten wir es, weil wir das Feuer entdeckt haben, weil es besser schmeckt und leichter verdaulich ist.

Beispiel:

Ihr sagt alle immer wieder, dass die Empfindungen beim Musikhören letztendlich auf psychischen Erfahrungen des Hörers bzw. des Schaffenden begründet sind. Ohne diese wäre ein Schaffen und ein Verstehen nicht möglich. Ja gebe ich euch recht

Andererseits sind persönliche Erfahrungen und Emotionen von Mensch zu Mensch grundverschieden und weder vorhersehbar noch beeinflussbar. Das würde aber bedeuten, dass jeder Hörer völlig unvorhersehbare Emotionen beim hören von Musik empfindet.

Wenn also ein Schaffender Emotionen verpackt, die jeder anders interpretiert und ein Teil der Hörer gar nicht interpretieren kann, wie kann es dann sein, dass es immer wieder Songs gibt, die einen Großteil der Menschen ansprechen und die zum Hit werden?

Liegt es nun an der Genialität des Künstlers oder an der Dummheit des Hörers... egal !!! Es muss dabei etwas geben, dass in allen Hörern eine ähnliche Reaktion hervor ruft. Und wenn es etwas derartiges gibt, kann man es auch beschreiben und in ein Konstrukt stecken. Wie komplex dieses Konstrukt ist, spielt im Moment für mich keine Rolle. Mir geht es nur darum, Parameter zu finden um ein solches Konstrukt zu beschreiben.

Vielleicht sprechen wir auch eine falsche Sprache, die derartige Konstrukte gar nicht zulässt oder erfassen kann. Ich kann es nur nochmal logisch erklären:

Wenn es eine Menge X gibt, von der man eine Menge Y abziehen kann, bleibt eine Menge Z übrig. Diese Menge Z ist endlich da Menge X nicht unendlich sein kann.

Wir sprechen in jeder Betrachtung von endlichen Mengen:

- Die Menge der Noten/Tonarten, die in 3 Minuten Song passen,
- Die Menge und die Art der Instrumente/Spuren, die in einem Song vorkommen können,
- Die Menge an Klängen/Klangbearbeitung, die sich in der Musikproduktion wie ein roter Faden durch alle Schritte zieht und die JEDER ähnlich anwendet (Musikstil X),
- Selbst die Menge an beschreibbaren Emotionen ist endlich, da ein Mensch nicht 1000 Jahre alt ist und ein Künstler nicht jeden Emotionszustand in Songs fassen kann.
- Auch die Menge an Obertönen ist endlich, da unser Gehör ab max 18kHz zu macht. Ich weiß Psychoakustik und Frequenzbereiche bis 40kHz. Unsinn im UKW Radio ist bei 15kHz Ende im Gelände und alles was darüber hinaus geht sind nichtlineare Verzerrungen die vom Freund OPTIMOD kommen und rein garnichts mit natürlichen Obertönen zu tun haben. Radio ist neben dem TV und dem Internet DAS Transportmedium für Musik und es funktioniert.

Wir bauen Instrumente, die überall auf der Welt gleich klingen. Auch ein Marschall AMP wird in Tokio oder in London das gleiche Ausgangssignal liefern. Ob ein Synthesizer in Moskau oder Peking spielt ist auch nicht relevant. Ob ein Russe oder ein Chinese die Tasten drückt, hören wir auch nicht.

Ich denke wir lassen uns hier nur von etwas blenden, das wir nicht verstehen. Das ist alles :)
 
All diese "Fakten", "Annahmen", "Theorien", "Erfahrungen" und "Tatsachen" resultieren aus einer Denk- und Arbeitsweise, die schon seit hunderten oder tausenden Jahren so gedacht und gelebt wird. Ich möchte mit meinen Überlegungen aber nicht auf dieser Stelle stehen bleiben sondern Möglichkeiten betrachten, die wir bisher nicht mit einbezogen haben.

Was wird denn "schon seit hunderten oder tausenden Jahren so gedacht und gelebt"? Von Stillstand kann doch keine Rede sein, eher von einer zunehmenden Beschleunigung.

Andererseits sind persönliche Erfahrungen und Emotionen von Mensch zu Mensch grundverschieden und weder vorhersehbar noch beeinflussbar.

Wenn das so wäre, könnten sich die Menschen untereinander nicht verständigen. Tatsächlich gibt es sogar Verständigungsmöglichkeiten zwischen Mensch und höheren Tieren.

Es muss dabei etwas geben, dass in allen Hörern eine ähnliche Reaktion hervor ruft.

Das gibt es innerhalb gewisser Grenzen durchaus.

Zum Beispiel werden in Klageliedern oft absteigende Melodielinien verwendet. Schrecken kann durch eine Unterbrechung der Melodielinie ausgedrückt werden, Schwere eher durch langsame Bassbewegungen in kleinen Tonschritten, Leichtigkeit eher durch eine sprunghaftere Melodieführung in höheren Lagen.
Ich denke, die entsprechenden Analogien zu Erscheinungsformen im täglichen Leben eines jeden Menschen sind leicht nachvollziehbar.
Ein Stimmungswandel von fröhlich nach traurig (oder umgekehrt) kann durch einen Wechsel von Dur nach Moll erzeugt werden.
Eine mechanische Anwendung solcher Möglichkeiten kann allerdings rasch einfallslos wirken.

Wohl der wichtigste Aspekt bei einem musikalischen Kunstwerk und auch bei vielen Hits ist, daß für den entsprechenden Hörer etwas Neues entsteht, daß eine neue Ganzheit erkennbar wird.
(Im Mainstream sind natürlich die musikalischen Ansprüche viel geringer als bei musikalisch Gebildeten.)
Eine Struktur, die latent bei den Hören schon vorhanden war, wird nun (idealerweise) auf den Punkt gebracht. Etwas Neues hat nun begreifbare Formen angenommen. Es erscheint - das Phänomen der Emergenz.

Man kann zwar die Ganzheit in Teile zerlegen, z.B. in Akkorde, Melodien, Rhythmen, Dynamikverläufe, Klangveränderungen, Tempoveränderungen usw..
Doch sie bezieht ihre Wirkung gerade dadurch, daß die Teile dieser Ganzheit wohl aufeinander abgestimmt sind. Jedes Teil (auch die "Parameter") dient nur als Element eines übergeordneten Ganzen.

Aristoteles drückte es so aus:
Das Ganze ist mehr als die Summe der Teile.
Goethe so:
Wer will was Lebendiges erkennen und beschreiben,
sucht erst den Geist herauszutreiben.
Dann hat er die Teile in seiner Hand,
fehlt, leider! nur das geistige Band."
(Mephistopheles im "Faust")
Die Bedeutung eines Teils ist auch direkt vom Kontext abhängig in dem es steht. So können z.B. identische Melodien (oder Texte) Träger völlig anderer Emotionen sein, nur weil sie in einem anderen Kontext stehen. D.h. man kann z.B. nicht eine Emotion in eine Melodie "packen" und dann davon ausgehen, sie bliebe unverändert, wenn sie das nächste mal in einem anderen Kontext "ausgepackt" wird.
Das wäre eine mechanistische Denkweise, die dem musikalischen Erlebnis nicht gerecht würde.

Wenn es eine Menge X gibt, von der man eine Menge Y abziehen kann, bleibt eine Menge Z übrig. Diese Menge Z ist endlich da Menge X nicht unendlich sein kann.
...
Wir sprechen in jeder Betrachtung von endlichen Mengen:
Die Differenzierung zwischen "unendlich" und "endlich, aber praktisch unendlich" ist für die menschliche Erfahrung völlig unwichtig, erst recht im Bereich der Musik. Die zahl der möglichen Kombinationen der von Dir aufgezählten "endlichen" Mengen sind "praktisch unendlich". Der springende Punkt ist die richtige Auswahl an "Stücken" aus dieser Unmenge an Möglichkeiten. Selbst wenn man sinnvolle Grenzen ziehen würde, blieben immer noch viel zu viele Möglichkeiten übrig. Genausowenig wäre es möglich. ein gutes Gedicht mechanisch zu produzieren, auch wenn es nur aus ein paar Zeilen besteht.

Mir geht es nur darum, Parameter zu finden um ein solches Konstrukt zu beschreiben.
Vielleicht kannst Du einige Parameter aus den Universalien der Musikwahrnehmung extrahieren. Für ein musikalisch sinnvolles Ergebnis wird das nicht ausreichen.

Ich denke wir lassen uns hier nur von etwas blenden, das wir nicht verstehen.
Von was lassen wir uns denn blenden? Ich habe jedenfalls nicht die Empfindung, daß ich mich von irgendetwas blenden lasse. Außerdem verstehe ich in diesem Zusammenhang nicht, was wir nicht verstehen können sollen. Hier bitte ich um Erläuterungen.

Viele Grüße
Klaus
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben