Notation von elektronischer Musik

Es beginnt schon damit, hört damit aber noch lange nicht auf, dass MIDI keine Takte kennt.
Das liegt vielleicht daran, dass Takte in der elektronischen Musik nicht zwingend notwendig sind. Wie sich Takte in Rhythmus übersetzen lassen – und dieser wiederum in unterschiedliche Amplituden – werde ich später noch näher erläutern.
Klar könnte man argumentieren, das kannte Alte Musik auch nicht,
Ja, aber im Grunde wurde – soweit ich weiß – die Taktung, also der Rhythmus, damals eher unbewusst und durch Prägung realisiert. Natürlich werden jetzt einige sagen, dass Rhythmus nicht gleich Takt und Takt nicht gleich Metrum ist.
aber MIDI ist ja nicht dediziert für Alte Musik.
Nein, es muss sich alles in MIDI darstellen lassen, was ein normales Standardinstrument realisieren kann. Eigentlich könnte man trotzdem den Takt als Zugabe geben, aber ich glaube, das war einfach nicht allgemein genug.
Traditionelle Notenschrift enthält viel mehr Informationen, die auf schnelles Erfassen durch geübte menschliche Interpreten ausgerichtet ist,
Eine Partitur enthält weit mehr Informationen, als eine MIDI-Datei darstellen kann. Entscheidend sind die zusätzlichen Angaben, die für eine praktikable und möglichst genaue Umsetzung des musikalischen Werkes notwendig sind.
und die für Maschinen (MIDI) auf einzelne Controllerparameterwerte heruntergebrochen werden müssen
Genau das wollte ich am Beispiel des Takts demonstrieren: Wie ich ihn verstehe. Der Takt stellt in der Musik eine bestimmte strukturelle Ordnung dar. So ist ein Takt immer in einer bestimmten Tonart verankert und besitzt oft eine harmonische Einheit – zum Beispiel kann er als die Zerlegung eines Akkords verstanden werden. Darüber hinaus ist der Takt in Verbindung mit dem Metrum Träger eines bestimmten Rhythmus. Ein Takt kann somit als ein vollständiger Durchlauf eines Rhythmus betrachtet werden. Dabei wird der Rhythmus durch unterschiedliche Lautstärken ausgedrückt, während die harmonische Komponente wichtig für die genaue Intonation ist.
Etwa auf die Velocity, der Geschwindigkeit des Tastendrucks, seiner Stärke.
Wie ich bereits versucht habe zu erklären, werden Rhythmen beispielsweise auf unterschiedliche Anschlagstärken (Velocities) heruntergebrochen. Diese Variation wird vom Musiker durch unterschiedlich schnellen und starken Tastendruck erzeugt.
Daraus Takttrennung und Taktart zu rekonstruieren ist nur intellektuell zu machen, aber dafür gibts bestimmt bald ne K. I.! :rolleyes:(scnr)
Ich finde das nicht unbedingt schwierig. Wenn Rhythmus und Takt ungefähr vorgegeben wären, könnte das auch ein einfacheres Programm umsetzen. Schwieriger wäre hingegen die harmonische Struktur, die ich zuvor angesprochen habe – aber auch das wäre machbar.
Deshalb ist ein Weg leichter als der zurück, das ist wie bei einer Bergflanke. Deshalb entschied ich mich, auf automatischen MIDI-Import zu verzichten.
Ich kann das gut nachvollziehen: Was ich eben geschrieben habe, gilt nur für die einfacheren Fälle. Wenn jedoch noch Parameter hinzukommen, die von der eigentlichen künstlerischen Idee abhängen, wird die Sache deutlich komplizierter. Solche Einflüsse lassen sich besser durch eine handwerkliche Betrachtung des Werkes erfassen, als es eine KI jemals leisten könnte.
Die Rückübersetzbarkeit zu traditioneller Notenschrift wollte ich machbar halten, das war mir wichtiger als MIDI in meine Notation zu gießen.
Was ich sagen wollte, ist, dass es viel leichter fällt, Musik zu verstehen, wenn man die Noten zur Hand nimmt und sie gleichzeitig hört, während sie in klingende Musik umgesetzt werden. Das kann man zum Beispiel mit Hilfe einer DAW machen. Schon in der frühen Neuzeit der Musikkultur lernten große Komponisten auf ähnliche Weise – allerdings hatten sie natürlich keine DAW, sondern spielten die Noten auf einem Klavier. Das kann ich allerdings nicht.
 
Standardisierung geht nur, wenn Stakeholder mit kommerzieller Gewinnabsicht zusammenkommen und von einer Standardisierung mehr profitieren, als wenn jeder sein Süppchen kocht.
Dies mag die Wahrheit über das Wesen der Standardisierung sein – so zum Beispiel verdanken wir die einheitliche Gestaltung der Computer der Fehleinschätzung der Firma IBM, die damals ihre Konstruktionsdaten veröffentlicht hat. Hier geht es, wie fast überall, nur um den wirtschaftlichen Gewinn des Einzelnen oder weniger.
Die fragen zunächst aber zurecht: Wie schützen wir unsere Investitionen?
Genau das meine ich mit dieser Fehleinschätzung: IBM glaubte, es wäre sinnvoller, den Computer stärker zu verbreiten – auch wenn sie ihn nicht allein produzieren würden. Letztendlich haben sie dadurch jedoch eher verloren. Heute kennt kaum noch jemand den Namen IBM, und kaum jemand besitzt einen solchen Computer.
Wenn man eine Performance mit anderem Gerät exakt reproduzieren kann, haben Hersteller ein Problem. Das wollen die gar nicht. Von daher wünsch dir nen Ritt auf nem Pegasus, das ist genauso unmöglich, würde aber mehr Spaß machen.
Genau dieses Alleinstellungsmerkmal verlieren sie, doch die Gesellschaft würde klar davon profitieren. Eine Möglichkeit, dies trotzdem zu erreichen, bietet die Open-Source-Gemeinschaft. Dort könnten solche Ideen wirtschaftlich erfolgreich umgesetzt werden – deshalb sollten wir alle Open Source aktiv unterstützen.
Daher wäre es erst mal gut, würde sich die notationsbasierte Konstruktion von elektronischer "Musik", damit einhergehend Rendering ohne Echtzeitanspruch etablieren.
Ich verstehe nicht ganz, wie die Standardisierung mit Echtzeit zusammenhängt. Soll das heißen, dass durch Echtzeit vielleicht keine Standardisierung mehr nötig wäre? Wenn ja, warum? Meiner Meinung nach ist die Echtzeitfähigkeit überflüssig, da sie kaum noch einen wirklichen Vorteil bietet. Es gibt auch andere Möglichkeiten, die genauso gut funktionieren.
Muss andere Produktionsarten von Musik nicht verdrängen, aber ein Fuß in der Tür wäre schon mal nicht schlecht.
Du meinst also, dass die Produktion von in Echtzeit generierter Musik in Konkurrenz zu anderen Musikformen stehen würde. Wie genau begründest du das? Bitte erkläre es mir näher, denn ich sehe keinen Grund, warum Echtzeitmusik etwas Besonderes sein sollte.
Wenn auch das eher unwahrscheinlich ist, wenn Sinn und Zweck schon nicht anerkannt werden;
Wie bereits erwähnt, denke ich, dass die reichen Industriellen kein Interesse daran haben, dass sich unsere Kultur weiterentwickelt. Ein echtes Engagement für kulturellen Fortschritt findet man eher in der Open-Source-Szene.
aber ohne das brauchen wir über Standardisierung kaum nachdenken.
Wie bereits erwähnt, sehe ich Open Source als meine bevorzugte Lösung. Mir ist jedoch bewusst, dass auch sie nicht der Weisheit letzter Schluss ist.
 
Heute kennt kaum noch jemand den Namen IBM, und kaum jemand besitzt einen solchen Computer.

Ja, die Firma ist praktisch am Ende, was man sehr deutlich am Aktienkurs erkennen kann
Da wo richtig viel Geld bewegt wird, und ich meine RICHTIG VIEL, da ist IBM zu Hause.

1752006372600.png




Open-Source-Gemeinschaft. Dort könnten solche Ideen wirtschaftlich erfolgreich umgesetzt werden
Wirtschaftlicher Erfolg ist das letzte was die OSS-Gemeinschaft will. Standardisierung? Hm.
Von thunderbird gibt es einen Fork "betterbird", beworben als "thunderbird ohne Fehler". Statt dass die Programmierer ihr Fehlerbehebungen ins Hauptprodukt einlfießen lassen machen sie ein eigenes Produkt auf Basis des Hauptprodukts. Openoffice - Libreoffice, weil einem Teil der Programmierer die Lizenzbedingungen nicht gepasst haben. Audacity? Mehrere Abspaltungen wegen Datenschnüffelei, nur eine davon hat zusätzlich überlebt.
Die OSS Bewegung könnte viel weiter sein wenn das nicht wäre. Aber das ist eben nicht der Sinn von OSS.
deshalb sollten wir alle Open Source aktiv unterstützen.
Es gibt genügend Gründe OSS zu unterstützen, aber das ist keiner.

denn ich sehe keinen Grund, warum Echtzeitmusik etwas Besonderes sein sollte.
natürlich kannst du dem Publikum auch ein mp3 vorspielen, aber live is live, auch wenn es vom Computer kommt. Auch für den Musiker ist sofortige Reaktion besser als abwarten. Wenn ich in mein Sax reinblase habe ich sofort einen Ton, das will ich am Computer auch haben.
 

Anhänge

  • 1752005979027.png
    1752005979027.png
    58,9 KB · Aufrufe: 0
Notenlesen hab ich als Beifang aus Chorsingen und Musik- und Klavierunterricht gelernt.
Ich habe immer versucht, Noten zu lesen, weil ich sie als Eingabematerial für den Computer benötigte. Doch was mir bis heute unmöglich erscheint, ist, diese Noten in dem erforderlichen Tempo auf einem Instrument so zu spielen, dass dabei wirklich Musik entsteht.
Ob ich den Gehalt eines Werks erfasste, durfte mir in der Künstlerrolle vollkommen egal sein.
Ich bin der Meinung, dass Künstler*innen in der Lage sein sollten, die künstlerische Idee hinter dem, was aufgeführt wird, wirklich zu verstehen. Dieses Verständnis halte ich für unerlässlich, um eine Partitur angemessen interpretieren zu können.
Ich habe mich bereits mehrfach mit diesem Thema beschäftigt – einerseits im Kontext des Übens, insbesondere dann, wenn die Proben in Anwesenheit des Komponisten stattfinden; andererseits, wenn es darum geht, eine Partitur lebendiger umzusetzen, als es mit einer statischen MIDI-Datei möglich wäre.
Ob ich "Künstler" unter Künstlern anerkannt war ist eine andere Frage ... aber wichtig?
Diese Frage beschäftigt mich schon seit einiger Zeit: Wenn ich bestimmten Personen erzähle, dass ich Komponist bin, reagieren manche so, als hätte ich den Verstand verloren – manche schreiben sogar der Krankenkasse, ich hätte eine psychische Störung. Deshalb sage ich lieber, dass ich mich mit der Gestaltung von Musik am Computer beschäftige. Das klingt für viele verständlicher und wird ernster genommen.
Die Komponisten der von mir vertonten Werke waren alle tot, konnten mir nicht den Knüppel übern Schädel ziehen,
Nun, sie könnten sich leider nicht mehr darüber beschweren, was du aus ihren Werken gemacht hast – das soll nicht ganz ernst gemeint sein und nicht als Kritik verstanden werden. Trotzdem gibt es so etwas wie eine informierte historische Aufführungspraxis, die man beachten sollte.
nd über "Banause!"-Rufe Schultern zu zucken fiel mir relativ leicht.
Ich habe nicht so sehr das Problem, als Banaus zu gelten. Da ich sehr avantgardistische Musik mache, glaube ich ohnehin nicht, komplett verstanden zu werden. Vielmehr befürchte ich, dass man mir eher einen ICD-10-Diagnoseschlüssel zuordnet, als wirklich hinzuhören
Wofür ich kein Händchen haben dürfte, ist musikalischer Ausdruck, weil das ohnehin nur in Echtzeit geht, nach Jahrzehnten disziplinierter Übung (oder Talent?
Das kann und will ich nicht entscheiden – zum einen habe ich von dir bisher noch zu wenig gehört. Vielleicht könntest du mir etwas von deiner Musik zeigen, wenn du möchtest. Zum anderen denke ich, dass es eine reine Geschmacksfrage ist, über die man bekanntlich endlos diskutieren kann. Was mir jedoch etwas seltsam vorkommt, ist, wie du diese Arbeit angehst, ohne die Idee des Komponisten wirklich zu verstehen.
In Notation lassen sich Gestaltungshinweise festhalten
Ich möchte einen Gedanken anbringen: Ich glaube, dass Abkürzungs- und Verzierungszeichen dazu dienen, eine Partitur leichter lesbar und verständlicher zu machen. Würde man alles ausschreiben, wäre das viel komplizierter und unübersichtlicher. Für mich ist das vergleichbar mit der Strukturierung eines Computerprogramms in Funktionen, die den Code klarer und einfacher handhabbar machen.
und von da – will man den maschinellen Weg über das statische Audiorendering gehen – erledigt Mathematik und Programmierung den Rest.
Wie bereits erwähnt, halte ich es für möglich, mithilfe dieses Ansatzes eine Note auch ohne menschliche Hilfe oder spezielle KI von der Partitur in eine MIDI-Datei umzuwandeln – wie ich weiter oben bereits erläutert habe. Allerdings benötigen diese Prozesse eine große Menge an Daten, um daraus zu lernen, oder sie müssen auf klar definierten Regeln basieren.
Der jedes Mal gleich ist, daher ist es technisch gesehen unnötig diese Renderings im Audioformat weiterzugeben, die Notation genügt eigentlich.
Ich würde das Rezept nicht dem Kuchen vorziehen – besonders nicht, wenn das Rezept immer zum gleichen Kuchen führt. In so einem Fall bevorzuge ich den fertigen, schmackhaften Kuchen. Anders gesagt: Ich würde die Audiodatei der MIDI-Datei vorziehen.
Ja, der elektronischen Musik stehe ich ambivalent gegenüber.
Für mich ist elektronische Musik die einzig mögliche Form von Musik, weil ich keine Instrumente spielen kann und daher auf den Computer angewiesen bin. Außerdem klingt für mich alles, was aus dem Computer kommt, von Natur aus sehr elektronisch.
Schaffenskraft der Industrie überlassen ist so komfortabel, man muss ja gar nicht üben, wie fein, wie fein.
Ich würde niemals mein Lächeln – so wie Tim Taller – an den Teufel verkaufen.
Damit meine ich: Musik, die industriell produziert wird, ist für mich keine echte Musik und erst recht keine Kunst.
Mir fehlt dabei das spielerische Element, das für mich unbedingt zur Kunst dazugehört – es sei denn, man greift bewusst die Idee der Industrial-Musik auf.
Dafür muss man sich mit Kabellagen, Rackaufbau, Inkompatibilitäten und Softwarelizenzen rumschlagen.
Bei elektronischer Musik braucht man neben einem gewissen Talent vor allem auch technisches Verständnis und ein gutes Gespür dafür. Ich sehe mich deshalb eher als Werkmeister im Sinne des Bauhauses – also der berühmten Kunstschule in Weimar, nicht als Profi-Handwerker oder Baumarktarbeiter – und weniger als reinen Formmeister.
Aber aufgrund eigener Behinderung kann ich nun mal entweder Musik machen, wie auch immer, und echte Musiker sollen lachen, oder aber ewig nach einer Lehrperson fürs bevorzugte Instrument suchen
Na, da bin ich wohl nicht der einzige Musiker mit Behinderung. Vielleicht ist das eine dumme Frage, und es geht mich eigentlich nichts an, aber welche Behinderung hast du?
Ich leide an einer ausgeprägten Psychose. Deshalb hatte ich weiter oben die Anmerkung zum Komponisten und der Meldung an die Krankenkasse gemacht.
die zugleich Ergotherapeutin ist, zumindest mir nicht irgendwann mit einem Geduldfadenriss-Schadenregress kommt und einem Katalog all meiner Störungen.
Bist du eher in einer Ergotherapie oder in einer Musiktherapie? Letztere wirkte auf mich immer wie wildes Trommeln auf Instrumenten, besonders wenn es in der Gruppe stattfand. Aufgrund meines musikalischen Grundverständnisses wollte meine Therapeutin mich deshalb schon in Einzeltherapie nehmen. Allerdings muss sie mir erst zeigen, dass man nicht Moll nach Dur auflöst.
Danke und tschüss. Kling ich ordentlich frustriert? Gut.
So merkwürdig es für dich auch klingen mag – ich empfinde das gar nicht als Frustration, sondern sehe es als berechtigte Kritik an der aktuellen Situation und dem dahinterliegenden System. Wie ich bereits schrieb, fühle ich mich mit meiner Frustration eher wie ein nicht verstandener Kommunist.
Straßenmusiker mit Bluetooth-Boombox im Hinterhalt, worüber sie sich begleiten lassen, bekommen von mir Geld einmal in hundert Jahren.
Das ist heute die moderne Realität: Selbst Straßenmusiker nutzen inzwischen Technik. Warum sollten sie also noch auf der Straße spielen, wenn sie ihre Musik einfach online gegen Bezahlung anbieten könnten – zum Beispiel auf Plattformen wie Jamendo oder YouTube? Das verstehe ich nicht. Außerdem wäre das Verhältnis von Aufwand und Gewinn online wahrscheinlich deutlich besser.
 
MIDI ist für dich genau richtig, weil Du sowieso elektronisch produzieren, speichern und performen wirst.
Also doch MIDI als Notation verwenden – damit ist diese Diskussion wohl beendet. Wie bereits erwähnt, erinnert das an den Spaziergang der Philosophie um das Gebäude der Erkenntnis.
Deine Fantasterei über Notation führt garantiert zu rein gar nichts.
Ich wollte eigentlich gar nicht über Notation fantasieren, sondern nur philosophieren – theoretisieren –, was aber, wie deine Kritik richtig bemerkt, aufs Gleiche hinausläuft.
Du kannst ja trotz der Nachfragen und deiner langen Textproduktion (als Ausdruck des Nachdenkens) noch nicht einmal sagen, wozu eine Notation für dein Vorhaben konkret sinnvoll sein soll.
Tut mir leid, wenn das missverständlich rüberkam, aber:


  1. Wir haben das Problem der Praktikabilität der Notation – zum Beispiel im Zusammenhang mit MIDI – bereits ausführlich besprochen.
  2. Dabei sind wir auch auf die unterschiedlichen Formen der Notation eingegangen.
  3. Außerdem haben wir Fragen zur künstlerischen Idee und deren Ausdruck in der Partitur behandelt
  4. wir haben also bereits einige theoretische Grundlagen gelegt.

Also sei doch so gut und fange endlich mit dem Musik machen an.
Danke für die Aufforderung – ich werde es so bald wie möglich erledigen. Ich freue mich schon sehr darauf, endlich meine eigenen Experimente mit dem Hénon-System durchzuführen.
 
Für viele rechtliche Fragen -u.a. auch zur GEMA - findet man hier Diskussionen:
Danke für den Link. Das Problem ist nur, dass die Diskussion so breit gefächert ist, dass kaum noch jemand den Überblick behält – besonders ohne ein Rechtsstudium. Wie seht ihr das?
Zur GEMA hat man versucht mit c3s eine Alternative zu gründen. Nachdem man dort aber seit 10 Jahren nicht vorwärts gekommen ist, und die Lebenszeit leider nicht unendlich ist, führt letztlich z.Zt. kein Weg an der GEMA vorbei.
Das Problem ist vermutlich, dass man aus Gründen der Praktikabilität eine zentrale Anlaufstelle benötigt. Ein ähnliches Schicksal könnte – hoffentlich nicht – früher oder später die Open-Source-Gemeinschaft treffen, falls sie nicht die Vielfalt an verschiedenen Lizenzen vereinheitlicht.
Beitrag automatisch zusammengefügt:

Meinst du mich oder den TO? Ich habe hier nur mit dem TO gesprochen, für dich zum Mitlesen oder Skippen, wie du magst. Von mir aus können wir die Unterhaltung per PN weiterführen, @ComputerArtist_ThL , damits andere nicht stört.
Vielleicht sollten wir ein neues Thema eröffnen, bei dem klarer definiert ist, worum es geht. Wie ich zwischendurch bereits geschrieben habe, haben wir das ursprüngliche Thema eigentlich schon längst verlassen. Es bieten sich nun drei mögliche Themenbereiche an:
  1. Notation und MIDI: Wie artikulieren und intonieren Computersysteme Musik?
  2. Wege zum Verständnis der künstlerischen Idee anhand der Partitur
  3. GEMA und das Schöpfungshöhen-Problem in der Computermusik.
Da ich keine Musik mehr mache und das Projekt auf Eis liegt aus Gründen, die schon das Hanon-47-Beispiel für mich zu einer Herausforderung machen, soll es dabei bleiben.
Für mich bleibt es eine Herausforderung, überhaupt erst einmal mit der Musik anzufangen, wie ich es weiter oben bereits angekündigt habe. Ich hoffe, ihr könnt euch noch etwas gedulden. Meine ersten Versuche waren, wie gesagt, eher bescheiden und nicht ganz ernst gemeint, denn ich sehe Musik und Kunst als ein besonderes Spiel der Möglichkeiten und der Kreativität.
 
Zuletzt bearbeitet:
Ja, die Firma ist praktisch am Ende, was man sehr deutlich am Aktienkurs erkennen kann
Da wo richtig viel Geld bewegt wird, und ich meine RICHTIG VIEL, da ist IBM zu Hause.
Das ist wohl ironisch gemeint, denn wenn ich den Aktienkurs betrachte, scheint es den Unternehmen gut zu gehen. Leider habe ich keine Ausbildung, die es mir erlaubt, Aktienkurse wirklich zu verstehen. Ich dachte eigentlich, dass der Markt heutzutage eher von Firmen wie HP dominiert wird – offenbar lag ich da falsch.
Wirtschaftlicher Erfolg ist das letzte was die OSS-Gemeinschaft will. Standardisierung? Hm.
Vielleicht war es nur eine Hoffnung: dass die Open-Source-Szene mehr als nur Idealismus verfolgt. Doch wirtschaftlicher Erfolg steht hier selten im Mittelpunkt. Vielmehr geht es darum, dass Programmierer ihre Fähigkeiten zeigen – in der Hoffnung, dadurch bessere Jobchancen bei kommerziellen Unternehmen zu erhalten.
Doch wer, wenn nicht diese Community, könnte Standardisierungen vorantreiben?
Stattdessen stehen wir uns oft selbst im Weg. Und immer häufiger frage ich mich, ob es überhaupt noch verantwortbar ist, Kinder in eine Welt zu setzen, die sich in so viele widersprüchliche Richtungen entwickelt.
Im Großen und Ganzen fühlt es sich an, als würde vieles aus dem Ruder laufen.
Von thunderbird gibt es einen Fork "betterbird", beworben als "thunderbird ohne Fehler". Statt dass die Programmierer ihr Fehlerbehebungen ins Hauptprodukt einlfießen lassen machen sie ein eigenes Produkt auf Basis des Hauptprodukts.
Ja, das ist genau das Gegenteil von Standardisierung. Wie gesagt, es war eine Hoffnung: dass es nicht nur unfähige Menschen gibt, die uns vermeintlich voranbringen wollen – wie ich selbst –, sondern auch fähige Menschen, die allerdings kein echtes Interesse daran haben, die Probleme der Gemeinschaft wirklich zu lösen. Stattdessen wirtschaften sie in die eigene Tasche. Wo Macht ist, ist auch Missbrauch – und genau daran scheitern letztlich alle Systeme.
Openoffice - Libreoffice, weil einem Teil der Programmierer die Lizenzbedingungen nicht gepasst haben.
Wie bereits erwähnt, sehe ich ein grundlegendes Problem in der unübersichtlichen Vielzahl an Lizenzen im Open-Source-Bereich. Diese Komplexität bringt uns meiner Meinung nach nicht wirklich voran. Letztlich scheint auch die Hoffnung auf eine faire Nutzung zu scheitern – am Missbrauch von Macht.
Audacity? Mehrere Abspaltungen wegen Datenschnüffelei, nur eine davon hat zusätzlich überlebt.
Ich benutze gerne Audacity, habe aber nun von dir gehört, dass es dabei möglicherweise Probleme mit Datenschnüffelei gibt. Könntest du mich kurz darüber aufklären?
Die OSS Bewegung könnte viel weiter sein wenn das nicht wäre. Aber das ist eben nicht der Sinn von OSS.
Ursprünglich hatte ich Idealismus im Kern der OSS erwartet, doch so scheint es nur noch darum zu gehen, sich als Programmierer zu profilieren.
Es gibt genügend Gründe OSS zu unterstützen, aber das ist keiner.
Welche Gründe gibt es dann noch, die OSS zu unterstützen, wenn sich nur einige profitieren und die anderen nicht einmal eine vernünftige Standardisierung erreichen können – mal abgesehen vom Lizenz-Chaos?
 
Wenn ich in mein Sax reinblase habe ich sofort einen Ton, das will ich am Computer auch haben.
Für die, die Sax gelernt haben, oder ein anderes Instrument, ist gegenwärtige Musikproduktion alternativlos. Der Rest, für den Instrumentalunterricht aus wirklichen oder vermeintlichen Gründen nicht in Frage kam oder kommt, die aber programmieren können (und sogar in der Freizeit wollen), werden sich halt anders behelfen. Sollen sich deren Versuche für Musiker und Musikgebildete doch lächerlich ausnehmen, Verachtung zu Lebzeiten ist in Künstlerkreisen Usus. Wiederum andere Nerds entwickeln KI-Chatbots, mit denen sie Webseitenbetreiber in den Burnout treiben und andere an die digitale Nadel hängen, weiß ja nicht, ist das besser?
Unsereiner sagt sich verschmitzt: Pöh, mir egal dass ihr euch was weiß ich einbildet auf eure fetten Autos, lass mirs nicht nehmen mit meiner Seifenkiste auf dem Standstreifen rumzupesen und doch, wir passen gnädig auf auf etwaige Pannenfahrzeuge der großen, überholen rechts und winken.[/ironie]

@ComputerArtist_ThL deine Fragen sind ja ganz interessant. Aber solange Antworten nur einer Hydra mehr und mehr Köpfe wachsen lassen, zeigt das, dass du gar nicht weißt, was du wissen willst, du willst nur Zeit schinden, laut Grübeln. Wärst du mit meditativer Versenkung besser dran. Oder mit MIDI. Oder lass es ganz sein, lass mal dein Unterbewusstsein ran, das nicht durch Grübeleien gestört werden will.
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben