AI/ neuronale Netzwerke für Effekte, Mixing

Im Midas HD96 ist KI integriert.

Nö. Da ist ein Uplink integriert zur Midas Cloud welche dann die gemachten Einstellungen als Trainingsdaten für das KI Programm verwendet und in der Folge dann die persönlichen Einstellungen für Instrumente analysiert und als Antwort dann später in Form von Presets zurückschickt. Kann man machen. Warum nicht. Muss man später schon nicht jede Einstellung immer wieder auf dem Touchscreens mühsam eingeben.

Man könnte natürlich auch gleich ein Template verwenden..... (;
 
Der immer wieder gemachte Fehler bei KI-Themen in der Kunst ist der, dass eine KI nur das Reproduzieren kann wozu sie trainiert ist. Alles was normal, main stream und von vielen als gut und normal bzw funktionabel geprüft und angesehen wurde, ist damit darstellbar.

Kunst und Musik sind aber kreative Disziplinen, wo NEUES gemacht werden soll.
Mit KI kann man allerdings sicher den 80% Standard-kontent abdecken, wie Schlager etc und Pop-Musik.

Also Folge wird KI-Musik aber so billig und für jedermann zu produzieren, dass es immer mehr Produzenten und immer weniger Musiker gibt. Musik in durchschnittlicher und guter Qualität wird Massenware Um so wichtiger ist es, sich dann von dieser Masse durch wirklich Neues abzuheben.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Da ist ein Uplink integriert zur Midas Cloud welche dann die gemachten Einstellungen als Trainingsdaten für das KI Programm verwendet und in der Folge dann die persönlichen Einstellungen für Instrumente analysiert und als Antwort dann später in Form von Presets zurückschickt.
Also das ist zwar eine recht simple, aber dennoch eine KI. Das Pult erkennt das Instrument und wählt automatisch ein Preset aus.
Ob die KI nun im Pult oder in der Cloud ist spielt keine Rolle.
ChatGPT ist auch in der Cloud.

@engineer Der immer wieder gemachte Fehler bei KI-Themen in der Kunst ist der, dass eine KI nur das Reproduzieren kann wozu sie trainiert ist. Alles was normal, main stream und von vielen als gut und normal bzw funktionabel geprüft und angesehen wurde, ist damit darstellbar.
Das ist doch beim Mensch genau so. Was er trainiert/lernt kann er anwenden.
Und eine KI ist durchaus in der Lage neues zu erschaffen. Genau wie beim Mensch beruht das neue aus den gesammelten Erfahrungen (also dem Training)
Beispiel gibt es in der Doku die ich früher hier angegeben habe (Netflix - Unbekannt-Killerroboter).
Da wird zum Beispiel eine KI trainiert einen Kampfjet zu fliegen. Zu begeinn war die Flugbahn wie das gehen lernen bei einem Baby. Nach einem halben Jahr 24/7 Training war die Software ein Killer. In einem Test gegen einen Top Kampfjetpiloten hatte der Mensch nicht einen einzigen Abschuss geschafft. Die Aussage war, das kein Mensch so fliegen würde. Bevorzugte Abschussvariante war der sogenannte Faceshot. Da fliegen beide Flugzeuge direkt aufeinander zu und schießen. Das ist ein sehr gefährliches Manöver, weil bei diesen Geschwindigkeiten die Reaktionszeiten im millisekunden Bereich liegen. Klarer Vorteil für die KI. Im Übrigen hat die KI zum Lernen nur die Physikalischen Eigenschaften eines Jets bekommen, keine Erfahrungsdaten von menschlicher Seite her.
Wenn so etwas kompliziertes wie Kämpfen im 3-Dimensionalen Raum möglich ist, warum soll es dann nicht auch in der Musik möglich sein?

Man sollte auch nicht vergessen, wieviel Energie und vor allem Geld gerade in die einzelnen Projekte gesteckt wird. Das man da auf dem militärischen Sektor schon viel weiter ist wie in der Unterhaltungsindustrie ist traurig, aber es folgt dem roten Faden, den die Menschheit da erschaffen hat.
Deshalb wird der Fortschritt (also das Training der KI) im zivilen Bereich wesentlich langsamer voranschreiten. Deshalb kann die KI auch noch nicht eine Standardeinstellung der Snaredrum dem Musikgenere zuordnen. Also welche Grundeinstellungen die einzelnen Parameter dabei haben sollen. Es gibt schlicht noch keine Trainingsdaten dafür. Midas beginnt die jetzt zu sammeln. Das bedeutet (und so sagt es Midas auch im Video - wenn mein Englisch nicht komplett versagt hat) das die KI in der Cloud mit jeder weiteren Trainingseinheit besser wird.
Aus anfänglichem erkennen des Instruments wird irgend wann das erkennen des Instruments und die passende Sound- und Dynamikeinstellung an der Stimmung des Instruments anzupassen.

Fakt ist, die KI arbeite im Midas und sie steht ganz am Anfang. Und ja, die Nutzer des HD96 sind die Trainingspartner der KI.
Was man draus macht wird man sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Ob die KI nun im Pult oder in der Cloud ist spielt keine Rolle

Das ist sogar das entscheidende Kriterium. Denn das erst ermöglicht ein personalisiertes Training der KI-Maschine, die dann den persönlichen Stil des individuellen Anwenders analysiert und diesen dann mit personalisierten Presets simuliert. Hat der doch erklärt im Video.

Das Pult erkennt das Instrument und wählt automatisch ein Preset aus

Wie gut diese Art Erkennung funktioniert hatte ich mal mit iZotope Neutron evaluiert. Das Plugin kann nicht mal unterscheiden zwischen High, Mid, Low und Floortom. In vielen Fällen wird das sogar als Bass erkannt. Auch eine eindeutige Unterscheidung zwischen E-Gtr und akustischer Gtr funktioniert nur so um die 50 / 50.

Das Aufsetzern so eines Konstruktes und anschliessendes Erkennen ist enorm zeitaufwendig. Mach ich das manuell bin ich schneller und habe nebenbei auch noch den Song mehrere male gehört und weiss dann was ich wo und wie machen will. Was ganz gut funktioniert sind die de-masking Funktionen. Nectar auf den Main Vocal und dann irgendwo eine Sammelstelle für die melodischen Instrumente, wo dann Neuton drin ist und das D-Masking der Vocal übernimmt. KI ist da aber auch nicht drin. Das ist fixer DSP Code. Der mag mit Hilfe von KI-Maschinen entwickelt worden sein.

Was den Live Mischer angeht, Mix Engineers die nicht in der Lage sind ein Instrument am Klang zu erkennen stehen sicher nicht vor der Konsole. Der könnte statt der KI gestützten Funktionen auch einfach einen Preset aus der Library nehmen. Hat der das Gerüst von der Session eingerichtet, speichert er das als Template ab und schon hat er eine personalisierte Vorlage. Einfach schnell, unkompliziert und ganz ohne Verbindung zu eine KI-Maschine, die er mit seinen Fähigkeiten anlernt ohne auch nur einen müden Dollar dafür zu sehen. Normalerweise müssten die den bezahlen, denn er stell für das Training wertvolle Daten zur verfügung.
 
Ist ja alles soweit richtig. Du unterschlägst dabei aber vollkommen, das die KI in diesem Bereich noch wirklich ganz am Anfang steht. Mit der Erfahrung die die KI da bis jetzt gesammelt hat ist sie mit dem 2. oder 3. Job von einem neuen Tontechniker vergleichbar. Es fehlt schlicht das Training.
Kein Tontechniker wird gute Arbeit ablegen, wenn er vorher nicht auch genügend Fehler gemacht hat. Das ist nichts anders wie Training.
Wo der Mensch natürlich einen Vorteil hat ist, das er auch nicht Artverwandte Erfahrungen übertragen kann. Das könnte die KI zwar grundsätzlich auch, doch ich bezweifle das die dafür benötigte Rechenpower aktuell zur Verfügung steht oder für so etwas bereitgestellt wird.
Deshalb kann der Mensch auch schneller lernen als die KI (die meisten jedenfalls).

Aktuell ist die KI sehr spezialisiert. Da gibt es kaum ein übergreifendes erkennen von Zusammenhängen.
Wenn der FoHler die Tom hört und sich nicht sicher ist, schaut er hoch welche das ist. Das kann ein Mischpult (noch) nicht. Damit will ich sagen das ein Mensch auf viel mehr erlerntes zurückgreifen kann wie eine KI. Ist doch klar das er das deshalb besser kann.
Und jeder FoHler stand irgendwann zum ersten mal vor einer Konsole. Ich weiß noch wie es bei mir war (grausige Erinnerungen) und im vergleich zu damals kann ich das heute schon einiges besser (auch wenn ich noch immer eher ein Hobby Mischer bin). Hier ist mal ein Link zu dem damaligen Erfahrungsbericht von mir. Liest sich recht lustig.
Lass aber die KI mal ein paar Jahre trainieren, dann sieht das wahrscheinlich schon wieder anders aus. Dann kann sie auch die Zusammenhänge der einzelnen Toms erkennen, weil sie genügend Erfahrung gesammelt hat, also eine genügend große Datenbasis.

Ein gutes Beispiel kommt aus der Medizin. Eine KI wurde trainiert Muttermale zu erkennen und auf Krebsrisiko zu untersuchen. Nach genügen Training war die Trefferquote höher wie die von erfahrenen Ärzten. Als die KI zu lernen begann, waren die Ergebnisse wohl eher mit einem Münzwurf zu vergleichen.
 
Du unterschlägst dabei aber vollkommen, das die KI in diesem Bereich noch wirklich ganz am Anfang steht.

Hä? Nur weil etwas nicht extra erwähne unterschlage ich was?

Bestenfalls stelle ich dem völlig überdrehten und abgefahrenen Hype um KI einige eher nüchterne Betrachtungen zur Seite.

Mit der Erfahrung die die KI da bis jetzt gesammelt hat ist sie mit dem 2. oder 3. Job von einem neuen Tontechniker vergleichbar.

"Die° hat keinerlei Erfahrungen gesammelt. Das ist ein Computer Programm. Die können alles mögliche aber sicher keine Erfahrungen sammeln.

Die Besonderheit von KI-Maschinen ist die Eingabe. Zum ersten mal kann ein Anwender Eingaben in menschlicher Sprache verwenden und muss nicht erst die Hürde überwinden eine Maschinensprache zu lernen. Was an Ausgabe zurückkommt ist wesentlich vom Design und den Trainingsdaten abhängig. Vergleiche mit menschlichen Eigenschaften und Fähigkeiten finde zumindest ich abwegig.

Wie auch immer, mal abwarten, vielleicht kommt ja doch noch was raus bei ein paar Jahren Training .... (;

Zu den anderen Ausführungen mag ich mich nicht äussern. Das hat mit dem Thema des Stranges nichts zu tun.
 
Die können alles mögliche aber sicher keine Erfahrungen sammeln.
Aber genau darauf basiert doch moderne KI im Gegensatz zu herkömmlicher algorithmischer Software.
Erfahrung heißt ja nur, man probiert etwas aus und schaut sich das Ergebnis an. Wenn das Ergebnis besser als vorher ist, wird das Ausprobierte in Zukunft wieder angewendet. Wenn nicht, wird es verworfen. So machen das Menschen und so macht das auch moderne KI.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Lass das doch, er will das nicht verstehen und gut ist.
 
Nö, so lange niemand ausfallend wird, bin ich durchaus an kontroversem Meinungsaustausch interessiert.
 
  • Gefällt mir
  • Haha
Reaktionen: 2 Benutzer
Na mal sehen:

Bildschirmfoto 2024-03-09 um 16.09.29.png

Das hat nichts zu tun mit der Art und Weise wie Menschen lernen. Das scheint durchaus angebracht: Vergleiche mit menschlichen Eigenschaften und Fähigkeiten finde zumindest ich abwegig.
 
Das hat nichts zu tun mit der Art und Weise wie Menschen lernen
Doch, würde ich schon sagen. Es ist nicht 1:1 das Selbe, aber das grundlegende Prinzip von Neuronen haben sich die Softwareentwickler ja beim Menschen abgeschaut. Also kann man nicht sagen, dass es nichts damit zu tun hat.
Und es geht ja um das Erledigen von Aufgaben und das möglichst pragmatisch. Und nicht um Zwischenmenschlichkeiten. Oder in wie fern findest du, dass persönliche Empfindungen und Emotionen bei einem Tontechniker dazu beitragen, dass er besser Arbeit erledigt, als eine potentiell gut trainierte KI?
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Das hat nichts zu tun mit der Art und Weise wie Menschen lernen. Das scheint durchaus angebracht: Vergleiche mit menschlichen Eigenschaften und Fähigkeiten finde zumindest ich abwegig.
Schau einmal hier rein https://www.wfb-bremen.de/de/page/stories/digitalisierung-industrie40/was-ist-ein-neuronales-netz

Ich finde dort ist recht anschaulich beschrieben, wie das Lernen eines Neuronalen Netzwerks / einer KI funktioniert und wie ähnlich dieses dem menschlichen Lernen ist.
 
  • Interessant
Reaktionen: 1 Benutzer
Es ist nicht 1:1 das Selbe, aber das grundlegende Prinzip von Neuronen haben sich die Softwareentwickler ja beim Menschen abgeschaut

Na wenn Du das alles so gut weisst, kannst Du mir ja mal die Grundlegenden Prinzipien von Neuronen erklären. Und wie die Software Entwickler das in Programm Code umgesetzt haben.

Und es geht ja um das Erledigen von Aufgaben und das möglichst pragmatisch. Und nicht um Zwischenmenschlichkeiten

Ist doch prima. Dafür taugen die. Die sind nun aber nun mal begrenzt auf die Trainignsdaten. Darüber hinaus geht nicht.

Oder in wie fern findest du, dass persönliche Empfindungen und Emotionen bei einem Tontechniker dazu beitragen, dass er besser Arbeit erledigt, als eine potentiell gut trainierte KI?

Das ist rein spekulativ da es ja keine KI-Machine gibt die sowas kann. Wenn es dann mal soweit ist, also nie, dann sehen wir weiter..... (;

Ich möchte nochmals auf den oben schon verlinkten Artikel Die Grenzen der KI verweisen. Da werden solche Aspekte beleuchtet.
 
Ist doch prima. Dafür taugen die. Die sind nun aber nun mal begrenzt auf die Trainignsdaten. Darüber hinaus geht nicht.
Auch das ist wieder falsch. Es gibt im Moment minderstens 4 Forschungsprojekte die sich damit beschäftigen wie eine KI lernt. Bei einer ist z.B. aufgefallen das eine Übersetzer KI nach dem Trainig 5 Sprachen übersetzen konnte auf die sie gar nicht trainiert war. Keiner versteht das im Moment. Und du vergisst das die Trainigsdaten weit, weit, weit über das hinausgehen was Menschen in Ihrer Lebenszeit an Daten erfassen können. Ich versuche seit Wochen ein Thema zu finden was mein Sprachmodel nicht beherscht (wie gesagt das LLM ist klein und läuft hier Offline) aber ich finde nichts. Weder Sportergebnisse der letzten tausend Jahre, noch philosophische Diskurse der Existentialisten, Fragen der theoritschen Physik, Riten der Aboregines. Ich habe noch nichts gefunden.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Und, wer das verfolgt hat, das Model für die Bildgenerierung ist vor knapp 1 Jahr veröffentlicht worden. Und nun schaut euch mal die neuesten Videos an. Das ist KI Produziert.
Vor allen das mit den Mammuts. :eek:
 
  • Wow
  • Gefällt mir
Reaktionen: 2 Benutzer
Darüber hinaus geht nicht.
Aber das ist doch beim Menschen genauso. Das erlebt doch jeder Musiker Tag für Tag: Wer nichts übt, bekommt auf seinem Instrument auch nichts auf die Reihe.

Das ist rein spekulativ da es ja keine KI-Machine gibt die sowas kann. Wenn es dann mal soweit ist, also nie, dann sehen wir weiter..... (;
Das ist keine Antwort auf meine Frage.

Na wenn Du das alles so gut weisst, kannst Du mir ja mal die Grundlegenden Prinzipien von Neuronen erklären. Und wie die Software Entwickler das in Programm Code umgesetzt haben.
Das können andere sehr viel besser, unzähliges Material an Erklärungen und Beispielcode ist nur einen Googler entfernt.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Also Folge wird KI-Musik aber so billig und für jedermann zu produzieren, dass es immer mehr Produzenten und immer weniger Musiker gibt. Musik in durchschnittlicher und guter Qualität wird Massenware Um so wichtiger ist es, sich dann von dieser Masse durch wirklich Neues abzuheben.
eigtl doch ganz cool, wenn in Zukunft kreatives und innovatives Mixing ein besonderes Herausstellungsmerkmal bleiben.
Gleichzeitig könnten Nutzer ja auch frische Ideen bringen und der Mixing Assistent unterstützt in Zukunft die handwerklich-saubere Abmischung? ^^

Was würdet ihr euch denn von einer AI-DAW wünschen?
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben