AI/ neuronale Netzwerke für Effekte, Mixing

ich denke da deckt sich unsere Verständnis von dem Begriff nicht ganz, aber ist jetzt auch nicht so wichtig als müssten wir hier das im AI Thread noch weiterführen
Frohe Ostern 🐰🐣
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Und wenn jemand immer noch glaubt das KI was mit maschinellem lernen zu tun hat und sich gruseln möchte:

View: https://www.youtube.com/watch?v=Sq1QZB5baNw

Achtet mal auf die weitergabe des Apfels, das würde kein programmierter Roboter tun. (ich habe früher Roboter programmiert). Und auf die Sprachpause und sein "Ähh"...

Die Modelle sind einfach gut. Ich denke Verwirrung herscht ein bisschen weil die Hersteller immer "neue" Versionen herausbringen (Sonu V1, V2, V3) das aber keine Veränderungen an den Modellen sind sondern nur erweiterte Trainigsversionen,
So ist Stable Diffusion 1.4 mit Laion 5B Bildern in 256 x 256 Pixeln trainiert,
Stable Diffusion 1.5 mit Bildern in 512 x 512 Pixeln
und Stable Diffusion XL mit Bildern in 1024 x 1024 Pixeln. Die Modelle sind gleich geblieben.
Auch im LLM Bereich. ChatGTP 4.0 ist ein Model das sich mit sich selbst unterhält und aus 8 Spezialisierten Chat GTP 3.5 Modellen besteht.

Also fehlt es der Musik KI an Trainigsdaten (s.o.).

Aber wenn erst mal einer das finanziert und das Model mit ALLEM auch aus der Theorie (Mittelalter, Klassik, Jazz, Moderne) trainiert wird kann man ihr sagen, hier habe ich ein schönes Rockriff, zeig mir mal ein Solo dazu in myxolidischer Skala...
braucht eine KI 3 Sekunden...
 
  • Interessant
  • Gefällt mir
Reaktionen: 3 Benutzer
Die rechtlichen Fragen werden Gerichte weltweit in den nächsten Jahren und Jahrzehnten beschäftigen. Das wird wohl kaum hier im Forum geklärt werden. ;)

Die Qualität der Musik, die mit ML Methoden erzeugt werden kann, nimmt derweil immer weiter zu.
Im Thread-Titel geht es im AI für Effekte und Mixing. Inzwischen wird seit mehreren Seiten diskutiert, wie ganze Musikstücke quasi auf Knopfdruck erstellt (und dann per AI wieder in Stems zerlegt) werden können.

Ich bin gespannt wo das alles hinführt.

Hintergrundmusik für Präsentationsvideos, Warteschleifen, ... oder zum Entspannen. Da kann ich mir durchaus vorstellen, dass ein ML Model einfach live endlos Musik mit vorgegebener Stimmung/Atmosphäre erzeugt.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Hintergrundmusik für Präsentationsvideos, Warteschleifen, ... oder zum Entspannen. Da kann ich mir durchaus vorstellen, dass ein ML Model einfach live endlos Musik mit vorgegebener Stimmung/Atmosphäre erzeugt.
das hat mich gerade getriggert, sowas wäre doch super interessant wenn das zu Therapeutische Zwecke eingesetzt wird, über zb Sensoren wird die Stimmungslage des Patienten analysiert und auf Basis dessen AI eine Musik generiert die einen maximal effektiven positiven Einfluss ausübt.
 
  • Gefällt mir
  • Interessant
Reaktionen: 2 Benutzer
das hat mich gerade getriggert
mich auch, deshalb habe ich mich mal mit ChatGPT drüber unterhalten. Eine Antwort war dann die:

"...
Es gibt einige spannende Projekte und Forschungsinitiativen, die sich mit der Entwicklung von KI-generierter Musik beschäftigen, insbesondere im therapeutischen Kontext. Ein paar Beispiele dazu:

  1. Endel: Eine App, die algorithmisch generierte Klänge und Musik verwendet, um Konzentration, Entspannung und Schlaf zu fördern. Endel nutzt verschiedene Datenpunkte, darunter Wetter, Tageszeit und Herzfrequenz (über Integrationen mit Smart Devices), um personalisierte Soundscapes zu erstellen, die sich an die Bedürfnisse des Nutzers anpassen.
  2. Brain.fm: Bietet Musik, die von KI generiert wird, um den Nutzer in einen Zustand tiefer Konzentration, Entspannung oder Schlaf zu versetzen. Die Entwickler von Brain.fm arbeiten mit Neurowissenschaftlern zusammen, um Musikstücke zu erstellen, die spezifische kognitive Zustände fördern sollen.
  3. Mubert: Ein weiteres Beispiel für die Nutzung von KI zur Erstellung von Musik, die auf die Bedürfnisse des Nutzers zugeschnitten ist. Mubert fokussiert sich auf die Erstellung von Endlosmusik für verschiedene Aktivitäten und Stimmungen, von Entspannung bis hin zu Fokussierung und Bewegung.
  4. AI Music: Ein Unternehmen, das KI nutzt, um dynamische Musik und Audioinhalte zu erstellen, die sich in Echtzeit an die Hörpräferenzen und das Engagement des Nutzers anpassen können. Dies kann auch therapeutische Anwendungen haben, indem Musik basierend auf dem emotionalen Zustand des Nutzers personalisiert wird.
Diese Beispiele zeigen, wie KI genutzt werden kann, um Musik zu schaffen, die nicht nur unterhaltend ist, sondern auch spezifische psychologische oder therapeutische Effekte hat. Der Schlüssel liegt in der Fähigkeit der KI, komplexe Muster und Präferenzen zu lernen und anzuwenden, um Musik zu generieren, die auf individuelle Bedürfnisse zugeschnitten ist.
..."


Ich habe daraufhin ChatGPT gefragt was dann aus der guten alten Klangschale und der 432HZ-Stimmung werden soll. :)
 
  • Interessant
  • Gefällt mir
Reaktionen: 4 Benutzer
Es gibt einige spannende Projekte und Forschungsinitiativen

Ich wette, diese ganzen Psycho-Musik-Apps mischen noch Binaurale Beats in den Mix. Damit kann man zwischen Hochstress und Tiefschlaf so ziemlich jeden Zustand anreizen. Richtig abheben tut die ganze Geschichte, wenn Puls, Bewegungen, Klang der Stimme etc. vom Smartphone des Hörers zurück gemeldet werden - dann kann die Software z. B. gezielt gegensteuern, wenn jemand wütend ist oder einzuschlafen droht. Auch eine Art von Bio-Feedback. :unsure:

Im Thread-Titel geht es im AI für Effekte und Mixing. Inzwischen wird seit mehreren Seiten diskutiert, wie ganze Musikstücke quasi auf Knopfdruck erstellt (und dann per AI wieder in Stems zerlegt) werden können.

So schnell geht das heutzutage. Mit den neuen Chips lassen sich AIs so schnell trainieren, dass man sich nur noch etwas Verrücktes wünschen muss und - puff - existiert es. 🪄

Die teure Klangschale würde ich trotzdem nicht wegschmeißen. Du könntest ja den Salat darin anrichten, sofern sie lebensmittelecht ist. 🥗
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Die teure Klangschale würde ich trotzdem nicht wegschmeißen. Du könntest ja den Salat darin anrichten, sofern sie lebensmittelecht ist. 🥗
Genau. Sogar für deren Verwendung in Verbindung mit K.I. hatte ChatGPT Ideen, Salat kam aber
nicht vor :) .
 
Sogar für deren Verwendung in Verbindung mit K.I. hatte ChatGPT Ideen, Salat kam aber nicht vor :) .

Salatschüsseln sind auch old-style analog. Trotzdem werde ich meine Gitarren jetzt nicht nicht als Tennisschläger recyceln, sondern weiterhin in Ehren halten.
 
Habe mit ChatGPT den Faden weitergesponnen und mir einen Prompt für Suno.ai kreieren lassen. Leider versteht Suno diesen nicht genau, bzw. kann es (noch) keine speziellen Wünsche nach Instrumenten erfüllen. Naturgeräusche, Klangschale und Didgeridoo hat es nicht verwendet.
Einer der zwei Songs die am Ende rauskamen hat aber das Potential mein neuer Smartfönweckruf zu werden:

"Morning Harmony"

 
  • Gefällt mir
Reaktionen: 4 Benutzer
Man verknallt sich regelrecht in manche Songs. Spaßeshalber habe ich mal Hänschen Klein im Swing Gewand neu vertonen lassen. Danke, suno! :)🎶
 

Anhänge

  • Hänschen klein.mp3
    2 MB
  • Gefällt mir
  • Haha
Reaktionen: 3 Benutzer
Eine Text-To-Drummer oder Text-To-Bassist - K.I. wäre toll. Eine verbesserte Form der Bandmatefunktion in den Toontrack-Plugins sozusagen. Bandmate ist schon ganz okay, aber ich nutze dann doch lieber Tap To Find. Und das findet halt nur fertige Midifiles. Für Surfrock hat Toonetrack aber nichts im Angebot für den ezDrummer.
Wenn man dem K.I.-Bandmate einfach ein Riff senden könnte und dazu per Text den Befehl "Spiel mir dazu etwas in der Art von (Song) und/oder (Band), und das würde er hinbekommen und dem Gitarrenpart Selbst anpassen, wäre das schon der Hit. Hoffentlich kommt das bald, das würde mir sehr viel Zeit sparen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
KI arbeitet eben nicht unbedingt strikt deterministisch, wie du es nahelegst. Gleiche Abfragen führen z.B. eben nicht zu gleichen Ergebnissen.
Moment, gleicher Prompt + gleicher Seed-Wert müssten - ohne weiteres Training - doch theoretisch zumindest immer den gleichen Output haben, ¿no?

Natürlich ist das hier noch ausbaubar, aber das ist v3 ... schauen wir bei v5 mal weiter
Ist schon erstaunlich, wie viel Noise und Glitches innerhalb einer Generation Software da schon entfernt worden sind! Bei V2 hat der auch mal nur Brummen ausgegeben und mittlerweile kannst du bei Musikstil auch schon Künstler oder abstrakte Konzepte eingeben

Reggae ist auch so ein Ding wo gefühlt jedes zweite Ergebnis gleich klingt
nee, also habe schon tagelang unterschiedlichste Dub und Bass Music mir ausgeben lassen. Musst du kreativere Prompts eingeben ;)

Eine Text-To-Drummer oder Text-To-Bassist - K.I. wäre toll. Eine verbesserte Form der Bandmatefunktion in den Toontrack-Plugins sozusagen. Bandmate ist schon ganz okay, aber ich nutze dann doch lieber Tap To Find. Und das findet halt nur fertige Midifiles. Für Surfrock hat Toonetrack aber nichts im Angebot für den ezDrummer.
Gib mal bei Suno bei Stil 'Surfrock Drums solo recording" ein. Musst du halt ggf etwas zurechtschneiden, aber geht schon alles

Was mich noch beschäftigt hat: braucht man immer gleich Neuronale Netzwerke? Hier hatte einer nach Presets für seinen Synthesizer gefragt, das geht mir Zufallsparametern und etwas manueller Nachbesserung auch schon seit Ewigkeiten (habe kürzlich aus Jux und Dollerei in einer Minute mit einem Choir Plugin ein Synth-Lead gebaut)
 
Gibt es irgendwo eine Liste mit den Musikstilen und zusätzlichen Beschwörungsformeln, die suno beherrscht?
schätze nicht, aber was beim Feld Style of Music meistens klappt:
'Genre (also was auch geläufig ist), 'Subgenre', 'Instrumentierung', 'Stimmung' (dark, heavy, happy...)

Also etwa 'Industrial Dub EDM Synthesizer Viola happy' ^^
 
  • Interessant
Reaktionen: 1 Benutzer
  • Interessant
  • Gefällt mir
Reaktionen: 2 Benutzer
Bezüglich der Rechtsfragen:
Hier ist die MIT Lizenz in form einer traurigen Jazz-Ballade. :ROFLMAO:
(natürlich AI generiert)
Das muss dann nur als letzer (oder erster?) Song auf jedes Album.

 
  • Haha
Reaktionen: 2 Benutzer
Hier mal was für Mixing: Techivation AI-Loudener. Techivation ist Spezialist für DSP Coding. Deren Plugins sind nicht die üblichen Hämmer die den Sound bis zur Unkenntlichkeit verbiegen. Die sind subtil und sehr gezielt einsetzbar. Die AI Variante basiert auf der ursprünglichen M-Louder DSP hat aber zusätzlichen AI generierten Code mitbekommen. Da ist tatsächlich ein Neural Network drin. Zu sehen ist das einerseits am Foot Print, das hat über 350MB Code. Andererseits am CPU Load. Der ist erstaunlich gering. Ich vermute, die rechnen den AI Teil auf den ML Compute Units. Apple MAC, was ich verwende, hat davon reichlich.

Was macht das Teil? Ich habe das mal auf alle Spuren einer Mischung gelegt und dann "angelernt". Der Effekt ist ein klarerer und akzentuierterer Sound am Ausgang. Wie wenn man was Ariel drüber schüttet um den Grauschleier zu entfernen... (;

Kommt gut. Das Funktioniert mit allen Sound. Egal was man da reinschickt. Demonstrieren kann ich das mit der Mischung nicht, da es nicht öffentlich verwendet werden darf. Falls es interessiert. ziehe ich es mal in eine andere Mischung rein.
 
  • Gefällt mir
Reaktionen: 1 Benutzer

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben