NAM (Neural Amp Modeler) UserThread

@exoslime , @Lum D-A-N-K-E-!!!!!
Genau das hat mir zum Verständnis gefehlt! Ich wusste nicht, dass man Bestandteile des NDSP auf diesem Weg (De-)aktiviert. Übrigens es geht in Windows sowohl mit Doppelklick, als auch mit Rechtsklick ;-) Habs soeben ausprobiert. Ich habe schon sogar das Nolly X Trial heruntergeladen, dachte, vielleicht ist es mit dem Soldano-Plugin so unklar.
Eure Antworten haben mich zu einem anderen, für mich unbekannten Ableton-Begriff "Rack" geführt. Das ist wohl die von Lum erwähnte Chain. Wie gesagt, ich bin absolut blutiger Anfänger. Hab erst jetzt gerade herausgefunden, wie man die Drums mitm Plugin im Ableton einprogrammiert. Das Ziel ist, ein HardRock Lied (ohne Gesang) aufzunehmen (Rhytmus Gitarre, Lead Gitarre, Bass, Drums). Habe auf die Schnelle jetzt etwas Tutorials über Rack in Ableton angesehen. Und nachgebildet mit NAM und NDSP Soldano. Im Rack dann einzeln deaktiviert und jedes Mal war es natürlich anderer Sound. Sieht dann so aus:


1755294127742.png



Ihr habt mir eine Tür geöffnet, hinter der 10 neue kamen :-D Aber find ich gut. Das war eine sehr große Hilfe, Vielen Dank nochmal.
 
  • Gefällt mir
Reaktionen: 4 Benutzer
@Tocan
Vielleicht erklärst du's mir nochmal, was du mit NAM genau vor hast.
Bei meinen NAM Profiling, war kein Gitarrist beteiligt.

Das ist DAW -> Interface mit guten Wandler (RME Babyface Pro FS in meinem Fall) -> Trainingssignal -> DI Box -> Gitarrenamp (Wahlweise mit Booster davor, aber trocken ohne Hall/Reverb/IrgendwelcheEffekte) -> Loadbox (Suhr RL oder UAD OX in meinem Fall) ohne IR -> Interface -> DAW
Dann gibt man das Trainingssignal & die Aufnahme (aka was deine Signalkette, in meinem Fall meist der nackte Amp) aus dem Signal gemacht hat in das NAM Training und berechnet das .nam file (weights für das WaveNet (conv. neural network welches NAM nutzt)) in 100-500 epochen auf der Grafikkarte (in meinem Fall RTX 4090) wo 300 epochs etwas unter 8 Minuten dauern.

In diesem Prozess ist keine Gitarre involviert, man modelliert einen Verstärker.

Was hast du jetzt vor um diese Biobliothek an Gitarrensounds zu erstellen? Wofür brauchst du einen Gitarristen?
Was kann an meinem Prozess oben verbessert werden unter optimalen Bedingungen?
heraus kommt Matsch ohne Dir zu nahe zu treten und das ist das was ich bei NAM bislang höre. Clean oK aber sobald da was hinzu kommt höre ich Matsch wenn ich das mal vorsichtig so sagen darf ohne Dich anzugreifen. Die RME sind extrem gut färben aber auf Hifi und in der Anleitung des Fractal AXE den ich ja habe als Rack wird sogar deutlich darauf hingewiesen, dass man dieses Interface nicht benutzen sollte. Welches AI Verfahren verwendet Anaconda. Zeige mir doch mal den Code? Vielleicht liegt es daran. Oder eben wie und was Du da auf Youtube hochlädt. Youtube liefert bekanntermassen ja einen Grotten Sound und wir haben gestern das in einem Livestream nochmal besprochen und mit KI nen Song generiert auf Basis der Projektfiles, die ich zu meinem Song Aurora zum Download dazugegeben habe. sollte ich NAM verwenden für Produktionen, dann nur als Fork. der Ansatz ist interessant. egal welcher NAM file verwendet wird ob es Deine sind oder andere, es gibt kein Urheber Recht und kein Copyright dafür. Mein Ansatz ist das Trainings Signal und die IR zu manipulieren. Genau das geht.

Update: NAM ist mir egal. Die Technik und Programmierung mache ich eh nicht. Dafür ist mein Mann zuständig. Ich begrenze mich auf den Einschaltknopf des PC und das was ich höre. Und mein Mann arbeitet nicht mit einer Plugin Gui sondern auf Terminal Ebene. Bei Technik hat er auch ein Veto Recht insbesondere auf Datensicherheit Ebene. Der NAM Ansatz hat aber jede Menge Luft nach oben. Mir ist wichtig, dass letztlich alles in Noten transkribiert werden kann. Also jeder Gitarrist Dinge mit seiner Gitarre umsetzen kann. Dafür gibt es halt gute Studio Gitarristen.

Ich selbst arbeite mich ja nur in Gitarren ein um das Instrument verstehen zu lernen. Bislang gebe ich solche Spuren an die Nevo Studios in Schweden ab. Deren IR verwende ich auch dann im Mix mit dem AudioThings Fog Convolver 2 und AudioThinks Speakers Plugin. Ob das NAM dazu kommt ist noch völlig offen. Mit dem was die KI da bislang erzeugt vom Hörerlebnis und um emotionale Zentren im Gehirn zu triggern auf jeden Fall klares Nein bislang. Da verlasse ich mich auch auf die medizinische Expertise meines Mannes.

Ich denke auch, dass man das Thema lassen sollte und stimme @exoslime auf Drängen meines Mannes zu. Mich persönlich interessiert nur das Audio unter dem Strich und nicht was verwendet wird. das ist mir egal. Die Positionen sind zu weit entfernt. Für @exoslime wäre weil Interesse besteht das Jahrestreffen von Mischen Impossible aufgrund der Räumlichen geringen Entfernung interessant. Das Treffen findet jährlich statt und ist kostenlos. Und Hobby User werden akzeptiert wenn Plätze freibleiben. Die Teilnehmer bringen Ihr Equipment mit und es gibt einen Thematischen Schwerpunkt. https://www.mischen-impossible.eu/
 
Zuletzt bearbeitet:
@Tocan Hmm,

  1. Was du auf YT von mir hörst ist nicht nur NAM. Sondern ein Gitarrist, eine Gitarre und 4 Plugins (PreAmp Effects, NAM, Post Amp Effects, CabSim/IR) Lad dir doch einfach die NAM files runter und probiere sie aus? Der Matsch kommt, weil ich den Sound, das Cab, die Mics usw. so mag. Aber der Sound ist zum Größten Teil eine Cab/Mic/Gitarren und Mixing Sache. Der Amp / NAM hat da nicht den größten Anteil. Bei meinen Studio- und Albenaufnahmen arbeite ich mit anderen Sounds und SignalChains und ein Einzel-Gitarrensignal hat eh nichts mit dem End-Mix und allem EQ-ing was damit verbunden ist zu tun.
  2. RME hat gute Wandler; das Studio meiner Wahl schwört darauf. Warum bei einem Axe FX, welches du eh mit SPDIF/Digital In aufnefhmen solltest, was widerrum die Wandler Trivial macht beim Recording, RME oder manche Interfaces meiden solltest, ist mir hier nicht so klar.
  3. Anaconda _nutzt_ gar kein Model. Anaconda ist ein Package Management und Dependency Tool (mit Laufzeit für local execution) für Python und R. NAM nutzt WaveNet: https://github.com/sdatkinson/neura...b2da0c1a9e02b65518314/nam/train/core.py#L1386 (mit einem weirden Fallback auf LSTM, welches aber nie genutzt wird und auch nicht zu gleichwertigen Ergebnissen kommen würde)
Wenn du NAM forken möchtest um mit anderen Trainingssignalen oder ConvNN zu arbeiten: Viel Erfolg, halt aus auf dem Laufenden :)

Da du nun aber zurückruderst und eig. doch nichts mit NAM oder Technik zu tun haben möchtest und ich immer noch nicht verstehe, was du eig. erreichen wolltest, stimme ich dir zu, dass das etwas viel off-topic und Verwirrung ist für einen NAM User-Thread :)
Ich mag deinen Enthusiasmus, aber ich glaube da fehlt noch etwas Grundlagen-Forschung, da es den Eindruck macht, dass du beim Dunning-Kruger Effekt noch im ersten Viertel bist.

Ich persönlich kenne mich nicht mit Mixing/Production aus. Nur mit Songwriting, Gitarren (speziell AmpModelling) und Vocal Arbeit, dabei helfe ich gerne!

Ich hatte nie einen 1:1 Vergleich von NAM zu echten Amp hochgeladen. Aber hier sind Reverb/Delay und CabSim die gleichen.
Echter Amp:

View: https://www.youtube.com/watch?v=gXcPq3DdbKw

NAM:

View: https://www.youtube.com/watch?v=zprk4M6qy7o

Es ist ein anderer Amp UND nam vs echt (und vA Singlecoil vs Humbucker) aber dennoch sieht man, wie viel IR (Box, Mics) und Effekte den Gesamtsound prägen.
 
Zuletzt bearbeitet:

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben