NAM (Neural Amp Modeler) UserThread

Nette Gitarre! Wenn meine Frau mir das Geld bewilligen würde...😉
 
Ich kann mir nur sehr schwer vorstellen, dass @Tocan kein Troll ist.
Da kann ich Dir das Gegenteil beweisen. Wie lange bist Du im Urlaub. PLZ 60 ist Frankfurt. Mainz und das Studio ist um die Ecke.
Dolby Atmos Studio im Wert von Millionen und monniert über 48khz bei einem 70€ NAM player :D
Das schlechteste am GP5 sind vmtl die AD/DA Wandler. Nicht die Abtastrate.

Nochmal sehr deutlich. Mir gehört das Studio nicht. Da ich mich für Davinci Resolve und Blackmagic interessiere im Zusammenhang in Verbindung mit 360 Sound und Video ist mir relativ klar wo in Deutschland die Konsolen stehen und was damit passiert. Ist einfach ein Interesse für Vintage Hardware.

Wir haben uns schon vor 4 Jahren für die Fairlight von Alfred interessiert. Und vor 2 Monaten zugeschlagen bevor sie auf dem Elektronik Schrott gelandet wäre. Die Monitore sind Touchscreens und haben das Originale Betriebssystem von Fairlight extra eingebaut. Alle Drehregler und Fader sind Touch Sensitiv und Motorisiert. Im Prinzip halt ein überdimensionaler Elgato Streamdeck Controller nur halt viel besser. Rechner hatte Fairlight damals HP z840 als Server Spezialanfertigungen. Wenn ich mir Deine Gitarrenanlage und die Gitarre ansehe, dann waren die um Welten teurer.


Das Ding ist letztlich, wie alle anderen digitalen pedals nur ein kleiner billiger Computer.
Da hast Du recht Materialwert bei Grosseinkauf so um die 5-10 Euro. Der Chip kann sogar nicht nur 48 kHZ sonder könnte auch 96 kHZ was letztlich zu einem wesentlich tieferen Raumgefühl beitragen könnte. Alles nur eine Frage der Firmware was freigeschaltet werden soll und wenn Valeton einen Bedarf sieht machen sie das. Wer keine 48 kHz mit Oversampling braucht kann ja immer zu 44,1 switchen. Hat dann halt mehr freie Plätze. Die 48 kHz sind wären halt was Zukunft angeht eine wesentliche Aufwertung.
Lass NAM halt in deinem 50qm Regieraum laufen und vermieten 20qm aus deinem 400qm tracking Raum um dir das entsprechende Audio-Interface leisten zu können und gut ist :)

Jetzt sind wir beim Thema. Du hast ja einige NAM files moderiert. Was hältst Du davon, weil es um die Ecke von Dir ist im Studio unter Anleitung eines erfahrenen Tonmeister, der seit 40 Jahren im Berufsleben steht Deine NAM Files unter Idealbedingungen nochmal zu bauen. dann hast die Möglichkeit einen Vergleich hin zu bekommen. Auch wie hoch der Einfluss von hochwertigen Mikrofonen dabei ist etc.
Ich würde den Alfred fragen ob er das mitmacht. Der Alfred ist vom 19. - 29. August in Mainz und kommt erst wieder im Dezember.

Das GP 5 wurde erst mal gekauft nur zum Lernen von Gitarre über Kopfhörer und wenn es keine 48 kHz eingebaut kommt ist es als Kreativ Werkzeug halt nicht brauchbar für mich. Wir hatten bei dem AI Trainer nen Totalausfall und einfach nicht installiert bekommen auf dem Mac und meine Hoffnung lag da bei Dir und nur deswegen habe ich mich angemeldet hier.

Kurz mir gehört nichts vom Studio und ich habe im Prinzip nur die MöglichkeitAb und an etwas unter professioneller Anleitung zu lernen. Kontakte zu knüpfen. Diese Fairlight ist halt historisch und die letzte, die jemals ausgeliefert wurde. Mir ging es erst mal darum, dass da kein Elektronik Schrott draus gemacht wird.

Ich bin derzeit im Urlaub und spiele das GP5 jeden Tag!

Anhang anzeigen 995718
 
Ich verstehe nicht ganz, warum es angesichts des Niveaus auf dem du arbeitest unbedingt ein GP5 sein soll.
Bereits für ein paar hundert Euro gibt's doch Geräte, die deine Ansprüche erfüllen und auch in handhabbarer Größe, sogar auch von Valetons Mutterfirma Hotone glaube ich, die Ampero 2-Modelle, aber auch etliche andere, manche sogar mit zumindest messtechnisch besserer NAM-Wiedergabequalität (so gut das GP5 auch ist). Schau doch mal auf YouTube nach Videos von Leo Gibson, Suchkriterium "NAM comparison". Da findest du gleich mehrere Videos in denen er verschiedene NAM Player vergleicht und kannst dir mal einen Überblick verschaffen
Ich habe mir Deinen Youtube Kanal mal angesehen oder besser gehört. Musikalisch ist klar dass Ihr mir alle als Gitarristen um Welten überlegen seid, da ich ja nur Sounds baue und kein Instrument spiele. Das gilt durch die Bank weg. Der GP5 ist nur dazu gedacht um bei ersten Schritten an der Gitarre nicht die Umwelt belästige. Ich werde versuchen vorwiegend clean Sounds im Stil Jazz zu bauen und dem Sound von Django Reinhardt nahe zu kommen. Ich habe jetzt erst als Erstausstattung eine Epiphone Sheraton von 2010 in Korea und ein Axe FX Standard Rack zugelegt. Dann war mein Budget erschöpft. Da ging nur noch der GP5. das Budget is jetzt erst mal ausgereizt.
 
Ich kann mir nur sehr schwer vorstellen, dass @Tocan kein Troll ist.

Ich habe mal eine Zusammenfassung von mit Guitarix erstellten Sounds für Dich hochgeladen. In der Beschreibung unter dem Video auf Youtube gibt es extra Infos.

Der Vorteil ist übliche Verdächtige wie NI Guitar Rig fressen Dir die Ressourcen an CPU und Ram weg. schlecht für ältere Rechner. Der übliche Industrie Ansatz bei solchen Programmen ist die Technik. Bei mir liegt der Fokus auf dem Artist und seiner Spielweise im einzelnen Song. Und das möchte ich einfach nachbilden.

Deswegen gibt es hunderte von Sound Zusammenstellungen. Der Nachteil liegt darin, dass Guitarix, trotz 15 Jahren Entwicklung meist an deutschen Unis es dieses Open Source Programm nur unter Linux gibt.

Hier ist der Code um es nach Windows oder Mac zu portieren:


Keine Ahnung ob Dir die Sounds gefallen und die Effekte. Auch ob sie authentisch sind und dem Artist gerecht werden. Ich habe nur gemerkt, nach etwa 900 Patches, dass ich rein darüber nicht weiter komme und weil ich kein Gitarrist bin, fehlt mir die Qualitätskontrolle. Ich komme auch nicht weiter ohne Gitarre und habe deswegen mir letzten Monat nach einem Jahr sparen eben das Instrument geleistet.
Ich bin derzeit im Urlaub und spiele das GP5 jeden Tag!
Vielleicht hast Du Zeit und Lust da mal in ner Zusammenfassung rein zu hören ob das was bislang etwa ein Jahr gedauert hat mal rein zu hören ob das Ganze brauchbar ist. Bislang hatte ich nur Reaktionen von Keyboarder. Das siehst Du auch an den verschiedenen anderen Videos. Die Sounds werden nur kurz angespielt. Sind hunderte von Videos. und nach einer Zeit werden die Videos gelöscht BTW auf privat geschaltet. für aktive Follower immer noch einsehbar. Oder für Abonnenten, des Kanals, die sich die Videos in Ihre Playlist holen.
Ohne richtige Gitarristen komme ich jedenfalls nicht weiter. Ob ich damit Troll bin? Keine Ahnung. Um mit den Sounds zu arbeiten brauche ich in der Hardware 48 kHz. Sonst fehlt mir das Futter. Die GP5 Hardware leistet das auf jeden Fall und könnte auch binaurales Dolby Atmos. Lust? Nach dem Ende des Urlaubs von Dir gibt es ein Zeitfenster von etwa 10 Tagen im Studio und dann erst im Dezember wieder.


View: https://www.youtube.com/watch?v=yZFzTAkzgM8&lc=UgzlmUTwC5II-yJxmLZ4AaABAg
 
Der Trainer und die Installation unter einer Typischen MAC Mini M4 Installation ist Leider total fehlgeschlagen oder ist veraltet. Da wird nicht berücksichtigt, dass der typische Mac M4 Nutzer sein Home Verzeichnis auf eine externe SSD legt. Das spart schlappe 1500 Euro alles in allem die man Apple nicht so mir nichts Dir nichts in den Rachen schieben will. Hat jemand das hinbekommen, der sein Home auf einer externen SSD hat?
 
Ich versuche NAM standalone seit bestimmt einem Jahr zun Laufen zu bringen. Ich probiere es immer mal nach einem Versionsupdate, es hat nie funktioniert .Ich kann alle 8 Eingangspaare meiner Rme Babyface Pro durchgehen. Kein Input , kein Output in ASIO. Es funktioniert einfach nicht.
Als Vst klappt es wunderbar.
 
@Tocan
Ok, tut mir Leid dich als Troll betitelt zu haben. Aber ich verstehe 99% der Begriffe nicht, die du nutzt, oder was du vor hast. (Und vll. solltest du dein Wissen & Vorhaben etwas zum Gunsten von simple-minded Gitarristen wie mir etwas abstrahieren :) )
Irgendwas mit Vintage Hardware, aber irgendwas mit Dolby Atmos.
Irgendwie sounds capturen und eine einzige Gitarrenspur auf 128 3d-RaumSound verteilen?

Das GP5 ist _nur_ ein NAM-Player.
Das Profiling / Neural Network Training passiert mit dem CLI Tool auf Basis eines TrainingSignals was du durch mit dem InputSignal vs deine SoundKette (idR Amp
Weiß auch nicht, wo da eine externe Festplatte im Weg stehen soll. Linux/Unix ist da eig. das mounting relativ egal. Viel wichtiger ist, dass der Rechner CUDA unterstützt für das Training.

Aber ich weiß auch nicht, was du profilen willst, da du ja irgendwie keine Amps hast?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Aber ich weiß auch nicht, was du profilen willst, da du ja irgendwie keine Amps hast?
Ich habe jede Menge Amps und auch CABs, die extrem gut sind nur halt keine physikalischen. Wenn Du den Code auf dem Github verfolgst und die Quellen durchsuchst sind da 15 Jahre meistens deutscher Unis und Audio Forschungsinstitute zu finden bis zum Fraunhofer. Und wenn man da tiefer umwühlt geht es bei den Impuls Responses alles zurück auf Steinberg und Cubase. Und da wird im Sourcecode eine Adresse genannt in der gezeigt wird wie man aus wave Musik Dateien Impulse responses rausfiltert. und zum Schluss bei der Röhre landet, die im jeweiligen Amp eingebaut ist.

Da Steinberg das einzige Unternehmen war, das damals diese Sounds und IR umsetzen konnte, dürften alle Firmen die das benutzen eine Patentrechtliche Copyright Verletzung begangen haben. Native Instruments und Konsortien lassen Grüssen. Bis hin zu den KI Engines, die das verwerten. Mein Mann der 5 Jahre KI programmiert hat im Rahmen seiner Doktorarbeit ist selbst nach 40 Jahren noch in der Lage das zu beurteilen Das was beim Training herauskommt lässt sich alles auf die Steinberg Cubase IR Sounds zurückführen und wir haben Steinberg vor Monaten gebeten ob sie das auch so sehen und da gibt es Leute die sich drum kümmern. Aber noch keine Antwort. Ich will letztendlich, wenn es eine Freigabe gibt diese IR nehmen als Grundlage und da eigene Sachen und Effekte in den Wave File einbetten. Wave ist nicht gleich Wave. Du bekommst zum Beispiel Räumliche Informationen in das Format rein. Kann der Client nicht damit umgehen spielt er halt statt immersive nur Mono und Stereo ab. Kann er die Informationen auswerten baut der Client eben selbst innerhalb eines stinknormalen Kopfhörers virtuelle Lautsprecher auf. Lassen die Valeton Leute alles bei CD44,1 dann bekommst Du auf den meisten Online Plattformen insbesondere auf Youtube nen Grottensound.

Gerade mal aktuell und besser verständlich. Habe Dir gestern ein Video auf meinem Kanal dazu hochgeladen mit nem Projekt und die kompletten Projektfiles gibt es zum Download. Aber das Wettstein Video ist besser verständlich.


View: https://www.youtube.com/watch?v=7GSvSQgqoR8
 
Irgendwie sounds capturen und eine einzige Gitarrenspur auf 128 3d-RaumSound verteilen?
Das geht recht einfach und schon lange. Meine eigene Sounddatenbank sind so 135000 Fussschritte in 96 KHZ etwa 10000 Vogelstimmen etc. alles in allem 18 TB an Wave Files. In den Livestreams, die mein Mann öfters mal macht gibt er oft 50 GB zum Download und Verwendung frei.

hole Dir mal den Explorer dort aber nimm keine Subscription! also nur den kostenlosen Explorer. Wenn ich aus einer einzigen Möwe in Sekunden einen Vogelschwarm machen kann, dann geht das auch mit der Gitarre und jeden Effekt. und das kann man in NAM einbetten. Die Software ist wenn Du nicht an ein Education Programm rankommst teuer. Aber ist mit EDU teilweise kostenlos.
Der Explorer ist kostenlos und dort gibt es auch ein kostenloses Buch zu 3D Sound.
Nochmal nur den Explorer! kein Abo nehmen! Ich spendier Dir ein paar Sounds dazu. Wenn Deine Gitarre mit nem Maschinengewehr oder nem Ferrari um die Ecke kommt und im Ausklang ein Trabbi tuckert kann man sowas in NAM einbetten. Ist schon ein Thema für nen Song.


Wagner hat das mal recht gut erklärt. Die 3D Wirkung wird durch Visualisierung extrem verstärkt. die ganzen Verfahren sind rein Psychoakustische Illusionen.

View: https://www.youtube.com/watch?v=Wlg7WQlkvvM
 
  • Interessant
Reaktionen: 1 Benutzer
@Tocan nochmal, es tut mir Leid: aber ich verstehe nicht was du vor hast oder wovon du hier schreibst.
Ich bin mir auch ehrlich gesagt nicht sicher, ob du das weißt und es im Stile ELI5 (explain it like i'm 5) nicht erklären/ abstrahieren willst, oder kannst.

Das hier ist ein Gitarristen-Sub. Ich befürchte deswegen antwortet dir hier oder im GP5 Thread auch keiner; ist nicht böse gemeint.

Ich kann auch nicht in ein Mixing/Studio Sub gehen, und dann dort über 6l6 vs el34 tubes Aufsätze schreiben, oder hier ausgiebig über AI/ML oder Cloud Engineering, was wiederrum mein Steckenpferd ist :)

Du willst eine Library aus Gitarren-Sound-Schnipseln erstellen, ähnlich wie deine 50tb an Möven-Sounds. Glaube ich :D
Da ist NAM der falsche Weg. NAM ist eine bessere IR um einen amp (A in NAM) zu modellieren. Nicht eine Effektchain.

Um künstlich Gitarrensounds zu erstellen, musst du die Programmieren und dann durch eine Chain (effekte, NAM, IR/CabSim) jagen.
Das geht auch ganz gut, wenn es sehr moderne / sterile Metal-Dinger sein sollen. Ansonten kommt der Tone halt durch die DI Spur vom Gitarristen selbst.
Die kannst du aber nicht aus dem fertigen Mix reverse-engineeren.
 
@Tocan nochmal, es tut mir Leid: aber ich verstehe nicht was du vor hast oder wovon du hier schreibst.
Ich bin mir auch ehrlich gesagt nicht sicher, ob du das weißt und es im Stile ELI5 (explain it like i'm 5) nicht erklären/ abstrahieren willst, oder kannst.

Das hier ist ein Gitarristen-Sub. Ich befürchte deswegen antwortet dir hier oder im GP5 Thread auch keiner; ist nicht böse gemeint.

Ich kann auch nicht in ein Mixing/Studio Sub gehen, und dann dort über 6l6 vs el34 tubes Aufsätze schreiben, oder hier ausgiebig über AI/ML oder Cloud Engineering, was wiederrum mein Steckenpferd ist :)

Du willst eine Library aus Gitarren-Sound-Schnipseln erstellen, ähnlich wie deine 50tb an Möven-Sounds. Glaube ich :D
Da ist NAM der falsche Weg. NAM ist eine bessere IR um einen amp (A in NAM) zu modellieren. Nicht eine Effektchain.

Um künstlich Gitarrensounds zu erstellen, musst du die Programmieren und dann durch eine Chain (effekte, NAM, IR/CabSim) jagen.
Das geht auch ganz gut, wenn es sehr moderne / sterile Metal-Dinger sein sollen. Ansonten kommt der Tone halt durch die DI Spur vom Gitarristen selbst.
Die kannst du aber nicht aus dem fertigen Mix reverse-engineeren.
vielleicht ist es einfach nur ein Generationenkonflikt von 40 Jahren, wenn ich mir die Videos so angeschaut habe. Ich komme von der Klassik und wage mich langsam durch meinen Mann beeinflusst an Fusion, Jazzrock. Er hat zwar auch ne klassische Ausbildung am Kontrabass aber hat damals ab und an als Vertretungs Bassist mit Michael Sagmeister und anderen gespielt. Hatte mal ein Stipendium für Berkley-

Nein wir hatten Dich einfach vielleicht falsch wahrgenommen. Es ging nicht um Möven. Es ging darum kreativ über den Tellerrand zu schauen. zu den NAM files von Dir lass einfach mal jemand kompetenten aus deinem Umfeld drüber hören wo da Verbesserungsbedarf ist. das erste was wir mit dem Mac mini M4 gemacht haben nen Cluster gebaut mit 5 MAC Minis. um Deep Seek drauf zu installieren. Ansonsten hier im Privatbereich 3 MusiKserver jeweils mit 1500 GB Ram und Doppel CPU bestückt. Ausgeschlachtet aus Rechenzentren zum Metallpreis. muss also nicht teuer sein. das ist aber das Steckenpferd meines Mannes. Ich selbst weiss wo der Einschaltknopf ist. Tiefer geht es nicht. Technik macht er und ich konzentriere mich nur auf den Sound.
 
Hallo an die NAM-Gemeinde,

erst vor ein Paar Tagen bin ich auf das Thema NAM gestoßen. Ich habe jetzt diesen Thread noch nicht durchgelesen, werde es aber vollständig die Tage unbedingt nachholen, das Thema interessiert mich jetzt sehr. Ich habe nur noch 2 Tage Testphase für das Neural DSP Soldano Plugin, in dieser Zeit würde ich gern testen, wie sich NAM mit dem Neural DSP Plugin verhält. @Lum hatte in seinem NAM-Vorstellungsthread das Thema gut erklärt, allerdings habe ich nicht verstanden, wie ich den IR des Neural DSP da rein bekomme. Ich bin gerade dabei, mich im Ableton Live 12 Lite einzuarbeiten. Habe bereits einige Plugins ins DAW auch integriert. Auch den Neural DSP. Und der NAM ist auch schon drin. Wenn ich also NAM Plugin im Ableton öffne, kann ich die Ampmodelle, die ich vom https://www.tone3000.com heruntergeladen habe, auch erfolgreich im NAM im "select model" Feld öffnen. Allerdings beim Feld "select IR" kann ich den Neural DSP nicht öffnen, hier wird ein .wav File erwartet.

Kann mir bitte jemand den Tipp geben, wie ich es mache? Oder mache ich irgendwas falsch? Vielen Dank im Voraus.
 
auch wenn es vielleich jetzt total ins OT abdriftet :D vielleicht sollte man das Thema generell ausgliedern?
danke @Tocan für deinen Post mit dem Youtube Beitrag zu Sound Particles, den fand ich sehr interessant (y)
Ich selber liebe es mit Partikelsytemen herumzuspielen und zu arbeiten, und benutze solche manchmal für Grafik und Video, aber bisher (noch) nicht für Audio. ich selber mache ja kein Sounddesign, insofern ist das mehr dann eine Kreative Spielerei für zwischendurch :)

Das geht recht einfach und schon lange. Meine eigene Sounddatenbank sind so 135000 Fussschritte
sind das 135000 gleiche oder hast du das kategorisiert? nach Untergrund, nach Schuhwerk, usw und dann für jedes Set ordentlich viele Variationen?

das Möwenbeispiel im Video fand ich insofern sehr interssant weil es auch die Modulatoren gezeigt hat, und ich hab da jetzt eine Frage, kann ich auch mehrere Audiodaten pro Partikelsystem hinterlegen und nicht bloss eine Datei?
zb ich habe 100 unterschiedlche Audiosamples von Möwen und möchte das der Partikelermitter aus diesem Pool von 100 Audiodateien für die einzelnen Partikel auswählt, und nicht bloss immer das eine gleiche Audiofile für jeden Partikel verwendet? geht sowas?

im Videobereich geht das, zb ich hab 500 Einzelbilder von Schneeflocken einem Partikelsystem zuegordnet und wenn ich es schneien lassen will erzeugt das Partikelsytem aus diesem 500 Bildern den Schneefall, und zusätzlich werden diese Partikel auch noch mit Modulatoren variert :) das ist schon optisch ein deutlicher unterschied als wenn jede Schneeflocke gleich aus sieht weil es das selbe eine Bild als Grundlage hat.

und bei den Möwenbeispiel hört man es auch, trotz Modulatoren, das es immer das gleiche Audio Sample ist
 
Kann mir bitte jemand den Tipp geben, wie ich es mache? Oder mache ich irgendwas falsch?
Du wählst kein IR in NAM, machst einfach ndsp als nächstes Kettenglied in DAW und lässt nur Cab Block aktiv.
Musst natürlich DI capture in Nam sein.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
sind das 135000 gleiche oder hast du das kategorisiert? nach Untergrund, nach Schuhwerk, usw und dann für jedes Set ordentlich viele Variationen?
Ich verwende als Basis Sounds von Lara Dale und Josh Reinhard. Das ist alles gut strukturiert und nur 12 Tasten am Keyboard zu spielen. Meine Mutter war Tänzerin im Staatstheater in Constanta. Wer Tanz kann und Ballett tut sich da viel leichter.
Das ist zwar so teuer wie eines der Kemper Fusspedale in Vollausstattung erspart mir als Grundset aber 300 paar Schuhe und ist damit billiger. Braucht es etwas spezielles kaufe ich dann doch ein paar Schuhe, die gut klingen müssen und die ich auf der Strasse nie anziehen würde.

Ich bin Mitglied mit meinem Mann in der Los Angeles Creative Production Group und der LA post production Group. Da es nicht so viele Audio Leute gibt werden Jobs auch im Low Budget Indie Film Bereich auch gut bezahlt. Foley Artisten haben in der Regel Pro Person 2500 Tagesgage. Im Indie Bereich mit den Libraries sind es so 600.- Euro. Ein Freund (Filmmaker) aus New York hat geheiratet und ist nach Singapore gezogen und hat dort eine Filmgesellschaft, die auf Asiatischen Horror spezialisiert ist und im asiatischen Raum für Game Produktion arbeitet. Und bei Ihm habe ich nicht so einen extremen zeitlichen Druck sondern kann zuarbeiten. Gerade Granular kann man wunderbar zum Gitarrensound lauern und in NAM umwandeln.


View: https://www.youtube.com/watch?v=L5Z6sB31s5s

und bei den Möwenbeispiel hört man es auch, trotz Modulatoren, das es immer das gleiche Audio Sample ist
Das war auch eine recht oberflächliche Demo ohne in die Tiefe zu gehen. Partikel, Glitches, Granular Sounds kann man wenn die Vorraussetzungen stimmen recht gut in NAM einarbeiten. Wir waren auf der Suche nach einem Gitarristen aus dem Frankfurter Raum um eventuell im August eben ein paar brauchbare Demos zu machen. Aber @Lum fehlt dazu die Motivation und Zeit. Und seine Schwerpunkte sind nicht in unserem Interesse. Dazu hat mein Mann zu lange AI programmiert. Von Sat3 wird gerade eine günstige mobile Fairlight angeboten. Und vielleicht fokussiere ich mich erst darauf. Zum lautlosen Üben taugt das GP5 ja. Für Live als Notnagel vielleicht auch. NAM ist zwar beliebt, weil kostenlos aber mir fehlt die Zeit das als Schwerpunkt zu durchforsten. Ich brauche klare und sauber getrennte Profiles und möchte nicht mit Matsch im Mittenbereich arbeiten.

Die Sounds zum Weitergeben stammen von professionellen Sounddesigner Firmen und wir gehen einmal im Jahr auf die Gamer Messe nach Köln. Da geben die Firmen kostenlose und frei verwendbare Sounds als Kostprobe. etwa 50 GB kommen da etwa pro Jahr zusammen und die werden sauber klassifiziert und in Soundminer und den Explorer eingepflegt Ich arbeite seit langer Zeit lieber mit dem Open Source UCS Universal Category System als mit dem Industrie Standard Soundminer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
@Tocan
Vielleicht erklärst du's mir nochmal, was du mit NAM genau vor hast.
Bei meinen NAM Profiling, war kein Gitarrist beteiligt.

Das ist DAW -> Interface mit guten Wandler (RME Babyface Pro FS in meinem Fall) -> Trainingssignal -> DI Box -> Gitarrenamp (Wahlweise mit Booster davor, aber trocken ohne Hall/Reverb/IrgendwelcheEffekte) -> Loadbox (Suhr RL oder UAD OX in meinem Fall) ohne IR -> Interface -> DAW
Dann gibt man das Trainingssignal & die Aufnahme (aka was deine Signalkette, in meinem Fall meist der nackte Amp) aus dem Signal gemacht hat in das NAM Training und berechnet das .nam file (weights für das WaveNet (conv. neural network welches NAM nutzt)) in 100-500 epochen auf der Grafikkarte (in meinem Fall RTX 4090) wo 300 epochs etwas unter 8 Minuten dauern.

In diesem Prozess ist keine Gitarre involviert, man modelliert einen Verstärker.

Was hast du jetzt vor um diese Biobliothek an Gitarrensounds zu erstellen? Wofür brauchst du einen Gitarristen?
Was kann an meinem Prozess oben verbessert werden unter optimalen Bedingungen?
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Du wählst kein IR in NAM, machst einfach ndsp als nächstes Kettenglied in DAW und lässt nur Cab Block aktiv.
Musst natürlich DI capture in Nam sein.
Vielen Dank @Petri. Da ich aber absoluter Anfänger in diesem Thema bin, verstehe ich nicht ganz wie ich NDSP als Kettenglied öffne und nur den Cab Block aktiv lasse. Ich habe jetzt im Ableton in eine Spur den NAM gezogen, dieser hat sich geöffnet. Ich habe in den Amfeld die.nam vom Mesa Amp geöffnet. Dann höre ich schon die Gitarre beim spielen. Danach habe ich aus der Pluginliste den NDSP in dieselbe Audiospur gezogen, NDSP Fenster wurde ebenfalls geöffnet. Sind NAM und NDSP dann automatisch verkettet? Ich habe anschließend den Soldano Amp einfach auf off gestellt.

Dann zum Vergleich in der zweiten Audiospur habe ich nur den NAM geladen, darin den selben Amp. Der Sound der beiden Spuren unterscheidet sich nun merkbar. Im IR-Feld des NAM (zweite Audiospur) habe ich nun eine Box von Tonehunt geladen. Der Klang hat sich verändert. Trotzden Sound in der 1. und 2. Spur ist unterschiedlich. Also habe ich dann in der "Verkettung" bei der 1. Spur es richtig gemacht? Sorry, aber NAM ist nicht wirklich "Idiotensicher" für einen Anfänger. Mir fehlt irgendwo die sichtbare Einstellung oder Statusmeldung, als Bestätigung, dass in der 1. Spur jetzt tatsächlich NAM-Amp und NDSP-Box im Betrieb sind.
 
@Harvester Of Sorrow
wenn du das NSDP Plugin öffnest, hast du ganz oben im Plugin diese Symbole

Bildschirmfoto 2025-08-15 um 21.54.54.png


damit kannst du die einzelnen Segmente im Plugin aktivieren und deaktiveren, indem du dort mit einem doppelklick draufklickst,
ist das Symbol Weiss = aktiv
ist das Symbol Grau = inaktiv

was Petri meinte, du mußt alle Segmente bis auf das CAB Segment, das ist der bei den Symbolen der Runde Kreis in der Mitte, deaktiveren.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
@Harvester Of Sorrow
das ist hier ist meine go-to effect chain beim Recording/Üben mit NAM in der DAW

1755287792300.png


Mein DI Signal geht ins Interface, dann, wie auch in der anologen Welt
  1. NDSP Instanz (VST Plugin) für "Vor dem Amp" (booster, octaver, compressor, noisegate)
  2. NAM (der eigentliche Amp)
  3. NDSP Instanz für "nach dem Amp" (Reverb, Delay, ...)
  4. Optional GainMatch, damit welcher Cab/IR dahinter auch immer kommt, das Signal nicht leiser oder lauter macht
  5. IR/CabSim - Eine weitere NDSP, oder GGD, oder was du willst als IR
NDSP als reiner IR sieht dann so aus
1755287995843.png


Heißt die anderen Blöcke sind mit rechtsklick einfach deaktiviert.
Hör nicht auf den bösen @exoslime , in Windows ist es Rechtsklick :D
 
  • Gefällt mir
Reaktionen: 3 Benutzer

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben