Glaskugel: Amp Modeling der Zukunft

Welchen? Den produzierten der Aufnahme, oder den Sound der vermutlich im Studio war (den Gitarristen im Spiel beeinflusst hat)?

Gruß
Martin

Ein guter Punkt. Exakt das spielt ja keine Rolle mehr. Ich selbst würde den Album-/Studiosound bevorzugen.
 
Ich selbst würde den Album-/Studiosound bevorzugen.

Als Zuhörer vielleicht ... als Musiker eher nicht. Aber On-Top ist dies sicher auch eine Frage des Genre und der Hörerfahrungen.

Ich bin zumindest immer noch lieber bei einem Clubgig der B-Liga (natürlich und ungeschönt - und gerne mal mit einem Fehler, der Interaktion der Band usw.), als in einem Stadion voller produzierter Sounds und Moves der Giganten. Ich vermute das diese Konditionierung wesentlich dazu beiträgt, dass ich das "Real Thing" bevorzuge.

Sowas hier ... Die Aufnahme ist aus Nashville, die 3 habe ich aber mal in der Maui Sugar Mill in Ventura gesehen (Monday Night Blues in LA) ...

P.S. man achte auf die vielen PU Wechsel im ersten Part des Solos ... und die Art wie sich die 3 immer wieder selbst überraschen bei 6:10 ...


View: https://youtu.be/FNeaDx9uMAg

unnütze Beiwerk (Gesang

Auf der MuMe haben sie mal im stillen Kämmerlein - und mit absolutem Aufnahme Verbot - die Originalspuren von Bowies "Heroes" gespielt. Ich bin mir nicht sicher, ob ich einzelne Spuren wirklich haben mag - im Kontext wirkt das Cool, losgelöst eher abschreckend. Und wen du ehrlich bist, spielst du zuhause/alleine doch auch andere Sounds als im Bandkontext. :) ... (weshalb das mit "fertigen Helix Sounds aus dem stillen Kämmerlein" auch so oft schief geht, wenn andere Live Musiker dazu kommen.)

Modeller in Verbindung mit KI werden daher - Glaskugel ON - aus meiner Sicht interaktiv die Sounds auf das Umfeld abstimmen, damit es in den Mix und das "große Bild" passt. Der Modeller gibt dir "zuhause" (er hört mit was um dich herum passiert) mehr Bass und Raum dazu, beschneidet dich im Proberaum dann um die Frequenzen, mit denen ihr euch in der Band kannibalisiert ... usw.

Gruß
Martin
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4 Benutzer
Du sitzt dann auch hier noch vor deinem LapTop, suchst dir einen schönen "Glaskugel" Giarrensound aus, wahrscheinlich was classic vintage, und spielt dann mit der Maus virtuell Gitarre.
So wie bei Rob Papens RG VST-Plugin was unser Keyboarder immer wieder gerne verwendet um uns Gitarristen zu zeigen wie er sich das so vorgestellt hat :)
 
Zuletzt bearbeitet:
Was ist The real Deal? Ich höre das ja auch immer aus Thomas Blugs Mund.
Das, was wir als Studioproduktion (als Gitarrenton) hören, ist nie The real Deal, sondern teilweise re-ampt, grundsätzlich abgemischt, overdubbed (mit dem gleichen Riff über unterschiedliche Amps/Effekte). Dennoch kommt ein Gesamtton raus, mit dem man dann umgehen kann. Der Einfluss der beim Einspielen gewählten Gitarre(n) ist da ja schon drin (inkl. Pickupposition, Stellung der Potentiometer).
In der Auftrittsversion gibt es leider auch genug Positionen im Raum, die das, was aus Boxen (PA und/oder Cabinets) eingegeben wurden, höchst unterschiedlich wahrnehmen. Auf der Bühne stehend, hört man noch das Fundament des eigenen Cabinets, vor der Bühne ist der Klang mitten- und höhenreich.
Beim Realdeal sind wir doch immer schnell bei der Psychoakustik: Das Sichtbare wird auf das hörbare übertragen.
Jimmy Page mit Les Paul und Marshall und es war auf dem Album eine Tele am Supro.
Gleiches gilt für die Band Periphery, alle Gitarristen haben ihre Signature-Gitarren, im Studio wird gespielt, was Spaß macht. Nicht zu vergessen die Musiker, die auf der Bühne Endorsermaterial nutzen, zum Aufnahmeprozess oder allgemein zum Kreativ sein etwas ganz anderes verwenden.

Ich bin bei Dir, @hack_meck, dass in der Aufnahme- und Auftrittssituation (Bandkontext) das Frequenzmanegement relevant ist, was allein im Schlafzimmer spielend nachrangig ist (außer man nimmt auf). Rücknahme der Bassfrequenzen im Gitarrensignal, denn sonst gibt es mit dem Bass (sich aufhebende) Interferenzen.

Wie gesagt, ich fände das praktisch, wenn ein Gerät einfach nur den Gesamtton nachbilden kann (ohne im Detail zu differenzieren, welcher Amp, welche Effekte usw.).
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich bin zumindest immer noch lieber bei einem Clubgig der B-Liga (natürlich und ungeschönt - und gerne mal mit einem Fehler, der Interaktion der Band usw.), als in einem Stadion voller produzierter Sounds und Moves der Giganten.

Ich hab mir auf Spotify das neue Album von Larkin Poe angehört und letzte Woche das Konzert in der Thalia Hall / Chicago auf YouTube angesehen >> klingt längst nicht so „glatt“ wie die Studioaufnahme, aber wie Du sagst „natürlich und ungeschönt“, aber geil.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Schöne Sache dieses DI-Matching :)
das ist es wirklich, aber nicht unbedingt was neues, ich kann mich gut erinnern als das Thema damals vor gut 20 Jahren im Andy Sneap Recording Forum diskutiert und angewandt wurde
Mit der damals noch neuen Match EQ Funktion von Ozone 3 in 2003, da wurden schon damals wie verrückt DI und auch Amp Tones gematched und auch ausgetauscht.
Auch in der AXE FX Community gab es schon früh DI Tonematches, für Gitarren ab auch für Bass.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich würde mir wünschen, dass nicht in AMP & IR aufgesplitet wird, sondern zusätzlich MIT oder OHNE Micro.

Dann wäre es möglich fürs Publikum mit Micro ins Mischpult zu gehen, was ich auch aktuell mache und auf der Bühne eben den RAW Sound (bekomme ich mit meinem Equip zwar ganz gut hin, aber es geht bestimmt dann noch geiler) ;)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich würde mir wünschen, dass nicht in AMP & IR aufgesplitet wird, sondern zusätzlich MIT oder OHNE Micro.
Fände ich auch cool, aber ich glaube, dass man das am sinnvollsten mit IRs löst, die eben binaural im Raum aufgenommen wurden). Dafür müssten Modeller eben längere IRs laden können. Das Strymon Iridium geht bis 500 ms. Damit ist das möglich. Ich weiß aber von keinem anderen Modeller, der das hergibt.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Neben den schon laufenden Entwicklungen hin zu "kleiner, leistungsstärker, günstiger" sehe ich vor allem ein Feld, das noch aussteht:

Vernetztes Modelling. Also nicht die Simulation von Verstärkern etc für einen Input (z.B. Gitarre) sondern gleich für die ganze Band mitsamt Umgebung. Wenn du ein Billy Gibbons Preset hast, klingt es ohne Dusty Hill Preset für den Bass nicht nach ZZ Top, also alles in eine Szene. Frank Beard kann man gleich mit abdecken und die E Drums mit seinem Referenzsound je nach gewünschtem Album oder Konzert versorgen. Alles mit simulierten Mikros im "Raum" aufgestellt und frei platzierbar. Noch ne B3 dazu? Kein Problem, alles zentral gesteuert, möglicherweise gar nicht mal über ein dezidiertes Stück Musikequipment sondern über Laptop, Tablet oder Smartphone. Wer weiß, wie viel Rechenleistung die Dinger in ein paar Jahren haben?
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Vernetztes Modelling. Also nicht die Simulation von Verstärkern etc für einen Input (z.B. Gitarre) sondern gleich für die ganze Band
Erweitertes Modelling. Also nicht nur für das Instrument entlang der Signalkette, sondern für den ganzen Menschen: Nicht nur spielen wie van Halen, Jimi Hendrix, Bonamassa oder Jack White, sondern auch so aussehen und sich bewegen: realtime-Morphing ohne Latenz für die echte Bühnenpräsenz. Ein must-have für alle tribute-Bands.
 
  • Haha
  • Gefällt mir
Reaktionen: 4 Benutzer
......... Vernetztes Modelling ......
Das gibt es doch heute schon .... wird umgangssprachlich Radio genannt ;)

Was mich bei der ganzen Diskussion hier wundert, ist dass sich hier manche Features wünschen, die sie im normalen Musikbetrieb strikt ablehnen, weil ihnen da der "Box in the Room Sound" fehlt.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich würde mir wünschen, dass nicht in AMP & IR aufgesplitet wird, sondern zusätzlich MIT oder OHNE Micro.

Dann wäre es möglich fürs Publikum mit Micro ins Mischpult zu gehen, was ich auch aktuell mache und auf der Bühne eben den RAW Sound (bekomme ich mit meinem Equip zwar ganz gut hin, aber es geht bestimmt dann noch geiler) ;)
Du möchtest eine Speaker-Simulation OHNE Mikro-Abnahme? Dann brauchst du auch keinen Speaker simulieren, sondern formst dein eigenes Frequenzbild mittels EQ. Vielleicht beschreibst du auch mal, was ein RAW-Sound eines Speakers sein soll und wie der gemessen und genormt wird ;-)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
man achte auf die vielen PU Wechsel im ersten Part des Solos
Ja, wenn man drauf achtet, kann man die kleinen Unterschiede im Sound wahrnehmen. 99% der Zuhörer merken das nicht und es würde nichts fehlen, wenn er das nicht machen würde. Normalerweise würde ich eher auf die Tonfolge achten als auf kleine Sound - Unterschiede, zumal das ja auch noch verzerrt ist, was vieles nivelliert.

Eher negativ aufgefallen ist mir die "Eigenschaft" des SM58, die Sprachverständlichkeit deutlich zu reduzieren - hier ganz typisch für das Mikro. Das ist deutlich wahrzunehmen im Gegensatz zu den Umschaltungen der Pickups.

und die Art wie sich die 3 immer wieder selbst überraschen bei 6:10
Das ist gar nicht fein, wie der Gitarrist einfach das Akkordschema zu "Mr. Sandman" wechselt und damit den Bassisten im Regen stehen lässt, der darauf aufhört zu spielen und versucht es wegzulächeln. Das sind nämlich recht ungewöhnliche Akkordfolgen und komplett andere als der Rest vom Stück. Ich hätte dem nach dem Gig was gehustet. Der Schlagzeuger konnte immerhin weiterspielen, weil der ja nicht auf die Akkorde achten muss.

aus meiner Sicht interaktiv die Sounds auf das Umfeld abstimmen,
das würde hier bedeuten, er würde hier bei "Mr.Sandman" den 50er Jahre Sound der Chordettes einstellen.
Ich stelle mir das lustig vor. Ein Gitarrist schrubbelt lustig sein Solo vor sich hin, die KI erkennt was und ändert plötzlich den Sound "passend" zum erkannten Stück.
Plötzlich klingt der Metal - Gitarrero wie die Flippers ... :D

Wenn die KI Regler verständlich in Sound übersetzt wäre das ja ok und wünschenswert. Dann kann man bewusst seinen Ton formen.
Aber eine Automatik, die mir mittendrin irgendwas verstellt, wäre mir der absolute Graus. Ich finde ja die Autokorrektur beim Smartphone schon übel ...

Edit: Und ich hasse es wie die Pest, wenn so ein Gerät meint, es besser wissen zu müssen. Z.B. wenn ein Tablet sich das "bessere" WLAN mit Internetanbindung sucht, anstatt die Verbindung zum Mischpult WLAN (ohne Internetanbindung) zu behalten, das es eigentlich steuern sollte.
Häufig ist es schwierig diese Automatik abzustellen bzw. die Stelle überhaupt zu finden, wo man es abstellen kann. Da könnte ich 🤮
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 5 Benutzer
Wenn Vox jetzt auf Zack wäre könnten sie ein schönes aktuelles Modeling-Pedal rausbringen was die NuTube-Technik vom Korg Nu:Tekt TR-S mit dem OpenSource NAM (NeuralAmpModeler) verbindet. Man könnte dafür die eigene Valve Reactor Technologie anpassen und ähnlich wie der Amp1 zusätzlich mit einer Class D-Endstufe ausstatten. Das könnte eine nette Ergänzung zum IK-ToneX Pedal werden und mit der Möglichkeit die NAM KI-Profile direkt einzuladen und auch per Regler steuern zu können ein großer Vorteil. Schade das ich keine Kontakte zur Industrie habe aber nach der guten alten Tonelab-Serie würde mir was neues von Vox sehr gefallen und es wäre auch besser als auf Hotone,NuX oder Mooer zu warten.
 
Gute Teile ohne Frage aber etwas mehr als nur ein Amp wäre schon recht nett. Aber warum sollte man auf andere Firmen wie Vox warten wenn wir im eigenen Land auch gute Hersteller für so etwas haben. Mir fällt da vor allem Hughes&Kettner ein die mit dem StompMan und AmpMan ja schon entsprechendes im Sortiment haben. Die Spirit Tone Generator Technologie kombiniert mit dem OpenSource NAM und einigen Effekten plus eine ClassD-Endstufe. Das ganze als AmpMan-KI auf den Markt bringen und das Teil wird weggehen wie warme Semmeln man braucht sich nur die Verkaufszahlen vom ToneX-Pedal anzusehen :)

Edit:
Wer Lust hat kann sich das auch selbst zusammen bauen ich habe dafür mal einen meiner Raspberry PI4 mit dem H&K StompMan kombiniert. Als Software kam dabei PiPedal und ein günstiges Behringer UMC202HD Audio-Interface zum Einsatz. Das ganze lässt sich dann recht komfortabel über den Browser oder eine extra Remote-App (siehe Bild/Video unten) steuern. Klar wären Potis und Schalter besser geeignet aber ich vermute so schnell wird kein Hersteller da was rausbringen so dass wir uns wohl erstmal mit DIY-Lösungen zufrieden geben müssen.

Remote-App

PiPedal Remote.jpg



View: https://www.youtube.com/watch?v=MhNVZYZAGtk
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
COSM VGA-7 (...) DSPs (...) KI/AI (...) AI-Daten (...) Tech21 (...) AmpX (..) ToneX-Capturedaten (...) IK (...) DSP (...) AI-Technik
COSM, VGA, DSP, KI, AI, IK, Tech21, AmpX, ToneX, etc.

:nix:

Ich bin mir sicher, die Zukunft gehört den Technikern und Programmierern und nicht mehr den Musikern.

:fear:
 
  • Haha
  • Gefällt mir
Reaktionen: 4 Benutzer
@relact
Das ist was dran.
Ich sehe schon die ersten KI-Prompt-Freaks entsprechende Sounds definieren. ;-)
Manchmal finde ich ja auch meine akustischen Gitarren oder meinen Amp so erfrischend unkompliziert. :D

Aber zum Thema Glaskugel:
Ich denke wirklich, nach den ganzen Amps sind jetzt die Pedale dran.
Ob gemodelt, geprofiled, oder was auch immer.

Das neue Headrush soll das ja schon können:

View: https://www.youtube.com/watch?v=B-uyOvZkLWM
 
  • Gefällt mir
Reaktionen: 1 Benutzer

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben