Mikrofon für klassische Gitarre

Also bei klassischer Gitarre kann von einem leisen Flageolett bis zu einem Rasgueado ein sehr großer dynamischer Unterschied bestehen.
Aber sicher. Man muss halt schauen, in welchem Umfang man die Dynamik im Ergebnis der fertigen Aufnahme erhalten möchte, denn beides soll ja schließlich nicht gleich laut klingen.
Wenn es sowohl sehr leise als auch sehr laute Stellen im Stück/Programm gibt, dann würde ich ca. 20-30 dB als Abstand zwischen pp und ff als Richtwert annehmen. Danach richtet sich dann ggf. die Kompressionsrate. Muss aber schließlich jeder selber entscheiden. "Tot-Komprimieren" wie es beim ´Loudness-War´ der Fall ist, muss bei Klassik aber unbedingt vermieden werden.
 
@LoboMix
Normalisieren ist unnötig und sogar kontra-produktiv. Gutes Gain-Staging ist die richtige Lösung. Von den Aufnahmen bis zum finalen Limiter im Mastering.

1,8:1 ist auch für Klassik an einigen Stellen u.U. zu wenig. Das kommt immer drauf an, wie die Dynamik sich verhält und ob die schon der Ziel-Dynamik entspricht oder eben nicht. Man kann gewisse Dynamik-Sachen auch ohne Kompression lösen.

So eine Gitarre hier würde ich, neben etwas Spitzenlimitierung und leichter Summen-Kompression, nur parallel komprimieren. Dort dann aber halt richtig, bspw. mit der schnellsten Attackzeit, 10:1 und durchschnittlich 10dB Gainreduction, damit überhaupt eine Kompression in der Gesamtheit hörbar wird - diese Spur mit ca. 10dB geringerem RMS Pegel als die unkomprimierte Spur dazu gemischt.
Auf die Art hatte ich "zentrale" Akustik-Gitarren, die möglichst natürlich klingen sollten, schon öfters komprimiert.

Ich würde nun folgendermaßen vorgehen:
1. Abhörsituation verbessern (ggf. tuts auch ein offener Mixing Kopfhörer)
2. Aufnahme Position optimieren
3. Nachbearbeitung optimieren

Erst, wenn da deutliche Fortschritte erzielt wurden, würde ich über neue Mikrofone nachdenken. Und ich empfehle dem TE, sich mal hier durch die verzipten Dateien und einer Auswahl von Mikros, die in Frage kämen (Budget) durch zu hören und danach zu entscheiden. Immerhin wurden die Vergleiche mit einer Akustik-Gitarre gemacht :)

https://www.bonedo.de/artikel/einze...einmembran-kondensatormikrofone-komplett.html

Was an den Hauns nun so toll sein soll erschließt sich mir immer noch nicht ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
neben etwas Spitzenlimitierung und leichter Summen-Kompression, nur parallel komprimieren.
das alles in dem Kanal der Gitarre?
Was genau ist "parallel komprimieren"....? oh mann ich bin echt ziemlich unterbelichtet, was das Bearbeiten angeht

Noch kurz zum Mixdown: Ist das ok, den Mixdown direkt als mp3 zu machen, oder besser vorher als wav. und dann z.B. mit Audacity in mp3 wandeln?

sind zwar Stahlsaiten, aber als Vergleich schon brauchbar, danke!
 
Nylon string aka Klassische/spanische Gitarre....hat mit dem Steel string strumming (z.B. 0:33) nicht allzuviel gemeinsam.

Hier ein paar kurze Ausschnitte, da sind auch mal die Unterschiede zwischen den einzelnen Gitarren gut zu hören (klassische Nylon string ab 1:07)
Sehr schönes Mikro btw. - ein Kleinmembraner wäre noch etwas schneller und im Sound entsprechend spritziger, aber für ruhiges Fingerpicking kann auch ein GMK wie hier das 4040 sehr gut passen.


Das ist natürlich ein Marketing-Video, trotzdem kann man sich auch bei solchen Sachen etwas mitnehmen und seien es nur verschiedene Positionen oder Mikro-Konzepte.

Die X/Y Anordnung bei 2:23 wäre ein lohnenswerter Ansatz, wenn du eines Tages ggf. ein Paar Kleinmembraner hast.
Gerade bei solo Gitarrenaufnahmen nice.
https://www.thomann.de/de/audio_technica_ae_5100.htm
(aus meiner Sicht selten erwähnt, habe aber auch keine persönlichen Erfahrungen mit denen - anyone? @whitealbum? @Astronautenkost )
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
das alles in dem Kanal der Gitarre?
Was genau ist "parallel komprimieren"....? oh mann ich bin echt ziemlich unterbelichtet, was das Bearbeiten angeht
Man schickt das unkomprimierte Signal an einen parallelen Track, komprimiert dort richtig heftig und mischt diesen Track leicht dazu. Das Endergebnis ähnelt einer "Aufwärts" Kompression, bei der die leisen Stellen lauter gemacht werden. Normale Kompressoren sind immer Abwärts Kompressoren, die die lauten Stellen leiser machen. Der Vorteil dabei ist, dass die Transienten bzw. generell die lauten Stellen ihre Natürlichkeit behalten, was vor allem bei perkussivem Material, wozu mehr oder weniger auch Akustik-Gitarren gehören, besser klingen kann. Mit Parallel-Kompression ist es allerdings schwieriger, den gleichen Grad der Kompression wie mit Direktkompression zu erreichen, vor allem weil die stark komprimierte Spur nur bis zu einem gewissen Grad hinzugemischt werden sollte, damit der Vorteil der Natürlichkeit nicht verloren geht.

Eine Kombination aus beidem ist am Ende meistens das beste, wenn Parallel-Kompression genutzt wird.

Wenn du mal eine Aufnahme fertig hast, können wir aber auch noch mal per PM quatschen. ;)

Noch kurz zum Mixdown: Ist das ok, den Mixdown direkt als mp3 zu machen, oder besser vorher als wav. und dann z.B. mit Audacity in mp3 wandeln?
Es klingt sogar besser und spart einen Bearbeitungsschritt, wenn du direkt in MP3 renderst. Bei 16bit Wave wäre ein Dithering nämlich noch angebracht, und selbst wenn das gemacht wird klingen aus 24bit Files erstellte MP3 oder AAC besser als aus 16bit erstellte.

sind zwar Stahlsaiten, aber als Vergleich schon brauchbar, danke!
Mikrofone, die du in Erwägung ziehen kannst, sind z.B.:
- Haun MBC660
- Rode NT5
- Oktava MK-012 (meine Empfehlung)

Als Referenz würde ich Schoeps CMC-64 anhören, das sind die teuersten Mikros im Testfeld und denen wird eine unerreichte Natürlichkeit nachgesagt.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Man schickt das unkomprimierte Signal an einen parallelen Track
also quasi die Spur duplizieren?
Wenn du mal eine Aufnahme fertig hast, können wir aber auch noch mal per PM quatschen.
komme ich gerne drauf zurück, werde ich in ein paar Tagen nochmal versuchen (habe mir gerade einen Nagel zu kurz gefeilt... was für den Sound im Moment nicht super ist...)
 
Normalisieren ist unnötig
Warum?

und sogar kontra-produktiv
Inwiefern?

Ich lasse bei der Aufnahme immer einen ausreichenden Headroom in allen Spuren (24bit-Format). Damit bleibt bei ff-Stellen natürlich eine Lücke bis zum maximal möglichen Pegel 0 dBFS. Beim lautesten Orchester-ff (als Beispiel) sollte der Peak aber immer -0,1 dBFS erreichen. Danach richtet sich dann die dynamische Ausarbeitung des ganzen Stücks, des Satzes und ebenso der ganzen CD. Das Normalisieren dient also zunächst dazu, die Headroom-Lücke beim ff zu schließen. Das gibt mir auch einen Bezugspegel, nach dem ich die Aussteuerung der Stützspuren zusätzlich abschätzen kann.
Ob ich die -0,1 dBFS-Grenze aber überhaupt ausnutze, hängt wiederum von der Besetzung und vom Dynamikumfang des Stückes / der ganzen CD ab. Bei einem Clavichord, das ein sehr leises Instrument ist, würde ich den Spitzenpegel wieder deutlich zurück nehmen bzw. von vorne herein niedriger setzen. Bei (klassischen) Gitarren-Aufnahmen hängt es selbstverständlich auch von den Stücken, der Stückfolge und dem gewünschten Dynamikumfang ab, wo ich den maximalen Pegel ansetze.
Das Normalisieren (zunächst der Stereo-Hauptmikrofon-Spur) dient mir also zur ersten Orientierung, um für die Dynamik der ganzen Produktion ein Konzept ausarbeiten zu können.

Man kann gewisse Dynamik-Sachen auch ohne Kompression lösen.
Aber sicher!
 
  • Gefällt mir
Reaktionen: 1 Benutzer
also quasi die Spur duplizieren?
Brauchst du nicht. Einfach einen "Send" an den parallelen Track erstellen.

komme ich gerne drauf zurück, werde ich in ein paar Tagen nochmal versuchen (habe mir gerade einen Nagel zu kurz gefeilt... was für den Sound im Moment nicht super ist...)
Eilt ja nicht ...

Weil man damit nur den lautesten Peak einer Spur auf 0dBFS setzt. Erkläre mir doch mal, wann und wofür man das braucht. Ich brauchs nicht und ich kann dir gerne noch gleichbedeutende Aussagen aus Fachliteratur, von SAE Studenten uvm. geben.

Weil Peaks bei 0dBFS sowohl im Mix als auch bei der Summenbearbeitung so ziemlich das letzte sind, das man brauchen kann. Da reicht eine kleine EQ Anhebung oder Kompression mit etwas zu viel Make-Up und schon übersteuerts.

Selbst moderat eingepegelte Aufnahmen wird man im Mix allesamt etwas leiser fahren müssen, um ohne weitere Eingriffe auf einen "gesunden" Pegel auf der Mix Summe zu kommen.

Ich lasse bei der Aufnahme immer einen ausreichenden Headroom in allen Spuren (24bit-Format). Damit bleibt bei ff-Stellen natürlich eine Lücke bis zum maximal möglichen Pegel 0 dBFS. Beim lautesten Orchester-ff (als Beispiel) sollte der Peak aber immer -0,1 dBFS erreichen. Danach richtet sich dann die dynamische Ausarbeitung des ganzen Stücks, des Satzes und ebenso der ganzen CD. Das Normalisieren dient also zunächst dazu, die Headroom-Lücke beim ff zu schließen. Das gibt mir auch einen Bezugspegel, nach dem ich die Aussteuerung der Stützspuren zusätzlich abschätzen kann.
Ob ich die -0,1 dBFS-Grenze aber überhaupt ausnutze, hängt wiederum von der Besetzung und vom Dynamikumfang des Stückes / der ganzen CD ab. Bei einem Clavichord, das ein sehr leises Instrument ist, würde ich den Spitzenpegel wieder deutlich zurück nehmen bzw. von vorne herein niedriger setzen. Bei (klassischen) Gitarren-Aufnahmen hängt es selbstverständlich auch von den Stücken, der Stückfolge und dem gewünschten Dynamikumfang ab, wo ich den maximalen Pegel ansetze.
Das Normalisieren (zunächst der Stereo-Hauptmikrofon-Spur) dient mir also zur ersten Orientierung, um für die Dynamik der ganzen Produktion ein Konzept ausarbeiten zu können.
Verstehe. Aber ich denke, du solltest diese Herangehensweise nochmal überdenken.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
also quasi die Spur duplizieren?
man kann's auch kompliziert machen... ;)
ich habe das Anwida Plugin nicht ohne Grund verlinkt - es ist ideal für solche Aufgaben weil es absolut verzerrungsfrei arbeitet.
Man setzt die Ziellautstärke und Einsatzschwelle (optional Zeit) und der Rest passt.
Hier sind 3 Durchgänge von sinnvoll bis Anfang krank.

Die Datei wurde vorher 12dB angehoben (bei so niedrigem Pegel wäre in jedem Fall 24bit sinnvoll) und auf mono gestellt (spart Speicher)
Erster Durchgang Schwelle bei 75%, die so limitierte Datei noch einmal mit demselben Wert verarbeitet.
Will man die Dynamik zwischen den beiden Teilen erhalten, wäre hier Schluss.
Im dritten Teil wurde der laute Part nochmals mit 75% Schwelle bearbeitet, der leisere Teil mit 55% (just for fun)
Von Verzerrung ist das noch weit entfernt, in dem Sinne ginge noch mehr Lautstärke - macht aber keinen Sinn.
Man kann das natürlich auch in einem Durchgang machen, aber stufenweise ist bei solchen Signalen anfangs übersichtlicher.
Kennt man seine Umgebung, ist das in 10 Sekunden mit 2 Reglern erledigt.

https://soundcloud.com/anshoragg/mikro-rechts-lev
 
Verstehe. Aber ich denke, du solltest diese Herangehensweise nochmal überdenken.
Danke für die Ratschläge, ich lerne ja gerne dazu. Zur Beruhigung kann ich aber sagen, dass ich den Pegel am Summen-Ausgang immer sehr gut im Auge behalte und da auch stets darauf achte, einen kleinen Abstand zu 0 dBFS zu halten. Das Peakmeter von Samplitude ist da sehr zuverlässig . Intern übersteuert beim 32-bit-Float-Format ohnehin nichts.
Mein Genre ist ausschließlich Klassik/E-Musik und ich setze allgemein Plug-Ins, aber insbesondere Kompression nur in ganz geringem Umfang bzw. mit kleinen Einstell-Werten ein. EQ auch nur mit sehr geringen Anhebungen, meist auch nur Absenkungen. Dafür aber viele Stützspuren, z.B. bei Orchester- und Oratorienaufnahmen.

Insofern habe ich mit meiner Vorgehensweise eigentlich nur gute Erfahrungen gemacht. In anderen Genres wird man das sicher anders sehen und gute Gründe dafür haben.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Danke für die Ratschläge, ich lerne ja gerne dazu. Zur Beruhigung kann ich aber sagen, dass ich den Pegel am Summen-Ausgang immer sehr gut im Auge behalte und da auch stets darauf achte, einen kleinen Abstand zu 0 dBFS zu halten. Das Peakmeter von Samplitude ist da sehr zuverlässig . Intern übersteuert beim 32-bit-Float-Format ohnehin nichts.
Mein Genre ist ausschließlich Klassik/E-Musik und ich setze allgemein Plug-Ins, aber insbesondere Kompression nur in ganz geringem Umfang bzw. mit kleinen Einstell-Werten ein. EQ auch nur mit sehr geringen Anhebungen, meist auch nur Absenkungen. Dafür aber viele Stützspuren, z.B. bei Orchester- und Oratorienaufnahmen.

Insofern habe ich mit meiner Vorgehensweise eigentlich nur gute Erfahrungen gemacht. In anderen Genres wird man das sicher anders sehen und gute Gründe dafür haben.
Klar, ich will dir da auch nicht reinreden und glaube auch, dass du damit gut fährst. Aber im professionellen Bereich ist man sich eben weitgehend über Normalisieren auf 0dBFS einig und das wollte ich klarstellen. ;)

Wenn man nun einen Mix aus einer Hand voll normalisierter Spuren macht und die Fader bei um die -10dB einstellt, mag das sicher gut gehen. Aber wenn man anfängt auf den Tracks, in denen diese Spuren sind, Effekte zu benutzen, siehts schon schlecht aus. Dann wird es mit hoher Wahrscheinlichkeit hier und da übersteuern. Nicht nur EQ Anhebungen können zu höheren Ausschlägen führen, auch EQ Cuts und bei allem, wo etwas wie Rauschen oder Sättigung dazu kommt, siehts von vorn herein auch schlecht aus.
Gain-Staging beinhaltet nämlich vor allem, dass Plugin-intern nichts übersteuert.

Nach meiner Erfahrung wird man bei mittelgroßen Mix-Projekten mit bspw. 30 Spuren moderat eingepegelte Aufnahmen immer leiser machen müssen, um auf der Summe auf ein gesundes Level zu kommen.
Wegen der Einfachheit und Flexibilität von DAWs gehe ich sogar so weit, dass ich mit insgesamt 2 Bus-Ebenen (Masterbus ausgenommen) arbeite. Hauptbusse für Instrumentengruppen und Vocals, Unterbusse für die Bearbeitung (auch mit parallelen Spuren für Delays, Hall, Kompression) und dann erst die Tracks für die eigentlichen Spuren. Und die Fader dieser Tracks stehen bei mir mit moderat eingepegelten Aufnahmen fast immer ein gutes Stück unter 0dB. Auch schon aus dem Grund, weil ich die Fader, mit denen ich dann das eigentliche Leveling mache, gerne nicht all zu weit unter 0dB stehen habe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Nach meiner Erfahrung wird man bei mittelgroßen Mix-Projekten mit bspw. 30 Spuren moderat eingepegelte Aufnahmen immer leiser machen müssen, um auf der Summe auf ein gesundes Level zu kommen.
Wegen der Einfachheit und Flexibilität von DAWs gehe ich sogar so weit, dass ich mit insgesamt 2 Bus-Ebenen (Masterbus ausgenommen) arbeite. Hauptbusse für Instrumentengruppen und Vocals, Unterbusse für die Bearbeitung (auch mit parallelen Spuren für Delays, Hall, Kompression) und dann erst die Tracks für die eigentlichen Spuren. Und die Fader dieser Tracks stehen bei mir mit moderat eingepegelten Aufnahmen fast immer ein gutes Stück unter 0dB. Auch schon aus dem Grund, weil ich die Fader, mit denen ich dann das eigentliche Leveling mache, gerne nicht all zu weit unter 0dB stehen habe.
Das ist mir auch schon klar. Ich hätte vielleicht ergänzen sollen, dass ich 99% Aufnahmen mit einem Stereo-Hauptmikrofonsystem (+ Stützen) mache und diese Spur für mich immer der Bezugspunkt ist, also klanglich, von den Pegeln her und vom Zeitbezug was eine eventuelle Verzögerung der Stützen gegenüber den Hauptmikrofonen angeht.

In dem Fall, dass es keine Hauptmikrofone gibt, sieht die Welt natürlich ganz anders aus! Solche Produktionen hatte ich auch schon, die sind bei mir aber die absolute Ausnahme, sorry, hätte ich direkt klarstellen sollen.
Ich hatte diesen Punkt auch eigentlich nur deshalb erwähnt, weil ich explizit die Vorgehensweise Stereo-Hauptmikrofonsystem + Stütze empfohlen hatte.
 
Das ist mir auch schon klar. Ich hätte vielleicht ergänzen sollen, dass ich 99% Aufnahmen mit einem Stereo-Hauptmikrofonsystem (+ Stützen) mache und diese Spur für mich immer der Bezugspunkt ist, also klanglich, von den Pegeln her und vom Zeitbezug was eine eventuelle Verzögerung der Stützen gegenüber den Hauptmikrofonen angeht.
Ist ja alles richtig, aber Normalisieren brauchst du in dem Fall trotzdem nix.

In dem Fall, dass es keine Hauptmikrofone gibt, sieht die Welt natürlich ganz anders aus! Solche Produktionen hatte ich auch schon, die sind bei mir aber die absolute Ausnahme, sorry, hätte ich direkt klarstellen sollen.
Ich hatte diesen Punkt auch eigentlich nur deshalb erwähnt, weil ich explizit die Vorgehensweise Stereo-Hauptmikrofonsystem + Stütze empfohlen hatte.
So ein großer Unterschied ist das auch nicht. Am Ende gehts nur darum, dass man einen stimmigen Gesamtmix erzeugt, und mal von Hilfsmitteln abgesehen sind dafür die Ohren das Werkzeug Nr. 1.

Es gibt einfach keinen Grund dafür, Spuren in einem Mix zu normalisieren.
Wenn man die Summe am Ende laut machen will, nimmt man bspw. einen Limiter und kann so auch noch ein paar dB rausholen, indem man hier und da Peaks drückt.
 
[Zweck der Aufnahmen]
zum Einen für mich selbst, gute Aufnahmen zu machen
zum Anderen um Konzertveranstaltern brauchbare Demo-Aufnahmen zu schicken.

Hallo,

dieses Ziel hast du bereits sehr gut erreicht, mit dem Mikro 40 cm rechts von dir, wie du es beschrieben hast.


Bleibt also noch die Beschäftigung mit der Materie "Homerecording".

Wenn dir nach Geldausgeben und neuem Equipment zumute ist, dann kauf dir Monitorboxen und neue Mikros.

Wenn das Geld eher knapp ist, dann bleibt bei dem was du hast, und probiere alles mögliche aus. Was dein Equipment und deine Software so wie sie ist, hergibt.
Bereits damit kannst du sehr viel lernen, und weißt dann schon viel besser, worauf du achten willst, wenn du wirklich mal was neues kaufen willst.

Gruss
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich finde, das Mikro rechts von dir ist deutliche Verschlechterung. Mir fehlen da viele Details, die dein Spiel ausmachen.
Das wäre nicht meine bevorzugte Lösung.
Das Mikro rechts könntest du mit einem zweiten kombinieren, einfach um etwas Körper mitzubekommen. Als einziges Mikro würde ich es dort genau nicht platzieren.
Korpus - Hals Übergang, ca. 30 cm (wie schon weiter vorn geschrieben).
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Am Ende gehts nur darum, dass man einen stimmigen Gesamtmix erzeugt, ...
Sicher, es ist stets das Ergebnis, das zählt. Aber anders als in der Analogtechnik früher führen in der modernen digitalen Aufnahmetechnik ´viel mehr Wege nach Rom´.

Es gibt einfach keinen Grund dafür, Spuren in einem Mix zu normalisieren.
Wenn man die Summe am Ende laut machen will, nimmt man bspw. einen Limiter und kann so auch noch ein paar dB rausholen, indem man hier und da Peaks drückt.
Nun ja, kann man so auch machen. Ich habe auch nicht immer die Spuren normalisiert und mache es wie beschrieben standardmäßig eigentlich immer nur mit der Stereo-Hauptspur und wenn nötig mit ausgewählten weiteren Spuren. Die Stützen stelle ich immer in Relation zum Hauptmikrofon ein und natürlich nach Gehör, dazu müssen diese nicht zwingend auch alle normalisiert werden.
Mir hilft meine Vorgehensweise, die Kontrolle über die Gesamtdynamik zu behalten. Wenn ich eine Orchesteraufnahme mache, wo hinterher eine CD mit einer Laufzeit von 70 Minuten heraus kommt, dann spielt dieses Orchester live erst mal in einem interpretatorisch ´optimalen´ dynamischen Verhältnis über das ganze Programm hinweg. So wurde es ja einstudiert. Mir geht es nun darum, 1. diese Interpretation so ideal wie möglich und technisch angemessen auf die CD zu übertragen und 2. die Interpretation mit den nötigen technischen Mitteln so zu unterstützen, dass eine möglichst optimale Illusion der Live-Aufführung entsteht.

Mir fehlen da viele Details, die dein Spiel ausmachen.
Welche genau? Keiner von uns kennt den originalen Klang von @Larska´s Spiel und auch nicht den originalen Klang seiner Gitarre. Nur er selber kann überhaupt beurteilen, ob die Aufnahme (welche auch immer) die "perfekte" Illusion seines Spiels ´rüber bringt, er muss damit zufrieden sein. (Wozu selbstverständlich gute Abhörmöglichkeiten gehören).
Wenn ich eine andere Vorstellung vom Klang einer akustischen Gitarre habe, dann kann ich dem Solisten diese doch nicht aufdrängen. Ich könnte allenfalls mit ihm in einen Dialog treten, falls er selber mit seinem Klang unzufrieden ist.
 
Welche genau? Keiner von uns kennt den originalen Klang von @Larska´s Spiel und auch nicht den originalen Klang seiner Gitarre. Nur er selber kann überhaupt beurteilen, ob die Aufnahme (welche auch immer) die "perfekte" Illusion seines Spiels ´rüber bringt, er muss damit zufrieden sein. (Wozu selbstverständlich gute Abhörmöglichkeiten gehören).
Wer den Thread aufmerksam verfolgt hat, konnte bereits detailliertere - und imho gelungenere - Aufnahmen hören.
 
Jeder präsentiert hier seine Sicht. Das ist doch völlig normal und man muss es auch nicht jedes mal dazu schreiben.

Und es darf auch jeder hier für seine Vorstellung, wie die Gitarre klingen sollte, werben.

Banjo
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Ich habe mal die "ohne Hall"-Variante aus Post #44 genommen.
Ist immer noch etwas zu viel Resonanz untenrum, aber insgesamt ist das für mich von allen Schnipseln hier die beste Vorlage.
Das Zuviel an Raum (und dadurch Resonanz) würde ich noch durch gescheite Position vom Mikro und im Raum versuchen, wegzubekommen.
Viel mehr möchte ich da nicht dran EQen.
Sonst kann man damit schon ganz gut arbeiten.
https://app.box.com/s/qht7eg1l8s1wjjlrunzss1g6sp5pq0al

Die Griffgeräusche gehören für mich dazu.
Dass es jetzt hier einen Hauch "metallisch" in den Höhen wird....nun ja, NT1A. Bei der Bearbeitung kommen die Eigenarten der Mikros zum Vorschein (spätestens).

Und natürlich Artefakte, wenn man eine mp3-Datei zum Mixen nimmt.
 
Zuletzt bearbeitet:

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben