Möglich?: Sample x - Sample y = Wave-Ergebnis Z

  • Ersteller n3ofolkr
  • Erstellt am
n3ofolkr
n3ofolkr
Registrierter Benutzer
Zuletzt hier
10.06.23
Registriert
28.04.11
Beiträge
33
Kekse
0
Hallo,

ist es in Ableton Live software-technisch möglich, dass man ein Audiomaterial-Ergebnis (Sample z) erreicht, in dem man zuvor Aufnahme 1 (Sample x) mit Aufnahme 2 (Sample y) subtrahiert?

Außerdem: Ist es ebenfalls möglich, NUR das heraus-subtrahierte Material (also nicht das Ergebnis, nur das was "weggenommen" wird) herauszufiltern und in eine neue Spur aufzunehmen?

Hoffentlich habe ich mich verständlich geäußert. Vielleicht wisst ihr, was ich meine. Es ist ein bisschen wie damals im Mathe-Unterricht.

Vielen Dank!
 
Eigenschaft
 
Lass mich raten du willst aus einem Song einzelne Intrumente herausfiltern? Geht nicht. Mit Vocals die komplett mittig angelegt sind gibt es da einen Trick, der aber auch nicht so tolle Ergebnisse liefert.
 
Nein, es geht ausschließlich um eigene Field Recordings und nicht darum, aus Musikstücken z.B. Musikinstrument x rauszufiltern. Die Audioqualitätsfrage ist also geklärt, da ich mich über das Ergebnis überraschen lassen will und das dann je nach Gefallen weiterbearbeiten will. Experimentelle Geschichten eben.

Es handelt sich um eigenes Recording-Material, welches zur Verfügung steht. Diese will ich "von einander subtrahieren". Ich bin mir sicher, dass das geht. Nur wie das technisch umzusetzen ist, kann ich mir nicht erklären.
 
Was Du im ersten Absatz beschreibst ist in WaveLab möglich.

Der zweite Absatz ergibt keinen logischen Sinn, denn das was Du subrahierst liegt ja schon vor, warum sollte das dann aus der Rechnung hervorgehen und wieder aufgenommen werden?
 
  • Gefällt mir
Reaktionen: 4 Benutzer
WaveLab - okay, wunderbar! Technisch ist also machbar, super! Hast du ggf. eine Idee, wo ich eine passende Anleitung dafür finde? (Evtl. nennt man das ganze Prozedere auch anders - dann hilft mir Google ggf. weiter...)

Mit dem zweiten Absatz meinte ich im Gegensatz zum Ergebnis a-b=c einfach nur das "weggeworfene" Material, was subtrahiert wird. Sicher nicht "business as usual", aber für mich wäre das Ergebnis durchaus interessant.

edit: Statt WaveLab nutze ich Adobe Audition. Hast du damit auch die Erfahrung machen können, dass es damit funktioniert?
 
Bei dem Prozess wird eine Delta-Datei erzeugt.

Was subtrahiert wird ist doch "b" (oder "a", wenn man die Rechnung umstellt) und beide Faktoren liegen doch bereits vor.

Audition habe ich nie wirklich genutzt.
 
  • Gefällt mir
Reaktionen: 4 Benutzer
Signalschwarz hat völlig Recht.

Du brauchst ja das separate Material "a" und "b", daraus erzeugst du dann "c" (= a-b). Das heißt das Material, das abgezogen wird, hast du schon vorher bzw. musst du schon vorher haben!

Aber wenn ich das richtig verstehe ist das doch schlicht eine Phasendrehung um 180°. Du drehst also bei Audiomaterial die Phase um 180° (das kann so ziemlich jeder Sequencer! Heißt oft Phase invertieren / invert phase) und damit drehst du auch das Vorzeichen.
Hast du also einen kompletten Song vorliegen (a) und außerdem die reine Vocalspur davon (b), dann kannst du bei der Vocalspur die Phase invertieren (-b) und kannst dann (richtige Lautstärkeverhältnisse vorausgesetzt) als Ergebnis (c) den kompletten Song abzüglich der Vocalspur erhalten.

Ich habe jetzt bewusst dieses Beispiel gewählt, weil ColdDayMemory in diesem Fall Unrecht hat, sofern du tatsächlich die Vocalspur (b) einzeln vorliegen hast, wäre es möglich, sie aus dem Lied zu extrahieren. (ja ich hab gelesen, dass das nicht dein Ziel ist)

edit: Irgendwo hatte ich auch mal ein Kommandozeilentool, das das konnte, ich schau mal eben, ob ich das noch finde, aber mach dir keine zu großen Hoffnungen

edit2: Ne, sorry, finde es nicht mehr.

Aber was mir noch einfiel: Kann es sein, dass du gerne wissen willst, wie "-b" klingt?
Im Vergleich zu b klingt das (für sich alleine gehört) kaum anders (ich würde sagen identisch, aber das ist vermutlich nur zu 98% richtig).. der Unterschied ist hier, dass der Lautsprecher in die andere Richtung auslenkt... also immer wenn er einen Hub nach außen gemacht hätte, fährt er stattdessen nach innen, aber für die erzeugten Schallwellen macht das erstmal keinen wesentlichen Unterschied (vllt. minimal aufgrund der Physik im Lautsprecher, da bin ich mir unsicher)

Erst wenn der Lautsprecher gleichzeitig das positive Signal abspielt erhält er die Information "gehe gleichzeitig um X nach vorne UND um X nach hinten" ... Ergebnis: Er bewegt sich nicht, sprich: Signal = 0 --> Stille.
 
Zuletzt bearbeitet:
Zum ersten Teil: Im EINFACHSTEN Fall funktioniert sowas über Polaritätsinvertierung ("Phasenumkehrung"), das stimmt zwar, aber das trifft hier wohl nicht zu, zumindest habe ich den TE so verstanden. Überlegt mal: Du Mischer zwei Klänge, bspw. eine Gitarre und ein Piano, zusammen. Jetzt invertierst Du bei einem der Signale die Polarität. Das Ergebnis wird mitunter etwas differieren, es wird aber nicht die Differenz der beiden Signale sein.

- - - aktualisiert - - -

Zum zweiten Teil: Jein, denn das alleinstehende/reine/einzelne Vox-Signal durchläuft nicht die weitere Bearbeitung im Mixing-Prozess wie z.B. die auffälligste, die Summenbearbeitung.
 
Ich muss zugeben, dass ich da auch zögerte, ob die Phasenumkehrung wirklich die gesuchte Subtraktion ist... aber ich komme nicht drauf, wo der Unterschied liegen soll. Wie erzeugt man denn sonst die Differenz aus zwei Audiosignalen? Was macht WaveLab da aus der Gitarre bzw. dem Piano? Kann ich mir irgendwie nicht vorstellen..


Und ja, du hast natürlich Recht, man bräuchte exakt das Vox-Signal wie es inklusive aller Summenbearbeitung unter Einbeziehung des Einflusses aller anderen Spuren klänge - und das kriegt man nicht. Aber für die Veranschaulichung ist mein simplifiziertes Beispiel ausreichend korrekt.
 
Das zu beantworten wäre wahrscheinlich so ähnlich (aber natürlich nicht so komplex) wie Melodynes DNA-Funktion aufzuschlüsseln.

Nun ja, die Interaktion bzw. Vermengung mit anderen Klängen ist weniger das Problem, als vielmehr die gemeinsamen Bearbeitungsschritte. Jagt man bspw. Bassdrum und Vox gemeinsam durch einen Kompressor, dann triggert diesen einmal die Vox, ein anderes Mal die BD, somit wäre es unmöglich ein Einzelsignal ähnlich zu bearbeiten.
 
das ganze funktioniert deswegen nicht, weil die zeitliche Komponente nicht berücksichtigt wird

bei einem Frequenzgemisch aus Sinustönen (worauf man ja mathematisch alles reduzieren könnte) hat jeder Ton seinen festen zeitlichen Parameter entsprechend der Wellenlänge - je höher der Ton, desto kürzer die Wellenlänge
(EQs wurden früher oft als 'Entzerrung in mikro-Sekunden' und nicht in Hz angegeben - 2 Beschreibungen desselben Vorgangs)

bei der Aufnahme sind die Spektren der 'Komponenten' zeitlich verschoben, entsprechend ihrer räumlichen Position
analysiert man diese Spektren und zusätzlich den zeitlichen Verlauf aller Signalkomponente, kommt man deutlich weiter
gute Programme schaffen mit viel Rechenleistung beeindruckende 'Filter-Ergebnisse'
für den Echtzeitbetrieb kann man den Aufwnd reduzieren und erhält folglich 'verfälschte' Ergebnisse
da das Gehör für diese Dinge ausgesprochen empfindlich ist, fällt es praktisch immer recht deutlich auf

cheers, Tom
 
"Entzerrung in Mikrosekunden" ist mir noch nie untergekommen, wann/wo wurde das denn benutzt? Ich kenne nur cps und kps.
 
Jagt man bspw. Bassdrum und Vox gemeinsam durch einen Kompressor, dann triggert diesen einmal die Vox, ein anderes Mal die BD, somit wäre es unmöglich ein Einzelsignal ähnlich zu bearbeiten.

Das meine ich mit dem Einfluss der anderen Spuren, ich weiß das schon. Bloß ist es für mein Beispiel erstmal vernachlässigbar, da sonst zu komplex.
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben