Spur aus Audiodatei herausrechnen

Also der Handylautsprecher?
Das Gerät oder Objekt, dass den Störschall sendet.

Bin nicht sicher, ob ich das richtig verstehe, ist das Interpolieren auf eine höhere Auflösung nicht eher Oversampling?
Das ist technisch Dasselbe. Es geht um eine Überhöhung der Abtastrate aus Sicht der Domain, in der man das Sample aufgenommen hat und betrachtet mit dem Ziel es unterhalb der Auflösung eines Samples zu verschieben.
die eine Aufnahme ist einfach im Vergleich zur anderen etwas in die Länge gezogen, und ich weiß nicht, wieso das so ist.
Weil die Abtastraten bei der Aufnahme und/oder dem Abspielen nicht passen.

Ja, da hast du wahrscheinlich Recht, aber auf so einen trockenen Theorieschinken für 120euro hab ich keine Lust, ich experimentiere lieber selbst herum, da ich mehr Spaß dran.
Es wäre aber sicher hilfreich, wenn du wenigstens die Grundbegriffe und Prinzipien erlernen willst.
Was das erfolgreiche Bearbeiten angeht, wirst du es kaum schaffen, was Sinnvolles zu erreichen, wenn du nicht auf das zurückgreifst, was Tausende andere vor dir durch "Experimentieren" (= Forschung) herausbekommen haben und was von Hundertausenden (= anwendenen Ingenieuren) geprüft und optimiert wurde.
Ein Leben reicht nicht aus, um auch nur 1% davon selber rauszubekommen.

Ich wünsche trotzdem viel Erfolg. ;)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich habe die selbe Datei zwei mal über die JBL mit Bluetooth aufgenommen, alle Parameter identisch, das Handy in gleichem Abstand von der Box, gleiche Lautstärke, alles genau gleich.
Trotzdem kann ich beide Dateien nicht exakt übereinander legen. Wenn ich den ersten Klick perfekt ausrichte, ist ab dem ca. 5-6 Klick ein deutlicher Versatz zwischen den Signalen sichtbar.
Kann es sein, dass auf diesem Übertragungsweg manchmal ein Blöckchen mit Samples verlorengeht? Bluetooth-Audio ist billiger Consumer-Funk zum Musikhören oder zum Telefonieren. Das hat keine hohe Übertragungssicherheit, und wenn da was knackst oder kurz aussetzt, ist das wurscht.

Zum Aufnehmen und Dokumentieren taugt sowas natürlich nicht.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Mit einem ganz anderen Signal funktioniert das natürlich nicht, aber warum sollte man auch zwei komplett unterschiedliche Signale übereinander legen, das ist ja nicht der Anwendungsfall.
Da hast du mich falsch verstanden. Ich meinte nicht dass du zwei verschiedene Signale gegenüberstellst. Sondern ein komplett anderes Signal mit sich selbst gegenüberstellen. Die Latenz müsste identisch sein, wie bis anhin mit dem Metronom, ganz egal was für ein Signal das ist.

Ich hatte jetzt erstmal akustische Instrumente (bzw primär Gitarre) und halt ein Metronom im Sinn. Und da ist die Ähnlichkeit zu einer Sinuskurve so gering, dass auch keine Gefahr besteht.
ääähmm. Eine schwingende Saite schwingt in einer Frequenz. Eine einzige Frequenz ist immer ein Sinuston. Es gibt noch weitere Frequenzen in einem Gitarrensignal. Das sind Obertöne. Vermischt sieht das nicht mehr aus wie ein Sinuston, klar, der Grundton ist es aber. Und der Grundton ist nunmal das, was dominiert.
Leg mal zwei verschiedene Sinustöne übereinander. Sieht natürlich ganz und gar nicht mehr wie ein Sinus aus. Es entsteht eine komplett neue Wellenform. Trotzdem sind es zwei überlagernde, periodische Sinustöne.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Eine schwingende Saite schwingt in einer Frequenz.
... wobei die reale schwingende Saite dadurch gekennzeichnet ist, dass die Obertöne infolge der nicht-idealen Geometrie nicht perfekte Vielfache der Grundwelle sind, was allein schon für einen ungleichmäßigen Amplitudenverlauf führt, selbst wenn man die Amplituden beider Wellen konstant lässt.
https://www.mikrocontroller.net/topic/461389#7232663

... im Weiteren an ihren beiden Aufhängepunkten einen recht komplizierten Zugspannungsverlauf aufweisen, welcher durch die einseitige Biegung zur Saite hin eine Art "Gleichrichtung" erfährt, was in die Aufhängung ein Spektrum injiziert, das nochmal oberwellenreicher und zudem um eine Oktave nach oben verschoben ist, welches dann durch das Instrument "gefiltert" und zeitverzögert an die Saite zurückgeben wird, wodurch wieder Resonanzen angeregt werden.

Das führt zu einer permanenten Energieverlagerung der Grundwelle in die Oberwellen, die nicht nur eine unpassende Frequenz sondern auch eine veränderliche Phase aufweisen und zu einem sehr komplizierten Amplitudenverlauf führen, während die Spannungsänderungen auch zu Resonanzverschiebungen führen, die die Frequenz der Grundwelle moduliert.

Deshalb laufen die Oberwellen einer gezupften Gitarrensaite nicht einfach nur so aus und lassen die Grundwelle über, sondern es bilden sich permanent neue Oberwellenanteile und Modulationseffekte.

Deshalb ist das nicht so einfach, reale Töne aus einem Mix zu entfernen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Das ist technisch Dasselbe. Es geht um eine Überhöhung der Abtastrate aus Sicht der Domain, in der man das Sample aufgenommen hat und betrachtet mit dem Ziel es unterhalb der Auflösung eines Samples zu verschieben.
Ah okay, das kannte ich vorher nicht. Außerhalb von Signalverarbeitung meint man Subsampling eigentlich das genaue Gegenteil, nämlich Datenpunkte aus der Betrachtung auszulassen. Aber dann bin ich ja beruhight, dass ich zumindest deinen Gedankengang verstanden habe.

Weil die Abtastraten bei der Aufnahme und/oder dem Abspielen nicht passen.
Aber woher kommen diese unterschiedlichen Abtastraten? Alle Signale werden mit 48Khz aufgenommen, gespeichert und im Programm auch wieder geöffnet. Wo kann da eine andere Abtastrate entstehen? Und warum entsteht die nur bei einer Datei und bei der anderen nicht, bzw warum entstehen unterschiedliche Abtastraten?

Kann es sein, dass auf diesem Übertragungsweg manchmal ein Blöckchen mit Samples verlorengeht? Bluetooth-Audio ist billiger Consumer-Funk zum Musikhören oder zum Telefonieren. Das hat keine hohe Übertragungssicherheit, und wenn da was knackst oder kurz aussetzt, ist das wurscht.
Gut möglich. Das Signal über Bluetooth war halt besser als das über Kabel, aber vielleicht sollte ich das nochmal über meine Hifi-Anlage testen.

Da hast du mich falsch verstanden. Ich meinte nicht dass du zwei verschiedene Signale gegenüberstellst. Sondern ein komplett anderes Signal mit sich selbst gegenüberstellen. Die Latenz müsste identisch sein, wie bis anhin mit dem Metronom, ganz egal was für ein Signal das ist.
Ja auch guter Punkt, das werde ich dann auch testen. Das Metronom eignet sich gut, da man die Ausschläge visuell gut sehen kann, aber du hast recht, ich sollte das auch mal mit anderen Geräuschen testen.

Eine einzige Frequenz ist immer ein Sinuston
Der Hauptunterschied ist, dass der Gitarrenton direkt nach dem Anschlag am lautesten ist und dann immer leiser wird, zumindest sofern kein Verzerrer drüber liegt. Der Sinuston ist gleichbleibend laut und daher gut von der Gitarre zu unterscheiden. Bei einem Streichinstrument oder Blasinstrument wird die Unterscheidung evt schon schwieriger, wenn es sehr gleichmäßig gespielt wird.
 
Außerhalb von Signalverarbeitung meint man Subsampling eigentlich das genaue Gegenteil, nämlich Datenpunkte aus der Betrachtung auszulassen.
Innerhalb auch;)
Ich hatte das im posting unglücklich abgekürzt, wie ich gerade sehe: Gemeint war "sub sample processing", also konkret eine Welle mit einem Filter nur um Bruchteile eines Samples zu verschieben. Das geht mit einem Interpolationsfilter über z.B. 5 Punkte, dessen virtuelles Maximum aus der Mitte verschoben ist, wie z.B. hier um einen halben Datenpunkt. Da kommt natürlich noch eine Fensterung und bei Bedarf das passende oversampling rein. Auf diese Weise lässt sich bei ausreichender Filterlänge und Fensterung eine Audiodatei aber in der Tat um z.B. 0,117 samples verschieben, wenn man möchte.
 

Anhänge

  • sub_sample_moving.jpg
    sub_sample_moving.jpg
    12,5 KB · Aufrufe: 137
  • Gefällt mir
Reaktionen: 1 Benutzer

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben