3D-Audio - der Sound der Zukunft

  • Ersteller Gast 23432
  • Erstellt am
MatthiasT schrieb:
Wenn man das wollte wäre das alles umsetzbar.

Mach' doch ma'! :) Du könntest Doch da sicher wirklich was machen. Am einfachsten wär's imho im ersten Schritt so:

Du nimmst den Binaural Decoder oder einen Normalen und hängst einfach die richtigen HRTFs (HRIRs heisst das dann eigentlich) dahinter, die z.B. eine würfelförmige Lautsprecheranordnung simulieren. Der Witz: Du musst ja gar nicht die HRIRs via Headtracking dynamisch in Echtzeit anpassen (wie das BRS und Headzone machen und was wahrscheinlich nicht so trivial und unproblematisch ist), sondern es reicht ja, wenn ein vor den Decoder geschalteter "Rotator" das B-Format gegensteuert und das IST beim B-Format ja im Gegensatz zu "normalen" Formaten möglich, ja sogar trivial. Eigentlich reicht es also, wenn Du es schaffst, dass dein Headtracker ein Midi-Signal ausgibt, das ein entsprechendes VST-Plugin fernsteuert.

So viel zur Theorie! :D

Wäre genau das was ich gebraucht hätte... läuft leider nicht auf Intel Macs.

Blöd. Naja, musst halt eben selber verkabeln in Audiomulch, Bidule oder so. Die HRIRs hast Du ja schon gefunden. Das Plugin macht soweit ich weiß auch überhaupt nichts anderes, als pro Kanal eben den richtigen Lautsprecher via HRIR mit der jeweiligen Orientierung zu simulieren.
 
Die einfachste Lösung: Smartphone auf den Kopfhörer gaffern und per TouchOSC die Orientierung als Midi Daten in die DAW einspeisen. ;)
Ich bin mir aber nicht sicher wie gut dass dann wirklich funktioniert und ich wäre dankbar wenn meine Bastelleien aktuell auf Software beschränkt bleiben würden, ich muss nebenher auch noch meine Monitore fertig bekommen. ;)
Ich meinte mehr dass das im kommerziellen Maßstab eigentlich kein Problem wäre bzw. kein Hersteller SciFi Technologie bräuchte um sowas billig auf den Markt zu werfen.
 
Tonstudio2 schrieb:
Auch für die Abmischung einer Band wird das wohl keine Rolle spielen

Ich fände 3D auch gerade für künstliche Mischungen sehr interessant. Je mehr Möglichkeiten die Technologie bietet, je genauer ich damit das zu erzeugende Schallereignis kontrollieren kann, desto mehr kann ich künstlerisch damit anstellen.

Ich meinte mehr dass das im kommerziellen Maßstab eigentlich kein Problem wäre bzw. kein Hersteller SciFi Technologie bräuchte um sowas billig auf den Markt zu werfen.

Tja, ich weiss auch nicht, mich irrtiert das auch sehr. Die machen doch sonst sämtlichen Quatsch und vermarkten den als größte Innovation seit Erfindung des Faustkeils. Schau'n wir mal. Heute belächeln das vielleicht die meisten: "Wer braucht das schon?" Wenn der Herr Brandenburg vor 20 Jahren erzählt hätte: "Hey, Wir arbeiten an einem verlustbehaftetem Kompressionverfahren für digitale Audiotaten auf Basis psychoakustischer Erkenntnisse.", dann hätten wohl die meisten Experten auch gesagt: "Ahja? Fein, mach' nur, wenn's Dir Spass macht." :rolleyes:

auf Software beschränkt bleiben würden
Mit der Kinect sollte sowas doch einfach zu bewerkstelligen sein, oder?
 
Zuletzt bearbeitet:
Auch für die Abmischung einer Band wird das wohl keine Rolle spielen
Ich denke es gibt mehrere Anfwendungsfälle.

Der von den meisten Tonmeistern diskutierte Fall den Aufnahmeraum besser beim Hörer abbilden zu können finde ich schon fast ein wenig fragwürdig. Nicht umsonst wird ja fast immer das Heimkino deutlich stärker bedämpft als die Stereo Situation. Man fügt sich die fehlenden Rückreflexionen einfach durch den eigenen Raum ein. Den Aufwand den man für die Musikanlage treibt nur um den Hallraum den man wahr nimmt zu verändern...
Bei einer statischen, direkten Bandaufnahme bringt das sicher auch nur marginalen Vorteil bzw. wäre am Ende wohl verzichtbare Spielerrei.

Ich denke die großen Chancen wären eher bei elektronischer Musik (oder auch aufgenommener Musik in der die Produktion einen ähnlichen Stellenwert hat). Allein die Möglichkeit Klänge völlig frei im Raum zu bewegen würde gigantische Möglichkeiten eröffnen.

---------- Post hinzugefügt um 00:52:03 ---------- Letzter Beitrag war um 00:41:06 ----------

Tja, ich weiss auch nicht, mich irrtiert das auch sehr. Die machen doch sonst sämtlichen Quatsch und vermarkten den als größte Innovation seit Erfindung des Faustkeils.
Es ist ja nicht so dass es das nicht gäbe. Surround Kopfhörer werden ja durchaus verkauft, und da gibts auch Modelle die Headtracking machen.

Das das nicht das Riesenthema ist bei den Herstellern kann ich allerdings auch verstehen. Für Musik ist sowas nicht verkäuflich weil es da einfach kein Material gibt was der Kunde abspielen könnte, also bleibt wieder nur Film übrig. Hier wird ja auch ein wenig was in die Richtung gemacht, aber Heimkino ist klassischwerweise etwas dass man mit mehreren Leuten macht. Zudem kann hier die Kopfhörernutzung schon nerven. So richtige Kassenschlager erwartet hier wohl zurecht niemand.
 
Es ist doch eben ein Teil des "Problems", dass man so phantasielos ist, was mögliche Anwendungen angeht. Surround-Kopfhörer, das war's...:redface:

Schon die Wiedergabe von Stereomaterial liesse sich in vielerlei Hinsicht verbessern, z.B. wenn der iPod wirklich eine gute LS-Raum-Kombination mit fester Position simuliert. Ich hasse diese ganzen Aspekte bei Kopfhörerwiedergabe: Alles ist im Kopf lokalisiert, alles dreht sich mit meinem Kopf mit.

Headtracking, wo auch erfasst wird (Also nicht nur die Kopfdrehung oder -neigung), wo im Raum ich mich befinde, bietet auch ohne Kopfhörer-Wiedergabe phantastische Möglichkeiten. Alleine eine Laufzeit- und Pegelanpassung der Kanäle (Stereo oder Mehr) in Echtzeit, wäre sicher schon gut. Die Übertragungsfunktion des Raum könnte ausgeglichen werden mit dynamisch-adaptiven Filtern, bis hin zu Filtern für die andere Aspekte der Raumakustik (Frühe Reflektionen, etc.). Filter zur Übersprechungsauslöschung (=ambiophonics, auch sehr interessant) können so auch gestaltet werden, damit kann man Stereo-Signale, und besonders gut binaurale Signale, über zwei LS und einer "Soundstage" von 120° oder mehr hören.

Um die in dieser Hinsicht natürlich immer noch weit vorteilhaftere Kopfhörerwiedergabe (3D ist einfacher, mehrere Hörer gleichzeitig, Raumakustik komplett ausgeblendet, usw.) nutzen zu können, liessen sich, neben aufwendigeren Verfahren wie dem "Binaural-Sky", Kopfhörer sicher auch "akustisch" transparent gestalten um das "soziale Problem" zu eliminieren. Hat man In-Ear könnte man vielleicht mit zusätzlich Mikrofonkapseln quasi gleichzeitig eine Aufnahme der Aussengeräusche machen und zumischen. Diese Aufnahme ist binaural, logischerweise sogar mit eigener HRTF und "natürlichem Echtzeit-Headtracking ;)". Damit könnte es sein, dass man die Personen und seine ganze Umgebung akustisch sehr natürlich wahrnimmt und die Köpfhörer komplett vergisst. Das wäre dann sogar weit weniger störend als eine 3D-Brille, trotzdem kann jeder Zuhörer mit perfektem 3D-Klang versorgt werden.

Apropos: Visuelles 3D ist ja der letzte Schrei. Bleibt zu hoffen, dass das auch der Anstoß für eine entsprechende Entwicklung im Audiobereich ist.
 
Zuletzt bearbeitet:
Der von den meisten Tonmeistern diskutierte Fall den Aufnahmeraum besser beim Hörer abbilden zu können finde ich schon fast ein wenig fragwürdig. Nicht umsonst wird ja fast immer das Heimkino deutlich stärker bedämpft als die Stereo Situation. Man fügt sich die fehlenden Rückreflexionen einfach durch den eigenen Raum ein.

...das klappt aber nur so lange ganz gut, so lange der Wiedergaberaum wenigstens ganz grob dem Aufnahmeraum vergleichbar ist. Sonst führt die Doppelräumigkeit, die entsteht wei das Signal eben zwei Räume durchläuft, den Aufnahme- und die Wiedergaberaum, zu völlig falschen Ergebnissen. Meistens sind die Reflexionen des Wiedergaberaumes viel zu früh, weil der Aufnahmeraum eben größer war. Dann bleibt nur die Bedämpfung.

Die führt dann wieder zu einer langweiligen Wiedergabe, bei der die ganze Musik nur aus den Lautsprechen kommt. Dann wird auch deutlich hörbar, das die Aufnahmen nur zweidimensional sind, weil aller Schall nur aus der horizontalen Ebene kommt. Das ist nicht schlimm in Bezug auf die Quelle, die ist meistens etwa in der horizontalen Ebene. Nicht aber ihre ersten schallstarken Reflexionen im Aufnameraum. Die kommen aus allen Richtungen und erzeugen damit erst die Räumlichkeit der Aufnahme.

Diese Räumlchkeit auch nur annähernd korrekt wiederherzustellen ist mit den konventionellen Verfahren nicht möglich.


Guss Helmut
 
...das klappt aber nur so lange ganz gut, so lange der Wiedergaberaum wenigstens ganz grob dem Aufnahmeraum vergleichbar ist. Sonst führt die Doppelräumigkeit, die entsteht wei das Signal eben zwei Räume durchläuft, den Aufnahme- und die Wiedergaberaum, zu völlig falschen Ergebnissen.
Das ist definitiv richtig, bleibt die Frage wie relevant das in der Praxis ist.

Worauf ich eher hinaus wollte: Ohne Frage wäre hier Surround natürlich die "richtigere" Reproduktion des Raumes. Allerdings fängt das so mit 7 Lautsprechern an ein klein wenig Spaß zu machen, denn seitlich und hinter dem Kopf funktioniert die Phantommitte zwischen zwei Lautsprechern nicht so richtig, man braucht also mehr wenn man nicht die einzelnen Lautsprecher orten will. Man hat also fast eine vervierfachung der Kosten - für eine absolute Minimalanordnung. Und dazu muss man den Raum deutlich stärker bedämpfen. Und genau dieser Aufwand wird in meinen Augen wirklich fragwürdig wenn er allein durch die Darstellung von Rückreflexionen begründet wird.
 
Ich glaube, wir drei sind uns einig: Die konventionellen Surroundansätze sind ganz nett, aber absolut nicht mehr. Aus technischer und künstlerischer Sicht sind sie ein Witz:

Erst ein Kanal. Dann halt zwei. Drei sind langweilig. Ach nehmen wir vier. Wie? Funktioniert nicht? hm. Nehmen wir fünf! Wie, das funktioniert trotzdem nicht wirklich und die Leute sind nach Quadro skeptisch? Gebt ihnen ein Gimmick! Bass, Subwoofer, LFE, "BOOOOOM BOOOOOM". Tataaa: 5.1! :D

Letztlich bleibt die Frage, wie ist unter einem praktikablem Kosten-Nutzen-Aspekt eine bestmögliche Wiedergabe zu realisieren? Ich sehe da fast nur die Möglichkeit Kopfhörer bzw. genauer gesagt Methoden, die die beiden Ohren direkt unter Umgehung der Raumakustik des Wiedergaberaumes jeweils mit einem Kanal "füttern", zu verwenden.
 
Schade, dass die Diskussion nicht in Fahrt kommt. ;)

Noch ein Tip für die Experimentierfreudigen:

Es gibt ein hochwertiges Reverb (besser gesagt einen IR-Generator ähnlich dem von Voxengo), das B-Format Impulsantworten ausgibt:

http://www.catt.se/the_suite.htm

Bewegte Quellen sind damit zwar nicht möglich, aber für Statische hat man dann gleich die theoretisch perfekte "Spatialisation" also "Panning" (das Wort ist hier eigtl. völlig deplaziert) plus korrekte ERs.
 
Ich glaube, wir drei sind uns einig: Die konventionellen Surroundansätze sind ganz nett, aber absolut nicht mehr. Aus technischer und künstlerischer Sicht sind sie ein Witz:

Erst ein Kanal. Dann halt zwei. Drei sind langweilig. Ach nehmen wir vier. Wie? Funktioniert nicht? hm. Nehmen wir fünf! Wie, das funktioniert trotzdem nicht wirklich und die Leute sind nach Quadro skeptisch? Gebt ihnen ein Gimmick! Bass, Subwoofer, LFE, "BOOOOOM BOOOOOM". Tataaa: 5.1! :D

...du hattest doch weiter vorn selbst schon auf eine mögliche Lösung verlinkt:

Es ist echt zum Heulen...

Es gibt übrigens auch Ansätze für 3D-WFS:

http://www.syntheticwave.de/

Der Witz hierbei ist, dass der Wiedergaberaum mit in die "Gleichung einfliesst", d.h. dessen Reflexionen werden gezielt genutzt. Habe mit dem Entwickler in einem anderen Forum mal gesprochen. Er hat noch niemanden gefunden, der die Umsetzung mitfinanziert...

...da steht in Kapitel 3:

Im vorigen Kapitel wurde beschrieben, warum wir auch nicht in der Lage sind, mit mehreren Mikrofonen die korrekte Räumlichkeit des Originalschallfeldes einzufangen. Deshalb sollten wir uns die Frage stellen, ob der Grundansatz, den wir seit Blumlein so verbissen verfolgen, wirklich geeignet ist. Phantomschallquellen migrieren immer mit der Zuhörerposition. Die korrekte Reproduktion der akustischen Verhältnisse im Aufnahmeraum ist deshalb mit ihnen nicht möglich. Das Räumliche Schallfeld ist nicht vollständig durch den Signalunterschied zwischen Punkten beschreibbar. Diese Signaldifferenz ist an jedem Punkt im Aufnahmeraum anders. Für eine authentische Wiedergabe müssen wir aber die Räumliche Struktur der Wellenfronten in einem Volumen wiederherstellen. Das heisst, eine Bewegung des Zuhörers im Wiedergaberaum muss die gleichen Veränderungen in der Wahrnehmung bewirken, wie eine entsprechende Bewegung im Aufnahmeraum.

...ist ja dann auch beschrieben, wie das geht. Ich finde, ist eine super Seite :D


Gruss H.
 
Ich glaube, wir drei sind uns einig: Die konventionellen Surroundansätze sind ganz nett, aber absolut nicht mehr. Aus technischer und künstlerischer Sicht sind sie ein Witz:
Klar hast du erstmal recht, aber die Entwicklung finde ich schon nachvollziehbar. Angefangen hat es ja in den Kinos.

Erstmal geht man von Stereo aus. Außermittig bekommt man hier Probleme mit der Phantommitte, also baut man einen Center hinzu damit die Stimmen immer direkt aus der Leinwand kommen. Anfangs hatte man dann nur einen einzigen für den rückwertigen Kanal spendiert (mehr hätte man in dem Lichtton auch nicht unter bekommen), später wurde es dann mehr und irgendwann hat man sich auch nochmal einen Subwoofer gegönnt.
Im Kino ergibt das Ganze durchaus Sinn, die Effektkanäle sind Lautsprecherarrays oder Dipole, strahlen also diffus. Es geht im Grunde nicht um wirklichen Raumklang und punktgenauer Lokalisation von Schallquellen. Man versteckt die Fehler in einer diffusen Klangsuppe, aber hier erfüllt es pragmatisch gesehen den Zweck durchaus.
Problematisch wird es dann wenn man das eben mal auf die Anlage zuhause überträgt wo eben pro Seite nicht 20, sondern nur ein einziger Lautsprecher steht. Und für Musik ist das erst recht nicht geignet.

Ich müsste mal drauf achten, aber im Kino hatte ich auch immer das Gefühl dass für die Filmmusik so gut wie nie wirklich Surround genutzt wird sondern dass man im Grunde einen Stereomix von vorne hört.


Letztlich bleibt die Frage, wie ist unter einem praktikablem Kosten-Nutzen-Aspekt eine bestmögliche Wiedergabe zu realisieren? Ich sehe da fast nur die Möglichkeit Kopfhörer bzw. genauer gesagt Methoden, die die beiden Ohren direkt unter Umgehung der Raumakustik des Wiedergaberaumes jeweils mit einem Kanal "füttern", zu verwenden.
Aber niemand will nur über Kopfhörer hören. Raumklang hin oder her, Musik die ich nur über den Kopfhörer hören könnte würde mich ganz schön annerven.
 
Sicher ist die Entwicklung nachvollziehbar. Das macht die Sache natürlich nicht besser. Im Kino funktioniert das. Klar. Aber schon die Übertragung auf den Heimanwender...

Aber gut, das haben wir jetzt schon durchgekaut. ;)

Zum Kopfhörer:
Ich hasse Kopfhörer sogar. Aber ich meine, es ist möglich Kopfhörer zu entwickeln, die man eben gar nicht mehr als solche wahrnimmt, die man beim Tragen komplett vergisst. Hab' ich ja in den anderen Posts schon beschrieben. Das Wiedergabeverfahren an sich muss "Binaural" sein und der Kopfhörer für die Umgebungsgeräusche transparent werden. Der Tragekomfort kommt noch hinzu, ist aber sicher das geringste Problem.

Ich habe auch bewusst nicht Kopfhörer gesagt sondern
genauer gesagt...
, denn es gibt ja eben auch andere Methoden jedes Ohr korrekt zu füttern, als den Kopfhörer, von Einfachen wie Übersprechungsauslöschung, über Komplexe WFS-basierte Verfahren, wie "Binaural Sky". Auch der Ansatz von "syntheticwave" wäre da sicher zu gebrauchen, um solche fokussierten Quellen zu erzeugen, die dich immer an den richtigen Ort "verfolgen".

Eine ganz andere interessante Frage wäre noch, wie gut das Hirn es überhaupt verkraftet bzw. als wie angenehm es es empfindet, eine perfekte akustische Illusion präsentiert zu bekommen, die im Widerspruch zu den anderen Sinnesinformationen steht.
 
Ich habe auch bewusst nicht Kopfhörer gesagt sondern , denn es gibt ja eben auch andere Methoden jedes Ohr korrekt zu füttern, als den Kopfhörer, von Einfachen wie Übersprechungsauslöschung, über Komplexe WFS-basierte Verfahren, wie "Binaural Sky". Auch der Ansatz von "syntheticwave" wäre da sicher zu gebrauchen, um solche fokussierten Quellen zu erzeugen, die dich immer an den richtigen Ort "verfolgen".

...Binaural Sky hab ich paarmal gehört und es hat mich nie begeistert. Man kann nicht Schall von oben wiedergeben und über HRTF Korrektur hoffen, das man ihn dann von vorn wahrnimmt, dazu sind sie HRTFs individuell viel zu unterschiedlich.

Der andere Ansatz ist einfacher. Keine Schallquelle selbst hat irgendein räumliches Schallfeld. Wie der Name schon sagt, entsteht das durch Reflexionen im Raum. Man muss also nur genau das machen, was der Raum macht: Das Signal der Quelle selbst von allen Punkten wiedergeben, an denen im Aufnahmeraum eine Reflexion entsteht.

Gruss Helmut
www.syntheticwave.de
 
Klar. Aber schon die Übertragung auf den Heimanwender...
Es würde funkionieren wenn man sich zuhause in etwa an die Spezifikationen hält. Das machen allerdings nur ziemliche Freaks, ist zugegebenermaßen auch recht aufwändig.

Eine ganz andere interessante Frage wäre noch, wie gut das Hirn es überhaupt verkraftet bzw. als wie angenehm es es empfindet, eine perfekte akustische Illusion präsentiert zu bekommen, die im Widerspruch zu den anderen Sinnesinformationen steht.
Wenn man von guten Kunstkopfaufnahmen ausgeht die ja schon sehr nahe dran sind würde ich sagen dass das kein Problem ist. Auch WFS soll ja sehr beeindruckend sein auch wenn dort Akustik und Optik nicht zusammen passt.



Das Binaural Sky dingens will ich auch erst hören bevor ich glaube dass Crosstalk Cancelation dort richtig funktioniert. Am Besten ist wohl immer noch die klassische Wellenfeldsynthese, vor allem da sie positionsunabhängig funktioniert.
Das wäre definitiv auch was wo ich richtig Bock hätte das mal in klein aufzubauen. Gute Breitbänder in etwas höheren Stückzahlen kosten auch nicht die Welt, das Problem ist die Wandlung (mal eine Soundkarte mit >100 Ausgängen gekauft... ich nicht) und die Verstärkung.
 
...Binaural Sky hab ich paarmal gehört.

Da hast Du mir natürlich was voraus ;)



dazu sind sie HRTFs individuell viel zu unterschiedlich.
Ist das wirklich das entscheidende Problem bei dem Verfahren? Dann müsste es auch entscheidend sein, bei allen Verfahren, die darauf bauen. Andererseits: Eine individuelle Einmessung ist zwar nicht trivial, aber lösbar.

Der andere Ansatz ist einfacher
Auf welchen beziehst Du Dich?

Keine Schallquelle selbst hat irgendein räumliches Schallfeld. Wie der Name schon sagt, entsteht das durch Reflexionen im Raum. Man muss also nur genau das machen, was der Raum macht: Das Signal der Quelle selbst von allen Punkten wiedergeben, an denen im Aufnahmeraum eine Reflexion entsteht.
Das Problem hatten wir weiter oben schon: Das ist ein Punkt den ja auch "ihre Tonmeisterlichkeiten" nicht ganz zu unrecht kritisieren. Erstens ist ein Instrument in der Praxis immer räumlich, es strahlt ja in jedem Frequenzbereich anders ab und besteht auch IMMER aus mehr als einer Schallquelle. Man bräuchte also ein Aufnahmeverfahren, das die natürliche Räumlichkeit eines Instrumentes neutral einfängt, das ist aufwändig und das kann man nicht mehr pi mal Daumen machen wie Stereo. Da bräuchte man wohl eine dreidimensionale Anordnung von Mikrofonen um das Instrument und zwar derart, dass die Signale sinnvoll zueinander in Beziehung gesetzt werden können. Stichwort O-Format (Link weiter oben). Da bräuchte man sowas wie ein invertiertes Higher-Order-Ambisonics-Mikrofon, in dessen Mittelpunkt das Instrument "sitzt".

Man merkt das ja auch bei der Arbeit mit Samples: So gut z.B. VSL Insturmente sind, selbst mit Impulsantworten, die das frequenzabhänige Abstrahlverhalten berücksichtigen bzw. simulieren (Vienna MIR) wird aus den Mono-Samples einfach kein wirklich überzeugendes Ergebnis generiert.

Es würde funkionieren wenn man sich zuhause in etwa an die Spezifikationen hält. Das machen allerdings nur ziemliche Freaks, ist zugegebenermaßen auch recht aufwändig.

Guck' mal unter trinnov.com. Arbeitet u.a. auch mit HOA-Ambisonics soweit ich weiß...





Am Besten ist wohl immer noch die klassische Wellenfeldsynthese, vor allem da sie positionsunabhängig funktioniert.
Das wäre definitiv auch was wo ich richtig Bock hätte das mal in klein aufzubauen. Gute Breitbänder in etwas höheren Stückzahlen kosten auch nicht die Welt, das Problem ist die Wandlung (mal eine Soundkarte mit >100 Ausgängen gekauft... ich nicht) und die Verstärkung.
Vielleicht mag sie am besten sein, aber die Frage stelle ich mir nicht mal, weil, wie Du selbst sagst, das absolut unrealisierbar ist. Meine Überlegungen gehen wirklich eher in die Richtung, was kann man "selbst" oder jemand der ein wenig Ahnung hat, vielleicht als "proof of concept" realisieren. Da ist es mir auch erstmal egal, ob ich Kopfhörer tragen muss oder nicht.
 
...mit den HRTFS ist wirklich extrem. Wenn du die Blauert- Bänder von verschiedenen Personen genau vergleichst, merkst du das manche Personen genau bei der Frequenz einen Einbruch haben, wo bei anderen eine Überhöhung ist. Die ganzen Verfahren sind wohl eher was für den Durchschnittshörer.

Das Problem hatten wir weiter oben schon: Das ist ein Punkt den ja auch "ihre Tonmeisterlichkeiten" nicht ganz zu unrecht kritisieren. Erstens ist ein Instrument in der Praxis immer räumlich, es strahlt ja in jedem Frequenzbereich anders ab und besteht auch IMMER aus mehr als einer Schallquelle. Man bräuchte also ein Aufnahmeverfahren, das die natürliche Räumlichkeit eines Instrumentes neutral einfängt, das ist aufwändig und das kann man nicht mehr pi mal Daumen machen wie Stereo. Da bräuchte man wohl eine dreidimensionale Anordnung von Mikrofonen um das Instrument und zwar derart, dass die Signale sinnvoll zueinander in Beziehung gesetzt werden können. Stichwort O-Format (Link weiter oben). Da bräuchte man sowas wie ein invertiertes Higher-Order-Ambisonics-Mikrofon, in dessen Mittelpunkt das Instrument "sitzt".

...

Vielleicht mag sie am besten sein, aber die Frage stelle ich mir nicht mal, weil, wie Du selbst sagst, das absolut unrealisierbar ist. Meine Überlegungen gehen wirklich eher in die Richtung, was kann man "selbst" oder jemand der ein wenig Ahnung hat, vielleicht als "proof of concept" realisieren. Da ist es mir auch erstmal egal, ob ich Kopfhörer tragen muss oder nicht.

...und ich bleibe auch wieder dabei, ohne Raum ist kein Instrument räumlich. Es hat nur in den verschiedenen Richtungen eine unterschiedliche spektrale Abstrahlung. Die läßt sich aber sehr gut mathematisch beschreiben und in die Synthese einbeziehen.

Ein Instrument kann man schon aufnehmen, ohne dabei allzu viel Reflexionen mit einzufangen. Bei der Stützmikrofontechnik macht man ja nichts anderes. Aus vielen Instrumenten kommt heute im übrigen das Signal selbst schon raus, so das sich das Problem gar nicht stellt.

Wllenfeldsynthese ist nicht unrealisierbar. Leider haben sich die Forschungsinstitute alle auf den Datenbasierenden Ansatz eingeschossen, da ist der Rechenaufwand extrem. Der Modellbasierende Ansatz läßt sich auf einem einzigen Rechner realisieren.

Gruss H.
www.syntheticwave.de
 
Ja, danke für die Rückführung auf meine Intentionen im Startpost, der Helmut Wittek ist eine der Quellen, die im VDT-Magazin verwendet werden :).
 
Was mir beim Lesen schon mal ins Auge gestochen ist:

Beliebige elevierte Phantomschallquellen sind mit dem System nicht möglich. Es geht nur am oberen oder unteren Rand, also nur auf der Horizontalen zwischen den Standard-LR-LS oder jener der erhöhten LR-LS. Wer also meint er könnte schön die ganze durch die Front-LS umrahmte Fläche für die Platzierung von Phantomschallquellen nutzen, dürfte enttäuscht werden. ;)
 
Man bräuchte also ein Aufnahmeverfahren, das die natürliche Räumlichkeit eines Instrumentes neutral einfängt, das ist aufwändig und das kann man nicht mehr pi mal Daumen machen wie Stereo. Da bräuchte man wohl eine dreidimensionale Anordnung von Mikrofonen um das Instrument und zwar derart, dass die Signale sinnvoll zueinander in Beziehung gesetzt werden können. Stichwort O-Format (Link weiter oben). Da bräuchte man sowas wie ein invertiertes Higher-Order-Ambisonics-Mikrofon, in dessen Mittelpunkt das Instrument "sitzt".
t.

Gibts auch schon länger. Wir haben am Institut ein Kugelarray mit ca 2,6m Durchmesser, wo 64 Mikrofone auf der Kugeloberfläche verteilt sind. Damit kann man die Abstrahlcharakteristik von Instrumenten analysieren.
Hat aber auch noch einige Probleme, z.B. räumliche Zentrierung der Schallquelle, nicht volle Audiobandbreite etc.
kleine Demo: http://sh.toningenieur.at/
 
  • Gefällt mir
Reaktionen: 2 Benutzer

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben