Binaurales Kopfhörer-Hören

Fujak
Moderator
Beiträge: 5752
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Harald,

spannendes Thema, was Du da anpackst. Ich glaube es kommen insgesamt 4 Differenz-Faktoren zum Tragen, um eine AKL (Außer-Kopf-Lokalisation) zu bewirken:

Bezogen auf das rechte LS-Signal:
  • 1. Das rechte LS-Signal kommt am linken Ohr mit verändertem Pegel an
  • 2. Das rechte LS-Signal kommt am linken Ohr mit veränderter Frequenz an
  • 3. Das rechte LS-Signal kommt am linken Ohr mit veränderter Laufzeit an
  • 4. Das rechte LS-Signal kommt am linken Ohr mit einem anderen Gemisch an Raum-Reflektionen an
(Gleiches gilt analog für das linke LS-Signal am rechten Ohr.)
Bezogen auf die Faktoren 1-3 lassen sich diese durchaus mit Acourate nachbilden. Faktor 4 ist sehr schwer nachzubilden.
  • Faktor 1 und 2: Das Filter muss die Differenz im FG zwischen direktem und indirektem Signalanteil nachbilden. Dazu muss das direkt gemessene Signal vom indirekten subtrahiert werden. Dann hat man den Filter in Bezug auf den FG und natürlich auch damit in Bezug auf den Pegel.
  • Faktor 3: Die Differenz in der Laufzeit kann mit der Sample-Rotate-Funktion (unter TD-Functions) realisiert werden.
  • Faktor 4: Da habe ich spontan keine Idee, wie man das realisieren kann. Aber vielleicht kommt man mit Faktor 1-3 bereits schon sehr weit.
Die Kopfstellungsanpassung würde ich vernachlässigen. Denn sie stellt aus meiner Sicht keinen notwendigen Faktor für eine AKL dar: Wenn man seiner Musik aus dem Laustsprecher lauscht und dabei den Kopf absolut still hält, entsteht trotzdem eine AKL und nicht auf einmal eine IKL.

Grüße
Fujak
Bild
nihil.sine.causa
Aktiver Hörer
Beiträge: 1506
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitrag von nihil.sine.causa »

Hallo Fujak,

danke für die Tipps. Ich muss das in Ruhe in (((acourate))) nachvollziehen. Zwei Fragen habe ich aber direkt:

Faktor 3: Welches Signal würdest Du hier zugrunde legen? Das Ergebnis aus 1 und 2?

Wie steht es mit den Signalen, die vom rechten LS zum rechten Ohr gehen? Wären die von Dir erwähnten Differenz-Faktoren da nicht auch gültig?

Gruß Harald
Bild
Fujak
Moderator
Beiträge: 5752
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Harald,
nihil.sine.causa hat geschrieben:Faktor 3: Welches Signal würdest Du hier zugrunde legen? Das Ergebnis aus 1 und 2?
Du hast ja immer zwei Messungen pro Kanal (Direkt und Indirekt). Da es ja hier um die Time-Domain handelt, sollte hier die Pulse-Differenz zwischen Direkt und Indirekt auf der Zeitachse zugrunde gelegt werden.
nihil.sine.causa hat geschrieben:Wie steht es mit den Signalen, die vom rechten LS zum rechten Ohr gehen? Wären die von Dir erwähnten Differenz-Faktoren da nicht auch gültig?
Die Frage verstehe ich nicht, denn ich beziehe den Begriff der Differenz immer auf den UNterschied zwischen Direkt-Signal und Indirekt-Signal.

Grüße
Fujak
Bild
nihil.sine.causa
Aktiver Hörer
Beiträge: 1506
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitrag von nihil.sine.causa »

Hallo Fujak,
Fujak hat geschrieben:
nihil.sine.causa hat geschrieben:Wie steht es mit den Signalen, die vom rechten LS zum rechten Ohr gehen? Wären die von Dir erwähnten Differenz-Faktoren da nicht auch gültig?
Die Frage verstehe ich nicht, denn ich beziehe den Begriff der Differenz immer auf den UNterschied zwischen Direkt-Signal und Indirekt-Signal.
Ich meine das so: es macht duch einen Unterschied, ob ich das Signal aus der rechten Kopfhörer"muschel" direkt ins rechte Ohr bekomme oder ob es aus dem rechten LS kommt und durch meine anatomischen Gegebenheiten modifiziert wird.

Aus dieser Betrachtung würde ich - ganz analog zu den Überkreuzszenarien - eine Differenzbetrachtung ableiten: Direktsignal wäre das am Ohrplatz gemessene direkte Raumsinal, Indirektsignal wäre das von Rumpf-Kopf-Ohranatomie verfremdete Signal, gemessen (idealerweise) im Ohr.

Gruß Harald
Bild
nihil.sine.causa
Aktiver Hörer
Beiträge: 1506
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitrag von nihil.sine.causa »

Hallo (((acourate))) Experten,

da ich bei (((acourate))) bisher immer nur die Markos eingesetzt habe, komme ich jetzt nicht weiter.
  • Unter "FD Fuctions" habe ich "Amplitude Difference" gefunden. Ich kann auch zwei Logsweep-Signale laden und die Differenz zwischen direktem und indirektem Signal (wie oben diskutiert) bilden. Aber muss ich die Logsweeps nicht vorher glätten, so wie das sonst mit Marko 1 geschieht?
  • Unter "TD Functions" habe ich "Rotation" gefunden. Dort kommt die Warnung "You have to know what your are doing" Da ich das nicht wirklich weiß, bräuchte ich Hinweise, was hier zu machen ist.
  • Wie kann ich überhaupt einen Filter generieren, ohne Makro 4?
Gruß
Harald
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4658
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Harald,

ich denke, dass es zuerst nötig wäre, mit zwei Ohrmikros gleichzeitig aufzuzeichnen. So dass man nicht nur zwei voneinander unabhängige Messungen vorliegen hat, sondern auch den zeitlichen Bezug genau kennt.
Das bedeutet also eine Stereo-Aufnahme (der Acourate-Logsweep-Recorder tut dies leider zur Zeit nicht, weil nicht dafür vorgesehen). Bei dieser Aufnahme erhält man dann eben bei Wiedergabe vom linken LS die jeweiligen Signale, wie sie beim jeweiligen Ohr ankommen. Um Mikro-Unterschiede zu erkennen/eliminieren müsste man eine zweite Aufnahme durchführen und dabei die Mikros vertauschen.

Erst danach kommt die eigentliche Auswertung. Ich bin dabei gerne behilflich. Aber dazu ist eben erst einmal die Basis zu schaffen.

Grüsse, Uli

PS: bitte Vorschicht im Umgang mit dem Begriff "Differenz", wie hier mehrfach verwendet. Für die Auswertung benötigt man die Rechenvorgänge Convolution bzw. Deconvolution. Was vergleichbar wäre mit Addtition/Subraktion, Multiplikation/Division, also Rechenvorgang/inverser Rechenvorgang. Nun ist eine Convolution/Deconvolution im Zeitbereich dasselbe wie eine Multiplikation/Division komplexer Zahlen im Frequenzbereich (nach Fourier-Transformation) und dann wiederum eine Addition/Subtraktion nach logarithmischer Transformation. Das gilt dann aber nur für die Amplitude (Frequenzgang), wo wir dann Frequenzgangskurven addieren und subtrahieren können. Dabei ist aber die Phase nicht berücksichtigt und das ist bei der gegebenen Aufgabenstellung leider falsch. Die Phase (die die zeitlichen Bezüge beinhaltet) MUSS ebenfalls berücksichtigt werden. Insofern mag die Verwendung des Begriffs "Differenzbildung" umgangssprachlich verständlich sein, führt aber alleine nicht zu einer Lösung.
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9118
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Hallo Harald
Eine mMn unterschätzte Problematik der Platzierung von Mikrofonen im Ohr ist, dass man einen sachkundigen Gehilfen braucht. Der muss das Mikro mit Kabel beidseitig gleichartig positionieren, womit die umgebenden Ohrmuscheln keine weiteren Fehler einbringen.
Grüße Hans-Martin
Bild
JOE
Aktiver Hörer
Beiträge: 1227
Registriert: 21.07.2008, 20:36

Beitrag von JOE »

Hab' wenig Zeit, deshalb nur kurz diesen "nackten" Link:

https://www.ak.tu-berlin.de/fileadmin/a ... len_01.pdf

Vielleicht ist's ja nützlich

Joe


PS: Diese Alternative steht ja derzeit auch nicht zur Verfügung. Und AKG BAP-1000 werden - wenn überhaupt angeboten - wie auch der AKG K-1000 inzwischen über Neupreis gehandelt. Bliebe dann nur noch der Headzone.

PPS: Hans-Martins gerade geäusserten Vorbehalt möchte ich ausdrücklich unterstreichen.
Bild
nihil.sine.causa
Aktiver Hörer
Beiträge: 1506
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitrag von nihil.sine.causa »

Work in Progress

Die Vermeidung von IKL beim Kopfhörer-Hören hat es in sich. Ich will mal meine Überlegungen und Tests hier kurz darstellen. Ich bin wieder ein paar Schrittchen weiter, aber im Augenblick stecke ich mal wieder fest. Ideen / Tipps sind also sehr willkommen.

Ausgehend von den Hinweisen von Fujak und Uli in diesem Thread habe ich eine Aufnahme erstellt, so wie Uli sie vorgeschlagen hatte.
uli.brueggemann hat geschrieben: Harald,

ich denke, dass es zuerst nötig wäre, mit zwei Ohrmikros gleichzeitig aufzuzeichnen. So dass man nicht nur zwei voneinander unabhängige Messungen vorliegen hat, sondern auch den zeitlichen Bezug genau kennt.
Das bedeutet also eine Stereo-Aufnahme (der Acourate-Logsweep-Recorder tut dies leider zur Zeit nicht, weil nicht dafür vorgesehen). Bei dieser Aufnahme erhält man dann eben bei Wiedergabe vom linken LS die jeweiligen Signale, wie sie beim jeweiligen Ohr ankommen. Um Mikro-Unterschiede zu erkennen/eliminieren müsste man eine zweite Aufnahme durchführen und dabei die Mikros vertauschen.
Hierzu habe ich mir ein Soundman OKM II Classic Studio beschafft, den Logsweep (LogSweep48.wav die (((acourate))) unter eigene Dateien ablegt) mit foobar abgespielt und die Aufnahmen mit Audacity aufgezeichnet.

Uli hat mir dann Filter gerechnet und mir die einzelnen Schritte mühsam erläutert. Ich bin jetzt etwas besser eingearbeitet in (((acourate))) und das Filterrechnen ist eine nette abendliche Beschäftigung geworden. :lol:

Ich will Euch hier nicht mit allen Schritten langweilen, sondern bleibe mal bei den grundsätzlichen Überlegungen. Hierzu nochmals das Bildchen mit der Stereo-Abhörsituation, die ich gerne mit dem Köpfhörer simulieren will.

Bild

Ich sehe im Wesentlichen drei Einflussfaktoren, die sich voneinander trennen lassen.

1. Die Laufzeitunterschiede zwischen den direkten und indirekten Pfaden

Ein Signal von L ist schneller beim linken Ohr O_L als beim rechten Ohr O_R. Also ist L--> O_R zeitversetzt nach L --> O_L. Mit dem von Uli vorgeschlagenen Verfahren lassen sich diese Laufzeitunterschiede (bei meinem Kopf ca. 0,19 ms) messen. Man kann sie in die Filter einbauen (z.B. mit der Funktion Sub-sampleshift), aber ich baue sie erst einmal nur in das VST Convolver Script (in Zeile 2 in meinem Beispiel oben) ein. Dann kann ich unabhängig von den Filtern mit diesem Parameter spielen.

Es zeigt sich, dass der räumliche Eindruck sehr empfindlich von diesem Laufzeitunterschied abhängt. Ist das Laufzeitdelta zu klein, dann entsteht IKL, ist es zu groß, wird der Raumeindruck diffus, manchmal ist die Lokalisation sogar hinter dem Kopf.

2. Lautstärkeunterschiede zwischen den direkten und indirekten Pfaden

Das indirekte Signal L --> O_R ist leiser als das direkte Signal L --> O_L. Der Weg ist etwas weiter, der Kopf ist „dazwischen“ und dämpft. Das lässt sich ebenfalls messen. Ich isoliere diesen Effekt, indem ich im Kanalmixer …

Bild

… den „Rear Volume“ Regler nach links ziehe und damit die indirekten Pfade leiser mache.

Ist die Lautstärke der indirekten Pfade 0 (Regler ganz links), dann kommen nur die direkten Pfade durch und mein Höreindruck ist wie sonst bei Kopfhörern, links von rechts getrennt, als wäre die Welt in zwei getrennte Halbwelten gespalten durch eine schallundurchlässige Platte, die quer durch meinen Kopf geht. :shock:

Ist der Regler wie im Bild bei 1.00 dann ist das natürlich auch nicht gut: direkte und indirekte Pfade sind gleich laut und der Höreindruck ist vernebelt-unräumlich. Bei einer Zwischenstellung von z.B. 0.75 ist der Höreindruck räumlich klarer. Die richtige Einstellung ist – bei meinen Experimenten – auch abhängig von der jeweiligen Aufnahme. Wenn die Durchmischung von direkten und indirekten Pfaden stimmt, rastet der räumliche Höreindruck ein. Die Musik ist dann in sich räumlich richtig, was nicht heißt, dass sie außerhalb des Kopfes lokalisiert ist. Dazu benötigt man die anderen Einflussfaktoren.

3. Modifikation des Frequenzganges und der Phaseninformationen durch die Kopf-Ohr-Struktur

Wenn ein „über eines der Pfade laufendes“ Signal* mit der Kopf-Ohr-Situation interagiert, haben wir den dritten Effekt. Der Frequenzgang dieses Pfad-Signales verändert sich und auch sein Phasenspektrum. Dabei fasse ich die Pfad-Signale so auf, wie ich sie messe: entscheidend ist dabei, was am jeweiligen Ohr ankommt.

*Der am Ohr resultierende Schalldruck ist damit ein Produkt des Raumgeschehens, von isolierten Pfaden spreche ich nur, um die Bezeichnungen zu vereinfachen.

Ich habe mich nun gefragt, wie man diesen Effekt wohl isolieren kann, ohne gleich wieder an den Einflussfaktoren 1 und 2 herumspielen zu müssen. Dabei ist mir das Hören einer Mono-Quelle frontal vor dem Hörplatz eingefallen. In einem solchen Fall orten wir die Quelle C (für Center) doch auch außerhalb unseres Kopfes. (Wohingegen das Abspielen von Mono-Aufnahmen mit Stereokopfhörer ohne Korrektur besonders schrecklich ist für mich: Das Orchester schrumpft auf einem Punkt in meinem Kopf zusammen :cry: )

Wenn es also gelingt, eine Mono-Abspielsituation über Stereo-Kopfhörer zu simulieren (= Augen zu und es hört sich so an, als wäre der Mono-LS vor mir im Raum), sind wir am Ziel. Denn für die Stereo-Abspielsituation brauchen wir diesen Effekt eben zweimal für die zwei LS und dazu die wie oben beschriebene Kombination mit den Einflussfaktoren 1 und 2.

Bild

Wenn man sich das anschaut, wird klar, dass es keinen Sinn macht, zwischen direktem und indirektem Pfad zu unterscheiden. C --> O_L und C --> O_R sind symmetrisch. Wenn wir den Mono-LS dann verschieben bekommen wir die einzelnen Kanäle der Stereo-Situation oder beliebige andere Surround-Konfigurationen.

Mit meinen Soundman Mikrofonen habe ich solche Mono-Konfigurationen gemessen. Mit und ohne meinen Kopf (also einmal als Ohrmikrofone und einmal auf Mikrofonstative montiert). Die resultierenden Pulse habe teils direkt zu FIR verarbeitet, teils habe ich vorher versucht, die Rauminformationen aus den Pulsantworten vorher zu eliminieren (z.B. durch Ohrsignal minus Raumsignal). Letzteres bewährt sich bei meinen Experimenten nicht. Offenbar macht es Sinn das durch den Raum verdrehte Signal erst einmal mitzuschleppen. In einem späteren Schritt würde ich dann gerne mal mit verschiedenen Raum-LS-Situationen experimentieren. Vielleicht auch mal mit einem (sog.) schalltoten Raum.

Ich habe nun mit verschiedenen Fensterungen experimentiert und auch den Frequenzbereich eingeschränkt. Besonders wichtig für die Ortung sind die Frequenzen im Bereich oberhalb 400 Hz und unterhalb 3000 Hz. (Ich fenstere daher mit TD-Functions > Frequency dependend window z.B. mit 1 / 100, 1 / 100. D.h. niedrigere Frequenzen werden mit schmalerer Fensterbreite, höhere mit breiterer Fensterbreite gefenstert.)

Das wundert mich eigentlich, denn bei 3000 Hz haben wir Wellenlängen von 11,4 cm und man ist eigentlich da erst in der Nähe des Ohrabstandes 12+cm. Daher hätte ich vermutet, dass die Frequenzen oberhalb von 3000 Hz auch sehr wichtig sind.

Jedenfalls „sehen“ solche Filter „aus“, wie folgt:

Bild

Bei der Abspielsituation mit solchen Filtern muss darauf geachtet werden, dass man Mono-Filter hat und dass das verarbeitete Audio-Signal auch wirklich mono ist (ich verwende wieder den VST-Convolver und nutze für den Input lediglich einen Kanal einer Stereo-Quelle; Output ist dann natürlich Stereo für die beiden Ohren).

Nun zum Höreindruck. Bei Filtern unterhalb 400 Hz tut sich sehr wenig, außer dass störende Rauminformationen hinzukommen. Im Frequenzbereich zwischen 400 und 3000 Hz entsteht tatsächlich ein räumlicher Eindruck. Wenn ich die Augen schließe und ehrlich bin, ist der Lautsprecher vor mir, allerdings näher als in der realen Logsweepsituation und auch wesentlich verkleinert. Er sitzt mir aber auch nicht mehr direkt auf der Nase. Es hört sich sehr danach an, als käme alles aus einer Holzkiste vor mir in etwa 60 cm Abstand.

Wenn ich die drei Einflussfaktoren kombiniere, erhalte ich – gegenüber der Situation Ende November – einen wesentlich verbesserten räumlichen Höreindruck. Das Klanggeschehen ist jetzt nicht mehr räumlich verschränkt, was ich auf meinen naiven Umgang mit (((acourate))) zurückführe. Es klingt, als säßen die Musiker vor mir und auch nicht mehr direkt auf meiner Nase sondern etwas weiter von mir entfernt. Allerdings ist der Qualitätsverlust sehr hoch und alles ist zwar räumlich richtig aber klein-klein.

Nächste Schritte:

In den nächsten Wochen will ich noch ein paar Experimente machen, mit anderen Ohrmikros und anderen Frequenzbereichen. Mittelfristig würde mich auch die Variation der Rauminfo interessieren, sprich Experimente mit anderen Abhörsituationen.

Ich sehe aber auch, dass ich durch reines Herumprobieren nicht mehr weiterkomme. Daher werde ich mich jetzt mehr mit der einschlägigen Theorie zum Thema beschäftigen müssen.

Andererseits wäre es schön, wenn von Euch der eine oder andere Hinweis käme. Das hat immer sehr viel weitergeholfen.

Viele Grüße
Harald
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9118
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Hallo Harald
Ich habe noch nicht verstanden, warum die Wiedergabe von 2 Lautsprechern als Referenz dienen soll, wenn im Studio der Solist in der Mitte mit nur einem Mikrofon aufgenommen wurde. Die Wiedergabe durch 2 Lautsprecher führt zu einer Phantomschallquelle , die von der mehrfachenWahrnehmung (nächster Lautsprecher zuerst, anderer Lautsprecher verzögert und durch Beugung verfärbt, nächster Lautsprecher an Schulter reflektiert) reichlich Kammfiltereffekte bekommt und dadurch unnatürlich verfälscht wird.

Die intime Nähe der Sängerin zum Mikrofon, die Totenstille eines Studios in 2m Natursteinmauern eines Klosterkirchkellers wie bei Stockfisch, beides bringt eine Ortung der SaraK bei "Stars", die so nah ist, dass man beim ersten Takt zusammenzuckt (Lautsprecherwiedergabe).
Bei Kopfhörerwiedergabe wird das zu einer Herausforderung, diese Stimme nach vorn zu bringen, denn vorn ist ja bei KH die entgegengesetzte Richtung zu LS-Wiedergabe.
Auf den 3 Chesky JazzSampler and Test Record s findet man einige Samples für Entfernungsortung, da wird das Signal schwächer, aber das Wesentliche ist vielmehr, sein Hall und der Diffusanteil werden anteilig stärker, je größer die Entfernung ist.

Telarc Aufnahmen mit ihren weit auseinander aufgestellten Kugelmikrofonen unterscheiden sich gravierend von XY (Blumlein) Aufnahmen, das merkt man deutlich an der Höhenauslöschung, wenn man auf Mono schaltet. Sie bringen eine breite Bühne, die weit über die Boxenpositionen hinausgeht. Ein Mix aus Phasenchaos und Intensitätsunterschieden.
Tatsächlich ist diese (schöne) Illusion sehr unecht, weil ein Zufallsergebnis, die Fokussierung einzelner Instrumente zwischen den Boxen ist unscharf, ein Sweetspot ist zwar zu finden, aber unscharf, was als Vorteil interpretiert wird.
Bei Aufnahmen mit Mono-Mikrofonen und Pick-Ups an den Instrumenten (oder XY, MS) fallen Phasenunterschiede zunächst nicht an. Wenn am Mischpult die Position mittels Panoramaregler zugewiesen wird, sind es die Intensitätsunterschiede, keine Phasendifferenzen, die die Lokalisation bestimmen.
Diese beiden Gattungen von Aufnahmen muss man völlig getrennt betrachten, sonst verliert man den roten Faden.

Ein Mittensignal kommt bei beiden Ohren zeitgleich an, sein Hallanteil jedoch nicht, er hängt von der Unsymmetrie des Raums ab.
In den Aufnahmen fehlt für den Solisten dieser Stereohall, denn sonst würden wir den Solisten bei Wiedergabe mit 2 Lautsprechern nicht vor den Boxen orten.
MMn sollte für Kopfhörerwiedergabe ein unsymmetrischer Hall dem reinen Monosignal hinzugefügt werden, damit die scheinbare Entfernung des Solisten zunimmt, die Lokalisation ausserhalb des Kopfes bei Kopfhörerwiedergabe gelingt.
Eine unbewußte Kopfbewegung erzeugt in natürlichen Schallfeld die nötige Vielfalt solcher Muster.
Wenn sich der Hörer mitbewegt, verhindert das bei KH die AKL, der träge und etwas weich angekopplte Jecklin Float hat da leichte Vorteile gehabt.
Einige Ergebnisse meiner Kopfhörerbeobachtungen und praktischen Erfahrungen nach Experimenten sind noch nicht für die Öffentlichkeit bestimmt, deshalb Fortsetzung per PN.
Grüße Hans-Martin
Bild
Jörg
Aktiver Hörer
Beiträge: 14
Registriert: 06.08.2011, 14:28
Wohnort: Borken

Beitrag von Jörg »

Hallo Harald,

hast Du schon einmal die Kopfhörerverstärker von Herrn Dr. Jan Meier (meier-audio) bzw. den "Phonitor" von spl-audio probiert? Beide haben eine sogenannte "crossfeed-Schaltung", beim Phonitor sogar stufenlos verstellbar, die ein räumlich richtiges Hören leichter macht.
Da ich selbst nur über Kopfhörer Musik genieße, habe ich gute Erfahrungen mit den KHV von Herrn Meier gemacht.

Mit musikalischen Grüßen

Jörg
Bild
nihil.sine.causa
Aktiver Hörer
Beiträge: 1506
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitrag von nihil.sine.causa »

Hallo zusammen,

heute ein paar updates. In der Literatur habe ich nochmals etwas die Thematik der HRTF gefunden. Demnach sieht die Außenohr-Übertragungsfunktion (oder englisch eben head related transfer function) dem Prinzip nach aus wie folgt.

Bild

Dabei scheint es sich um eine typische Lehrbuchmeinung zu handeln. Hier die Quelle.

Ich sehe mich hierdurch zunächst ein wenig bestätigt, dass der Bereich 400 Hz bis 3000 Hz von besonderer Bedeutung ist. Folgende Gedanken relativieren das:
  • Zu Bereich 1 aus dem Bild: Wenn man bei 400 Hz mit der Filterei beginng und den Bereich 1 unberücksichtigt lässt, könnte man Gefahr laufen, zuviel Rauminformation zu verlieren. Ich kann mir vorstellen, dass die Raumreflexionen sehr wichtig sind. Hat jemand von Euch denn schon einmal einen schalltoten Raum erlebt? Kann man darin eine Monoquelle mit geschlossenen Augen (und möglicherweise sogar ohne den Kopf zu bewegen) orten oder ist das vielleicht gar nicht möglich?
  • Bereich 3: Bei 3000 Hz ist lambda bei ca. 12 cm. lambda/4 also etwa bei 3 cm. Ich frage mich, wie ich die Resonanzeffekte des Ohrkanals messen kann. Muss ich dazu wirklich tief in den Ohrkanal hinein mit den Messmikros?
  • Bereich 4: Über ca. 8600 Hz haben wir ein lambda/4 von unter 1 cm. Ich gehe mal davon aus, dass bei diesen Effekten, wenn man sie berücksichtigen wollte, ein Vergleich zwischen der Lautsprecher-Abhörsituation und der Kopfhörer-Abhörsituation erfolgen müsste (z.B. durch Differenzbildung). Denn Interferrenz-Effekte an der Ohrmuschel müssten beim Hören über Kopfhörer ja auch auftreten, aber anders und vielleicht eben gerade auch kontra-produktiv für die Ortung, die ich erzielen will. Hierzu müsste man dann vielleicht doch nicht so tief in den Ohrkanal gehen. Eine Messung kann ich mir diesbezüglich vorstellen und werde es mal versuchen.
***
Hans-Martin hat geschrieben: Ich habe noch nicht verstanden, warum die Wiedergabe von 2 Lautsprechern als Referenz dienen soll, wenn im Studio der Solist in der Mitte mit nur einem Mikrofon aufgenommen wurde. Die Wiedergabe durch 2 Lautsprecher führt zu einer Phantomschallquelle , die von der mehrfachenWahrnehmung (nächster Lautsprecher zuerst, anderer Lautsprecher verzögert und durch Beugung verfärbt, nächster Lautsprecher an Schulter reflektiert) reichlich Kammfiltereffekte bekommt und dadurch unnatürlich verfälscht wird.
Hallo Hans-Martin,

da bist Du einige Schritte weiter gegangen als ich im Augenblick gehen kann. Ich will ja zunächst die Mono-Abhörsituation in den Griff bekommen. Also 1 LS symmetrisch vor den Ohren. In einem zweiten Schritt kann man diesen LS dann verschieben und die Effekte studieren. Hierzu gibt es auch so manche Arbeit in der Literatur. Wenn das Prinzip einmal verstanden ist, lässt sich später auch Mehrkanaliges zusammenbauen.
Hans-Martin hat geschrieben: MMn sollte für Kopfhörerwiedergabe ein unsymmetrischer Hall dem reinen Monosignal hinzugefügt werden, damit die scheinbare Entfernung des Solisten zunimmt, die Lokalisation ausserhalb des Kopfes bei Kopfhörerwiedergabe gelingt.
Soweit bin ich auch noch nicht. Ich will aber mal erläutern was hinsichtlich Phasenkorrelation passiert. Bei meinen kleinen Experimenten mit der Simulation einer Mono-Situation erzeugt das Filter aus einem ursprünglichen Mono-Signal (Phasenkorrelation 0)

Bild

ein relativ hoch korreliertes Stereo-Signal:

Bild

(Bilder unter Verwendung des "Stereo Tools", ein VST Plugin, das ich in Foobar einbinden kann. Einmal eingebunden vor dem VST Convolver und einmal danach.) Vielleicht veranschaulicht dies etwas, was mit meinem Mono-Signal derzeit passiert.

[By the way: Mit diesem Werkzeug kann man übrigens auch die "absolute" Phase um 180° drehen, wenn man eine "invertierte" Aufnahme vermutet. Man dreht dazu einfach beide Kanäle um 180°. Computer-Audio hat schon Vorteile :D ]

***
Jörg hat geschrieben:Hallo Harald,

hast Du schon einmal die Kopfhörerverstärker von Herrn Dr. Jan Meier (meier-audio) bzw. den "Phonitor" von spl-audio probiert? Beide haben eine sogenannte "crossfeed-Schaltung", beim Phonitor sogar stufenlos verstellbar, die ein räumlich richtiges Hören leichter macht.
Da ich selbst nur über Kopfhörer Musik genieße, habe ich gute Erfahrungen mit den KHV von Herrn Meier gemacht.

Mit musikalischen Grüßen

Jörg
Hallo Jörg,

um ehrlich zu sein, habe ich den Phonitor oder einen anderen KHV mit crossfeed-Schaltung nicht gehört. Ich habe aber in Foobar die Möglichkeit mit Hilfe des plugins „foo_dsp_bs2b.dll“ in foobar den gleichen Effekt zu erzielen.

Bild

Bislang (d.h. bis meine Filterei wirklich funktioniert) höre ich auch gerne mit eben dieser J.Meier-Einstellung. :cheers:

Daher habe ich mich bislang nicht um einen KHV mit elektrischer crossfeed-Schaltung gekümmert. Das hätte für mich die Suche nach einem geeigneten KHV auch zu sehr eingeschränkt. Derzeit höre ich mit einem Violectric HPA V200. Mittelfristig habe ich die Anschaffung eines MalValve Head Amp Three geplant, der neben den üblichen KH auch den Anschluss von STAX KH unterstützt. Eine crossfeed-Schaltung besitzt er allerdings meines Wissens nicht.

Viele Grüße
Harald
Bild
Fujak
Moderator
Beiträge: 5752
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Harald,

ein interessantes Projekt, was Du da betreibst. Nur der Ergänzung halber möchte ich bestätigen, dass ich sowohl das PlugIn "bs2B" in der Einstellung J.Meier wie auch den DAC von J.Meier (Corda StageDac) vom eigenen Hören kenne, und daher sagen kann, dass das PlugIn in der entsprechenden Einstellung ziemlich exakt so klingt wie die Crossfeed-Einstellung beim J. Meier Corda StageDAC - sehr natürlich.

Die In Ear-Messungen hingegen halte ich für kaum realisierbar, da das Einbringen eines kleinen Mikrofons bereits selbst wieder die Messung verfälschen würde. In einem so engen Kanal, würde es zu starken Interferenzen führen. Die Frage ist, ob man nicht schon sehr weit kommen würde, wenn man lediglich die Pegel- und Laufzeit-Unterschiede zwischen beiden Kanälen in ein Acourate-Filter übersetzen würde. Nicht viel anderes macht nämlich das Crossfeed. Mit einem Filter kann man natürlich (auch ausgehend von der HRTF) noch nach Frequenz(-bereich) aufgeschlüsselte Pegel- und Laufzeitunterschiede konfigurieren.

Damit bist Du ja vor ein paar Wochen schon so weit gekommen, dass Du - wenn auch mit Qualitätseinbußen - eine Außerkopflokalisation von 60cm erhalten hast. Die nächsten Fragen wären für mich, mit welchen veränderten Parametern an den Filtern man diese kleine Stereo-Dreieck auf die Original-Größe bekommt. Danach würde ich mich um die Bedingungen kümmern, die vorherrschen müssen, damit auch der Klang sauber rüberkommt. So, wie der damalige Filter in der Kurvendarstellung ausschaute, halte ich es für naheliegend, dass die Klangeinbußen groß sein mussten.

Grüße
Fujak
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9118
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Fujak hat geschrieben:Die nächsten Fragen wären für mich, mit welchen veränderten Parametern an den Filtern man diese kleine Stereo-Dreieck auf die Original-Größe bekommt.
Hallo Fujak

Diese Frage beschäftigt mich auch, wie das flache Dreieck im Kopf zu dem Rechteck (Bühne mit Tiefe) vor den Kopf transformiert werden kann. Ich wünsche mir ja nicht nur eine Aufhebung der Im-Kopf-Lokalisation, sondern auch eine Rekonstruktion der Aufnahmesituation von Breite und Tiefe des Orchesters vor den Aufnhmegerätschaften bei Beibehaltung natürlicher Klangfarben.

Grüße Hans-Martin
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4658
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Ich wage mal folgende These:

wenn man es schaffen täte, dass der Schall am Ohreingang links und rechts genau dem entspricht, wie er live entsteht, dann wären wir am Ziel. Dabei gibt es leider nur ein paar Hindernisse:
  • wir können nicht wirklich messen, was sich genau am Ohreingang tut, das Messinstrument beeinflusst das Messergebnis. Siehe z.B. all die Frequenzgänge von Kopfhörern. Die sehen ja im Vergleich zu Lautsprechern meist grauslich aus. Auch Haralds Aussenohr-Übertragungsfunktion ist nicht besonders linear.
  • unser Kopf ist nicht angenagelt. Wir sind es gewohnt, dass sich mit jeder Kopfbewegung Änderungen im Schallereignis oder besser beim Schallempfang auftreten
  • bei Lautsprechern wird zusätzlich noch der Schall durch den Wiedergaberaum verfälscht, durch dessen Reflektionen und Absorptionen entspricht der Schall eben nicht mehr dem Original
  • Kopfhörer bilden um die Ohren einen eigenen Raum, der ebenfalls auf den Schall einwirkt
  • leider hat nun auch noch jeder Mensch seine eigenen Lauscher mit eigener Geometrie. Wenn nun jemand eine Lösung findet, die für ihn 100% passt, ist dies nicht notwendigerweise passend für die restllchen Milliarden
Alles was wir tun können ist eben der Versuch, den Schall so genau wie möglich individuell nachzubilden. Zum Teil bleibt es aber eine reine Raterei.

Grüsse, Uli

PS: es wäre evtl. interessant, zu analysieren was sich hinter dem crossfeed von J.Meier versteckt. Harald kann das ja z.B. so einstellen, wie ihm am besten gefällt. Dann ein Testsignal abspielen und dieses aufzeichnen. Da sollte sich die Filterfunktion als Ausgangspunkt für weitere Verfeinerungen ermitteln lassen.
Bild
Antworten