Seite 30 von 30

Verfasst: 25.07.2015, 14:31
von O.Mertineit
nihil.sine.causa hat geschrieben: Na dann mal Butter bei die Fische: wie sieht eine solche Kette aus?
Hallo Harald,

Empfehlungen auf der Ebene von Marken o. dergl. überlasse ich lieber anderen und ich denke, daß ist hier auch nicht gefragt.

Aber ich wollte später ohnehin noch auf einige "lose Enden" (mit Hans Martin) bezüglich AD- und DA-Wandlung "auf einer Platine mit gemeinsamer Clock" gegenüber AD und DA in verteilten Konfigurationen eingehen, weil sich das aus dem Meyer/Moran Aufbau ergeben hat.

Dabei habe ich bereits weiter oben Konfigurationen mit "verteilter" AD bzw. DA beschrieben, die ich für weitgehend unkritisch halte, wenn sie so realisiert werden können:

Wenn z.B. ein USB DAC im asynchronen Modus arbeitet und selbst als Masterclock fungiert, es sich dabei also um die Wiedergabe aus einem Massenspeicher handelt (die AD Wandlung fand zuvor irgendwo im Herstellungsprozess des Massenmediums statt ...), dann kann der DAC prinzipiell selbst bestimmen, wann sein Puffer nachgeladen werden soll, braucht sich im Wandlertakt nicht an den Sender zu adaptieren und kann sich darauf konzentrieren, Samples mit fixer Taktfrequenz aus seinem Puffer nach analog zu wandeln und "rauszuhauen".

Dann wären wir bei der machbaren Präzision von Zeitbasen für die DA-Wandlung und die ist bezüglich Deiner Fragestellung - der Ausprägung von Interferenzmustern im tonfrequenten(!) Schallfeld - "jenseits von Gut und Böse".

Oder wie Dieter zuvor sinngem. anmerkte:
Es handelt sich zumindest dann um eine seltsame Frage, wenn sie aus der Perspektive analoger Medien gestellt wird, wo Gleichlaufschwankungen in Relation erheblich sind (wenngleich dem Wesen nach sicher kanalsymmetrisch).

Kniffliger wird es zweifelsohne , wenn digitale "Quellen" (deren Datenfluss nicht durch den Abnehmer gesteuert werden kann ... wie z.B. USB Mikrofone) und "Senken" in der Kette sind, deren Zeitbasen grundsätzlich etwas gegeneinander driften und die sich synchronisieren müssen, weil es sonst zum Über- oder Unterlauf von Puffern kommen kann.

Die Studiolösung wäre ein z.B. sternförmig an alle Geräte verteilter "Haustakt".

Aber auch die Arbeit mit AES/EBU und SPDIF allein, welche einen "Manchester Code" verwenden und somit "Self Clocking" sind, sollte bei guter Implementierung (Hardware) und Pufferung zumindest ein sehr niedriges Niveau an höherfrequentem Jitter ermöglichen.

Das was an niederfrequentem Jitter technisch notwendig - weil unumgänglich - ist, um die Synchronisation zw. Quellen und Senken aufrecht zu erhalten, kann "kontrolliert" nachgeführt werden.

Aber das ist ein technischer Bereich für sich, wer sich da tiefer mit befasst hat und hier mehr mitteilen kann: Ich kratze da nur an der Oberfläche und gebe das auch offen zu.


Grüße Oliver

Verfasst: 25.07.2015, 17:19
von O.Mertineit
Hans-Martin hat geschrieben: ...
P.S. Für mich ist ganz klar: Wenn eine Spannungsänderung pro Zeiteinheit beim ADC exakt quantisiert wird und beim DAC der jeweilige Zahlenwert exakt in Spannung umgesetzt wird, sind bei gleichen Zeitabständen die Bedingungen perfekt, aber die kleinste Zeitabweichung größer als die Linearitätsabweichung von ADC und DAC zusammen dominiert sofort die Problematik.
Hallo Hans Martin,

Deine Grundüberlegung wird von mir m.E. durchaus verstanden, ich umschreibe es mal so:

"Wenn ich einen Signalverlauf an zwei diskreten Zeitpunkten (Zeitmarken) t1 und t2 sample und habe das Intervall t2 minus t1 (Periodendauer der Abtastfrequenz) technisch nicht exakt im Griff, weil das Clocksignal "jittert", dann wäre es schön, wenn ich wenigstens für den Abtast- (AD) und den Rekonstruktionsvorgang (DA) des betreffenden Signalabschnittes denselben Abstand der Zeitmarken verwenden könne. Denn dann müssste die Steigung wieder so gut als möglich bei gegebener Amplitudenquantisierung rekonstruiert werden."

Bei solchen Sachen fällt mir immer ein Professor ein, den ich im Studium im Fachbereich "Verteilte Systeme" hatte und den ich damals auch als Prüfer wählte, weil ich mit ihm gut zurechtkam ...

Der sagte (neben anderen Sachen, die mir immer wieder einfallen...) :
"Jedes System ist ein verteiltes System, wenn man genau genug hinschaut."

Nehmen wir mal die von "Meyer/Moran" verwendete oder eine vergleichbare Platine mit AD- und DA-Wandler auf derselben Platine, die beide (angenommen) auch dasselbe Clocksignal verwenden.

Jetzt schauen wir uns symbolisch eine Reihe von Taktzyklen an. Ein Sampling Vorgang sei vereinfacht eine Operation, die innerhalb eines einzelnen Zyklus abgearbeitet werden könnte, was eine Vereinfachung ist, und genauso vereinfacht sei das auch bei der Rekonstruktion eines Spannungswertes im DA Wandler.

- Die Zyklen T0, T1, T2, T3, T4, T5, T6, T7, T8, T9, ... hätten von Zyklus zu Zyklus eine mittlere Schwankungsbreite der Dauer von - sagen wir 10% - nur zur Anschauung (der Chip hieße "Demo Shit Clock", oder kurz "DSC" :wink: und dürfte außerhalb dieses Threads nur an 100-Jährige in Begleitung ihrer lebendigen Großeltern verkauft werden.)

- Ein im AD Wandler erstelltes Sample würde u.a. durch Pufferung genau 4 Zyklen später im DA Wandler wieder in einen analogen Spannungswert überführt

Im Beispiel sieht das so aus:
Die benachbarten Samples gesampelt in T0 und T1 (AD-Wandlung) werden dann in T4 und T5 rekonstruiert (DA-Wandlung).

Damit sind die Abstände zwischen korrespondierenden Zeitmarken bezüglich des Originalsignals zw. AD und DA potentiell nicht mehr gleich, schon gar nicht "dieselben", und wir haben "Sampling Jitter" potentiell und real bereits auf derselben Platine mit ein und demselben Clock Chip für AD und DA :shock: :shock: :shock:

Lediglich der "Interface Jitter", als langsame Drift der Taktfrequenzen zwischen unterschiedlichen Komponenten mit eigenen Clocks spielt hier keine Rolle ...

Am Ende des Tages kann aber eine "ADDA" Wandlung in einem verteilten System, ich habe oben das Beispiel eines DACs im asynchronen Modus genannt (USB DAC "bedient sich" aus Massenspeicher), potentiell genauso gut aussehen (bei einer guten Clock in beiden Wandlungsvorgängen und fehlerfreier digitaler Übertragung bzw. Speicherung dazwischen) wie bei "ADDA" auf einer gemeinsamen Platine (*).


Grüße Oliver

______________

(*) Deshalb sehe ich auch nicht, daß Meyer und Moran sich einen "unrealistischen" Vorteil mit ihrer CD-Standard ADA Loop verschafft hätten: Ihre ADA Loop war m.E. ebensowenig "jitterfrei" (in Bezug auf Sampling Jitter) wie alle anderen auf der Welt.

Und selbst wenn sie es gewesen wäre ... (aber das hatten wir schon) :wink: .

Verfasst: 25.07.2015, 22:58
von Hans-Martin
Funky hat geschrieben:- wird das Signal von meinem PS zunächst AD gewandelt (24 bit 196 Khz,) dann in ein Echtzeit Protokoll (hochtransformiert auf 35 bit / 384 Khz) - Linn Link zu den Lautsprechern gesendet, dort in einer Digital Engine auf 6 Wege aufgetrennt. Jeder der 6 Zweige hat seinen eigenen DA Wandler und wird danach mit einer eigenen Leistungsverstärkung an das jeweilige Chassis gesandt.

Dieser AD DA Weg ist wesentlich zeitlich kohärenter als ich es je in einem rein analogen Setup hören konnte. Ich kann das deshalb sagen, weil ich den gleichen LS und die gleiche Elektronik zuvor nur in rein analoger Form und im gleichen Raum hatte.

Insofern kann digitale Technik auch analoge Quellgeräte aufwerten.
Wikipedia hat geschrieben:Kohärenz (v. lat.: cohaerere = zusammenhängen) bezeichnet in der Physik die Eigenschaft von Wellen, deren Auslenkung sich zeitlich auf dieselbe Weise ändert. Wellen sind selbst dann noch kohärent, wenn diese zeitliche Änderung um einen konstanten Betrag verschoben ist (Phasenverschiebung). Als Folge der Kohärenz können bei der Überlagerung von Wellen stationäre Interferenzerscheinungen sichtbar werden. Liegt eine gewünschte Form der Kohärenz nicht vor, so spricht man im Zusammenhang von Inkohärenz.

Oft deutet das Vorhandensein von Kohärenz auf eine gemeinsame Entstehungsgeschichte der Wellen hin. Je nach Zeitdauer dieser Entstehung kann die Kohärenz somit zeitlich begrenzt sein, die dabei zurückgelegte Weglänge nennt man die Kohärenzlänge, die die räumliche Kohärenz bemisst.
Ursprung ist das Instrument (und im selben Sinne andere Klangquellen in der Nachbarschaft), das als 1 Quelle von 2 Mikrofonen, 2 Übertragungskanälen und 2 Lautsprechern dem Hörer stereophon wiedergegeben wird.
O.Mertineit hat geschrieben: Die Wellenfronten aus der Abstrahlung zweier LS in Stereo Anordnung sind nicht kohärent, selbst bei identischen LS und identischen Signalen L+R nicht, denn die bilden ein Interferenzmuster. Aber es ist m.E. klar was gemeint ist: Volle Addition (+6 db) des Schalldrucks L+R an einem Hörplatz in der Medianebene.
Wenn man es genau nimmt, interessiert die Medianebene auch nur sekundär, weil unsere Ohren mit dem Abstand zwischen ihnen nicht beide zugleich in der Medianebene hören können, üblicherweise sucht man den Bereich, wo die Interferenzmuster das "beste" Ergebnis vermitteln. Hinzu kommt die Beugung durch den Schädel mit der Abschwächung bei höheren Frequenzen zum abgewandten Ohr.

Was für Kohärenz immer besonders zählt, ist die eine Quelle als Ursprung, was für den Hörer zählt, ist die Abbildungsschärfe bei der Stereowiedergabe, die die Lokalisation der Phantomschallquelle ohne Anstrengung möglichst eindeutig erfahrbar macht.

Ich denke, Funky meint mit Kohärenz das lokalisationsscharfe Klangergebnis, ich verstehe ihn so, dass mittels Digitalisierung und Einsatz von DSP, Weichen, Frequenzgang- und Exzessphasenkorrektur ausgeführt werden können, wie es in Analogtechnik kaum sinnvoll zu praktizieren geht.

Da überholen Korrekturmaßnahmen mit ihren Vorteilen klar die anderen Nachteile, die man sich bei AD-/ Latenz / DA-Wandler einfängt.

Uli hat mit seinem Cleaner die Büchse der Pandora geöffnet. Denn ganz offensichtlich, ääh offenhörbar, machen selbst die Wandler noch Fehler, die man mit dieser Methode noch aufspüren kann. Fehler, die in der Theorie nicht vorgesehen sind, aber die die Praxis beweist...

Gutes Stereo ist für mich eine fokussierte Projektion von Phantomschallquellen, die die Instrumente auf der Bühne scharf abbilden, "Räumlichkeit" mag ja ganz nett sein, ist aber letztlich ein Zufallsergebnis von Phasendifferenzen nahe 180°zwischen den Kanälen, eher diffus als konkret, und steht natürlich auch unter dem Einfluss von Seitenwandreflexionen im Hörraum. Was bei einer realen Schallquelle hilft, sie zu lokalisieren, ist mMn bei Stereo kontraproduktiv. Denn eine seitliche Verlagerung der Hörposition erzeugt bei den Seitenwandreflexionen starke Unsymmetrien zwischen L und R.

Funky hat den Begriff kohärent sprachlich benutzt, der Duden schreibt dazu als Bedeutung: zusammenhängend.

Mir geht Kohärenz über alles, und Aufnahmen in Intensitätsstereofonie, wie sie immer noch das Angebot dominieren, sind wunderbar mono-kompatibel für die noch vorhandenen vielen Abspielgeräte, z.B. Radios, bringen aber das Problem mit sich, dass die Lokalisation von Grundton und Oberton die nötige Kohärenz vermissen lässt. Eine Korrektur dazu bietet FLOW.

Die Kohärenz wird auch besser, wenn die Sprungantwort des Lautsprechers zeitkoinzident ist. Natürlich kann man die verschiedenen Chassis eines Mehrwege-LS mechanisch so verschieben, dass auf Achse vom Sweetspot betrachtet das Ergebnis stimmt. Aber die Seitenwandreflexion ist da schon abweichend. So gesehen gebe ich der Anordnung der Chassis auf vertikaler Achse den Vorzug, und lasse Elektronik die Zeitkoinzidenz herstellen.

So verstehe ich Funkys Aussage zum Thema Kohärenz und lege sie auf meine Weise aus.

Wenn man einen Verstärker mit Balanceregler +/- 1,5dB hat, kann man die Kanalgleichheit herstellen, zu der das logarithmische Lautstärkepoti meist nicht die nötige Kanalgleichheit im unteren Bereich mitbringt. Ich habe diese hergestellt, indem ich auf die maximale Fokussierung und vorn/hinten Staffelung bei Musik geachtet habe. Messtechnisch ließ sich das hinterher bestätigen. Wenn aber bei stabilen (=typisch digital) Amplitudenverhältnissen L/R das Timing zwischen den Kanälen variiert, gibt es eine derlei einfache Kompensation nicht.

Grüße Hans-Martin

Verfasst: 26.07.2015, 16:48
von O.Mertineit
Hallo Zusammen,

ja so ist das mit der Kohärenz, man kann sie abstrakt sprachlich/musikalisch (als "Zusammenhang") sehen, oder auf Wellenphänomene bezogen und hier das Augenmerk auf den zeitlichen Aspekt oder den räumlichen Aspekt legen.

Das sind mindestens 3 mögliche Aspekte und deshalb finde ich den Begriff besonders im Zusammenhang mit der Beschreibung von Höreindrücken als unglücklich, denn die Verwendung ist in der Regel nicht geklärt und führt oft zu Missverständnissen.

Hier im Forum wird m.E. sehr häufig nicht in räumlichen Ausprägungen von Schallfeldern gedacht, sondern eher mit Bildern von Aufbauten aus der Elektrotechnik und der Optik (die oftmals auch weniger Dimensionen aufweisen) gearbeitet, die dann auf das Schallfeld übertragen werden ...

Ich hatte oben davon gesprochen, daß interferierende Lautsprecher (auch Stereo LS als Gesamtsystem) keine (räumlich) zusammenhängenden Wellenfronten mehr erzeugen, wie dies etwa bei punktförmigen Elementarstrahlern oder Linienstrahlern der Fall ist.

Eine stationäre Überlagerung der Abstrahlung zweier kohärenter LS - z.B. idealsierter Punktstrahler - im Raum führt zu einem Interferenzmuster.

Jetzt hat Harald oben die "Interferenzfähigkeit" angesprochen, die durch eine "zeitliche Kohärenz" der Stereosignale erhalten bleiben soll, und die Frage gestellt, inwiefern Jitter diese Interferenzfähigkeit beeinträchtigt.

Wenn ich das Interfenzmuster (zwei LS strahlen dazu versuchsweise ein stationäres Testsignal also einen Dauerton ab) als räumliche Ausprägung des Schallfeldes sehe und mir überlege:

"Welche Information steckt in diesem Interferenzmuster eigentlich dem Wesen nach drin ?"

Dann komme ich zu dem Ergebnis, daß hauptsächlich Information über den Standort der beiden Lautsprecher darin steckt.

Denn eine "echte" mittige Schallquelle - die auch ein LS sein könnte - würde kein Interferenzmuster erzeugen im Gegensatz zu zwei LS, die versuchen eine mittige Phantomschallquelle in der Wahrnehmung des Hörers herzustellen.

Deshalb kann man bei Jitter m.E. fragen: "Wird die gemeinsame Hauptabstrahlkeule zweier kohärent abstrahlender LS - die in der Medianebene (Stereomitte) liegt und bei hohen Frequenzen sehr viel schmaler ist als bei tiefen - durch den Zeitversatz merklich aus der Mitte ausgelenkt ?"

Das habe ich oben für übliche Jitterwerte verneint und es war meine Antwort auf "meine Interpretation" von Haralds Frage nach der "Interferenzfähigkeit" der Stereosignale.

Wir benötigen eine zeitliche und pegelmäßige Übereinstimmung der Signale aus linkem und rechtem LS für die Wahrnehmung einer mittigen Phantomchallquelle: Das ist wichtig und unbestritten.


Aber was ist das Interferenzmuster im Raum bei stationären Signalen z.B. aus der Stereomitte (Signal für beide LS gleich) für uns vom "Nutzwert" ?

Es ist vor allem ein Artefakt der Stereophonie, welches die Ortung der Lautsprecher eher ermöglicht als verhindert und neben anderen Effekten dafür sorgt, daß für Hörplätze außerhalb der Stereomitte mit merklichen Qualitätseinbußen zu rechnen ist.

Eine gute Raumakustik zusammen mit passenden LS mildert diese Interferenzmuster ab, wie sie im Freien und in schalltoten Räumen auftreten, indem sie u.a. seitliche Spiegelschallquellen hinzufügt, die allerdings mit dem LS Direktschall nicht zu korreliert sein sollen und keine zu hohen Pegel aufweisen dürfen. Eine L vs. R Symmetrie soll trotzdem (Laufzeit, Spektrum statistisch) beibehalten werden.

Diese Basis-Fähigkeit eines LS zum Aufbau eines "zuträglichen" Schallfeldes zum stereophonen Hören in Räumen, drückt sich bei Lautsprechern vor allem über die Ausgewogenheit der Frequenzgänge nahe der Achse und das Rundstrahlverhalten insgesamt aus. Dieses Rundstrahlverhalten bleibt auch bei Anwendung von DSP Maßnahmen zur hörplatzbezogenen Korrektur prinzipiell bestehen.

Hörerpräferenzen bei Lautsprechern bezüglich Frequenzgang und Rundstrahlverhalten sind u.a. durch die Arbeiten von Floyd Toole so gut untersucht, daß Prädiktionsverfahren basierend auf Frequenzgängen und frequenzabhängigen Bündelungsmaßen existieren, die Urteile von Testhörern sehr gut vorhersagen können.


@Hans Martin:

Hörerpräferenz - für eine bestimmte LS-/Raum Interaktion - spielt sich also offenbar zunächst weitgehend außerhalb der von Dir o.g. Eigenschaften für "Fokussierung" und "Kohärenz" ab.

Es gilt daher m.E. zunächst, einen Hörer - optional auch mit Anwendung hörplatzbezogener DSP-Korrektur - durch Treffen seiner Präferenzen dazu zu bewegen, so lange im Hörraum lauschen zu wollen, daß er auf Feinheiten in der Lokalisationsschärfe (wir kamen vom Thema Jitter in digitalen Ketten ...) überhaupt noch achten kann und will.

Das gilt auch für Hörer, die etwas außerhalb der Stereomitte sitzen und die dann evt. Lust bekommen, sich auch mal in die Mitte zu setzen: Wer vorher schon "rausgegangen" ist (wenn auch nur innerlich), der setzt sich erst gar nicht mehr in die Stereomitte, um jetzt noch "gesondert" auf die Lokalisationsschärfe zu achten. Dabei gehe ich jetzt von "Musikhörern" aus, nicht von "auditiven Masochisten".

Wenn der Hörer also den Raum schon verlassen hat, weil ein Setup alles ignoriert, was etwa über Kontinuität des Rundstrahlverhaltens von LS, bevorzugte Raumfrequenzgänge, Ausprägung von Spiegelschallquellen so alles beachtet werden kann und soll, dann bleibt die Lokalisationsschärfe für sich allein betrachtet m.E. ein rein akademischer Aspekt.

Im Idealfall geht natürlich vom Rundstrahlverhalten der LS über Raumakustik und Gleichheit der Stereokanäle alles so Hand in Hand, so daß wir in einem ausgewogenen, langzeit-angenehmen und gleichzeitig lokalisationsscharfen und auch "räumlich-glaubhaften" Höreindruck schwelgen können ... :cheers:

Auf dem Weg dahin, gibt es ja u.a. dieses Forum ...


Grüße Oliver

Verfasst: 17.09.2015, 22:03
von Funky
Danke Hans-Martin,

der Begriff Kohärenz ist in der Tat im allgemeinen sprachlichen Gebrauch vielschichtig. Du hast ihn aber in der von mir gemeinten Art vollkommen richtig interpretiert. Und ich gehe mit Dir D'accord, dass Kohärenz in diesem Sinne für mich ebenfalls das wichtigste Qualitätsmerkmal einer guten Kette darstellt.

Damit ist dem Gesagten/Geschriebenen auch nichts weiter hinzuzufügen.

Funky

Verfasst: 02.07.2016, 10:19
von Hans-Martin
Die AES bietet gerade einen freien Download für den Artikel von Joshua D. Reiss (Queen Mary University of London)
A Meta-Analysis of High Resolution Audio Perceptual Evaluation
Grüße Hans-Martin