Grenzen der digitalen Audiotechnik (Ralf Koschnicke)

Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Luki!

Sehr interessanter A Link...

Grüße Truesound
Bild
axxxxx

Beitrag von axxxxx »

Der Artikel ist wirklich interessant.
Danke!

Gruß,
Kai
Funky
Aktiver Hörer
Beiträge: 598
Registriert: 30.01.2012, 19:26

Beitrag von Funky »

renzen der Digitaltechnik

PCM und DSD is out, Meridian Quality Authenticated (MQA) is in.

Nun, irgend jemand von der Insel war also auch nicht immer zufrieden mit den vorliegenden Ergebnissen der digitalen Tonträger und hat reagiert.

Leider ist über deren Homepage wenig konkretes zu erfahren, ausser das das File normale Audio Codizes verwenden kann (FlAC, ALAC, etc) als Träger , Tunnel zur Nutzung bisheriger Verbreitungspfade (wie es am Endgerät aussehen muss ist noch klar)

https://www.meridian-audio.com/news-eve ... enticated/

Wäre ja was, wenn digitale Klassikaufnahmen endlich mal anhörbar wären :-)

Testhörer aus der presse gab es auch schon und wie vor 4 Jahren als DSD ganz neu aufkam, natuerlich voll des Lobes, ein Schelm wer böses dabei denkt

http://www.stereophile.com/content/meri ... impression

Was meint denn die Tonmeister Fraktion: Anscheinend wird von bisherigen Mastern eine MQA Version erzeugt, was ich mich dann fragen muss: Die Information bei einem digitalen Träger muss ja erst mal primär vorhanden sein, wenn das Verfahren hier etwas rausholt, was bei normaler Extraktion angeblich nicht vorhanden ist (Timing) -
Dann gilt natuerlich die nächste Frage, es ist also ein Extraktionsproblem und nicht ein "nicht vorhandene Information" Problem.

Da gibt es also noch viel unbeantwortes:

Freue mich auf Eure Anmerkungen / Überlegungen hierzu.

funky (technisch nicht überzeugter aber klanglich bisher nicht widerlegter Analogfan)
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4658
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Funky hat geschrieben:Leider ist über deren Homepage wenig konkretes zu erfahren, ausser das das File normale Audio Codizes verwenden kann (FlAC, ALAC, etc) als Träger , Tunnel zur Nutzung bisheriger Verbreitungspfade (wie es am Endgerät aussehen muss ist noch klar)
Etwas tiefergehende Infos zu MQA gibt es hier
https://mrapodizer.wordpress.com/2015/0 ... an-hiding/
https://mrapodizer.wordpress.com/2015/0 ... explained/

In den Links werden auch Patentanmeldungen benannt. Seltsamerweise ist eine nicht aufgeführtund zwar diese:
https://depatisnet.dpma.de/DepatisNet/d ... 13186561A2

Grüsse
Uli
Bild
O.Mertineit
inaktiv
Beiträge: 755
Registriert: 07.05.2012, 11:42
Wohnort: Reinheim bei Darmstadt
Kontaktdaten:

Beitrag von O.Mertineit »

uli.brueggemann hat geschrieben: Nun weiss ich aus konkreter Erfahrung, dass das Timing bei getrennten Wandlern merkwürdige Effekte hervorrufen kann. Derzeit sind z.B. die USB-Mikrophone UMIK-1 von miniDSP an allen Ecken und Enden anzutreffen. Und dann wird damit versucht, Logsweep-Aufnahmen z.B. über 60 sek zu machen. Was dann darin endet, dass Pulsantworten nicht wie wirkliche Pulsantworten aussehen.
Grund: das UMIK-1 tickt anders als der den Sweep ausgebende DA-Wandler (Soundkarte). Also mal extrem gesprochen sowas wie Wiedergabe mit 48 kZ und Aufnahme mit 49 kHz.
Ok, man versucht es dann logischerweise mit einer Abtastratenkonvertierung zu korrigieren. Allerdings stellt man dann bei mehreren Sweeps auch schon mal Drifts fest.

Was hat das nun mit dem Thema hier zu tun? Wie bereits geschildert, vermute ich dass der Testaufbau dieselbe Clock verwendet hat. Soweit ok. Wenn wir aber irgendwelche Musik wiedergeben, so hat das i.a. mit entkoppelten Clocks zu tun. Man hat also nur das gespeicherte Medium und gibt den Stream wieder. Irgendwo stecken da PLLs drin, irgendwie synct sich das ja alles.
und
uli.brueggemann hat geschrieben: Das könnte dann beim Testaubau eben so sein, dass z.B. der AD-Wandler per spdif ausgibt und der DA-Wandler sich mit seiner eigenen Clock per PLL synchronisieren muss. Das Ergebnis könnte ja anders ausfallen als wie mit dem im Artikel geschilderten Testaufbau.
Hallo Uli,

(mit Bezug auf das Meyer / Moran Experiments zur "Transparenz" des Redbook Formats ... )

ich kann tatsächlich nicht nachvollziehen, daß eine Entscheidung über die Transparenz eines Formats vom Vorhandensein gleicher Clocks für AD Wandler und DA Wandler abhängen soll.

Korrekt wäre es aus Sicht der Experimentatoren m.E., Wandlungsfehler (dazu gehören auch mögliche durch Jitter bedingte Artefakte) zu minimieren, denn es soll ja bei der "hört Ihr einen Unterschied" Frage (möglichst ! ) nur um das Format an sich gehen, also möglichst nicht(!) um die Hörbarkeit technisch bedingter Artefakte aus einer konkreten ADDA Signalverarbeitungskette.

Es leuchtet auch mir ein, daß mittels einer gleichen hochwertigen(!) Clock für AD und DA potentielle Synchronisationsprobleme umgangen werden können, allerdings ist es bei so einem Experiment m.E. auch ganz richtig, genau dies zu tun.


Jetzt zu einem möglichen Übergang zu "getrennten" Wandlern (AD und DA), also einem verteilten System u.a. mit einem Zwischenspeicher für Daten im Redbook Format und einem Übertragungskanal zwischen AD und DA Seite ...

Man würde bei einem getrennten DA-Wandler, der die Audio-Daten konkret per USB bekommen würde, m.E. bevorzugt den asynchronen Submodus für die Audiodaten verwenden. Dabei tritt der USB-DAC als Master auf, indem er die die Daten vom Sender (z.B. dem PC als Zwischenmedium) anfordert, damit er seinen Eingangspuffer passend nachfüllen kann.

http://www.fairaudio.de/hifi-lexikon-be ... modus.html

Maßgebend für die DA-Wandlung und eine korrekte Befüllung des empfängerseitigen Eingangsdatenpuffers ist dann die Clock des DA-Wandlers als "Masterclock".

Der Aspekt der Verteilung des Systems für sich genommen ("AD-Wandlung"-> "räumliche und zeitliche Barriere durch Medium überbrückt" -> "DA-Wandlung") und damit das Fehlen eines gemeinsamen Clock-Signals, hat für die vom Empfänger herstellbare Qualität des (Audio-) Analogsignals selbst nur bei fehlerhaftem Entwurf des verteilten digitalen Systems zur Signalübermittlung einen Einfluss:

Die Zeitbasis sowohl bei AD-Wandlung ("Senderseite") als auch bei DA-Wandlung ("Empfängerseite") muss für sich genommen zwar den höchsten qualitativen Anforderungen genügen ("lokal jitterfrei sein"). Jedoch müssen Sender und Empfänger digitaler Daten keinesfalls dieselbe Zeitbasis verwenden, um (jeweils für sich) "jitterfrei" wandeln zu können.

Synchronisationsprobleme, löst man hier durch Pufferung (nötigenfalls wird sogar die komplette "Redbook Downsample Version" des fraglichen HiRes Datenträgers auf einen Massenspeicher geschrieben und es erfolgt ein empfängerseitiges Auslesen (mit Übertragung per USB), bei dem der DAC der Master ist.

Daß die digitale Übertragung der Daten trotz nicht vorhandener Fehlerbehandlung bei USB Audio Daten ("isochroner Modus") keine Fehler aufweisen darf, versteht sich von selbst und ließe sich bei solchen Aufbauten, "wo es einem drauf ankommt" (s.o.) vorzugsweise auch überprüfen, etwa über Checksummen der vom DAC empfangenen Daten.

Wenn fehlerfreie Daten im Eingangspuffer liegen, der DAC hochwertig ist und dafür natürlich auch über eine präzise Zeitbasis verfügt, dann ist das resultierende Analogsignal so gut, wie es eben sein kann.

Grüße Oliver
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9118
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

O.Mertineit hat geschrieben: (mit Bezug auf das Meyer / Moran Experiments zur "Transparenz" des Redbook Formats ... )

ich kann tatsächlich nicht nachvollziehen, daß eine Entscheidung über die Transparenz eines Formats vom Vorhandensein gleicher Clocks für AD Wandler und DA Wandler abhängen soll.
Hallo Oliver
Da musst du wohl etwas großzügiger sein, zitierten Meyer / Moran waren Faktor 4 oder 2 Bits ja auch nicht der Rede wert :wink:
Sie haben 44,1kHz/16 Bit geschrieben, aber der zentrale CD-Recorder arbeitete mit Hardware die für 44,1kHz/18Bit bestückt war, mit demselben Chip zum Downsampling wie das Pioneer-Basisgerät, welches mit allerdings mit 24Bit Codec bestückt war.
Warum bei der Audio Engineering Society niemand den Fehler bemerkte, lässt mich an der Qualität der Mitglieder zweifeln.
Auf Druck der Internetbeiträge sahen sich die Autoren immerhin genötigt, endlich die Nennung der verwendeten Gerätschaften und des Musikmaterials des Tests nachzuholen, und die Serviceanleitungen der Hersteller zeigen auf, was die Autoren schlichtweg nicht gesehen haben (oder, was ich vermute, nicht sehen wollten). 2 Bit Unterschied, die die Studie wertlos machen, wenn man ihren Titel Ernst nimmt.
Grüße Hans-Martin

P.S. Für mich ist ganz klar: Wenn eine Spannungsänderung pro Zeiteinheit beim ADC exakt quantisiert wird und beim DAC der jeweilige Zahlenwert exakt in Spannung umgesetzt wird, sind bei gleichen Zeitabständen die Bedingungen perfekt, aber die kleinste Zeitabweichung größer als die Linearitätsabweichung von ADC und DAC zusammen dominiert sofort die Problematik.
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4658
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

O.Mertineit hat geschrieben:ich kann tatsächlich nicht nachvollziehen, daß eine Entscheidung über die Transparenz eines Formats vom Vorhandensein gleicher Clocks für AD Wandler und DA Wandler abhängen soll.
r
Oliver,

wenn ich etwas nicht nachvollziehen kann, bin ich eher vorsichtig und fange nicht sofort an, wortgewandt und mit ellenlangen Texten und Zitaten alles totzuschlagen. Und frage vielleicht mal nach.

Also nochmal: der Meyer/Moran-Test scheint einen ADDA-Vorgang zu verwenden, der mit derselben Clock arbeitet. Ich behaupte, dass das Vorteile hat.

Sie hätten z.B. zum damaligen Zeitpunkt auch einen ADC mit spdif-Ausgang und einen DAC mit spdif-Eingang nehmen können und dann eben beide Geräte per spdif verbinden können (USB spielte wohl da noch keine Rolle, ich kenne auch keine ADDA Kette mit USB nur zwischen den Wandlern).

Zur Verdeutlichung nehme ich nun mal an, dass der AD mit x kHz taktet und die Clock dabei etwas driftet (z.B. Temperaturverhalten), der DA dagegen mit y kHz taktet. Nun versucht eine PLL sich auf das eingehende spdif-Signal zu synchronisieren.
Ist y zu schnell im Vergleich zu x gibt es theoretisch einen Bufferunderflow. Ist y langsamer gibt es theoretisch einen Bufferoverflow. Es spielt keine Rolle wie groß der Puffer ist, bei kontinuierlicher Übertragung passiert es irgendwann.
Nun, die PLL versucht dem entgegenzusteuern und das tut sie mit einem realen Verhalten, ablesbar am Signal der Regelabweichung. D.h. nichts anderes als dass eben Schwankungen auftreten.

Wohingegen bei Verwendung einer gemeinsamen Clock und z.B. einer I2S Schnittstelle innerhalb eines ADDA-Gerätes dies nicht passiert. Comprende !

Zur Veranschaulichung: in einem Orchester synchronisieren sich die Musiker nicht nach dem Dirigenten (eigentlich gleichbedeutend mit einer Wordclock), sondern jeder Musiker synchronisiert sich quasi in einer Kette an seinem Vorgänger. Gibt das ein optimales Konzert?
In diesem Sinn entstehen auch die merkwürdigen Bewegungsvorgänge bei Staus auf der Autobahn.

Also, ich habe argumentiert, dass die gemeinsame Clock bei dem Meyer/Moran Versuch von Vorteil ist. Was aber nicht unbedingt einem Aufbau mit getrennten Wandlern entspricht. Nachvollziehbar?

Grüsse
Uli
Bild
O.Mertineit
inaktiv
Beiträge: 755
Registriert: 07.05.2012, 11:42
Wohnort: Reinheim bei Darmstadt
Kontaktdaten:

Beitrag von O.Mertineit »

uli.brueggemann hat geschrieben: Also, ich habe argumentiert, dass die gemeinsame Clock bei dem Meyer/Moran Versuch von Vorteil ist. Was aber nicht unbedingt einem Aufbau mit getrennten Wandlern entspricht. Nachvollziehbar?

Uli,

natürlich ist das für mich nachvollziehbar.

Ich merke, daß sich hier gerade ein Riesen-Missverständnis aufbauen kann, und denke ein wenig konnten wir per PN schon ausräumen, vielen Dank dafür !


Zur Klärung:

1) Daß die gemeinsame Clock für AD- und DA-Wandler Synchronisationsprobleme vermeiden kann und daher auch im Meyer/Moran Versuch einen (zumindest potentiellen) technischen Vorteil darstellt, wurde von mir sogar oben nochmals hervorgehoben und bestätigt. Wir haben an der Stelle also gar keinen Widerspruch der Sichtweisen untereinander.

2) Daß eine gemeinsame Clock - eine gemeinsame Zeitbasis - für AD- und DA-Wandlung innerhalb eines verteilten Systems jedoch nicht üblich ist, und somit auch kaum in Aufnahme-/Wiedergabe Szenarien in unserem Alltag als Hörer digitalisierter Musik vorkommt, wurde von mir ebenfalls nicht bestritten.

Ich hoffe, das konnte jetzt soweit geklärt werden.

Unterschiede gibt es zwischen unseren Sichtweisen wohl in der Einschätzung, welche Konsequenzen dies für den Aussagegehalt eines solchen Experimentes wie von Meyer/Moran haben kann.

Sehen wir bitte von Hans-Martins Einwand-/Behauptung (es wären 18 Bit Amplitudenquantisierung anstatt 16 Bit nach Redbook Standard verwendet worden) vorläufig einmal ab, nur um das Thema hier auf die Zeitbasis fokussiert zu halten, die ja immer wieder bei den "Wandlerthemen" als wichtig erscheint ... (vgl. Nachbarthread zur ADDA Wandlung)


Dann könnte man die Experimentatoren m.E. bezüglich des technischen Aufbaus sinngemäß wie folgt kritisieren:

"Ihr habt eine AD DA Wandlung mit gemeinsamer Clock (Zeitbasis) verwendet, die möglicherweise dadurch besser ist als alles, was einem gewöhnlichen Musikkonsumenten als Aufnahme-/Wiedergabekette zur Verfügung steht."

Dazu würde ich sagen (wenn ich die Experimentatoren diesbezüglich verteidigen müsste ...) :

"Und wenn schon":
Die Fragestellung des Experiments bezieht sich auf die gehörmäßige Transparenz des "CD Redbook Standard" als Format an sich. Selbst wenn die Experimentatoren eine bessere "ADDA" Kette als alle bisher bekannten nur für dieses Experiment neu erfunden hätten, dann täte dies der Fragestellung des Experiments und den darauf bezogenen Ergebnissen keinen Abbruch, solange bei "ADDA" das "D" definitiv im CD Format vorliegt (*).


Gerne können wir uns dann im Anschluss die Relevanz unterschiedlicher Zeitbasen (getrennte Clocks) für die Qualität einer üblichen - nämlich verteilten - AD DA Wandlung ansehen im Rahmen von technisch für den Enduser (als Hörer digitalisierter Musik) realisierbaren Konfigurationen.

Das habe ich oben schon getan, indem ich auf eine Konfiguration mit asynchronem Übertragungsmodus bei USB und dem DAC als Masterclock eingegangen war. Dies sollte als Beispiel für einen m.E. "guten" Umgang mit dem Problem der Verteiltheit (keine gemeinsame Clock) dienen.

@Uli
Damit wollte ich Dein o.g. Beispiel, wo Du völlig zurecht auf mögliche Probleme in der Synchronisation und der Pufferung hingewiesen hast, keinesfalls bestreiten, ignorieren oder gar entwerten:
Es gibt m.E. Beispiele, wo der Umgang mit unterschiedlichen Clocks für AD vs. DA in einem verteilten System gut gelingt und es gibt Beispiele, wo es nicht gut gelingt. Es ist unzweifelhaft eine Herausforderung, mit der in einer konkreten Kette - als verteiltes digitales Informationssystem - umgegangen werden muss.


@Hans Martin, nur vorab dazu:

Selbst wenn man nun wirklich zu dem Schluss käme, jedwede "ADDA Wandlung" ohne gemeinsame Clock müsse immer "grottig" sein, dann könnte man dies lediglich als eine Abweichung des o.g. experimentellen Aufbaus von Meyer/Moran gegenüber einer "üblichen technischen Praxis" werten, indem der Aufbau schlicht "zu gut" wäre.

Der experimentelle Aufbau wäre jedoch auch dann immer noch korrekt bezüglich der zu untersuchenden Fragestellung.

Du scheinst mir diesen alten Hinweis wohl immer noch etwas nachzutragen, aber m.E. kann dem Aufbau allein daraus (gemeinsame Clock für AD und DA) kein Mangel attestiert werden, selbst wenn eine "ADDA" Wandlerkette verwendet würde, an die niemand sonst auf der Welt herankäme.

Wären jedoch 18 Bit statt 16 Bit verwendet worden, dann hätten Meyer/Moran tatsächlich nicht den CD Standard getestet, wie sie es behaupten: Das wäre zweifelsohne ein objektiver Mangel am Aufbau.

Ich hoffe, ich konnte die Themen, die hier offenbar simultan diskutiert werden (es sind m.E. mindestens 4 gleichzeitig ... ), etwas entzerren.

Bei der Fokussierung auf ein (Sub-) Thema, können (auch meine ...) Beiträge gern kürzer werden:
Auch wenn das für manche ironisch klingen mag, an mir soll das nicht scheitern ... :cheers:


Mein persönlicher Fokus wären momentan die Herausforderungen, welche aus getrennten Zeitbasen für AD und DA Wandlung entstehen, auch weil mir andere Fragen hier derzeit kaum "beweisbar" oder "widerlegbar" erscheinen ...


@Hans Martin

Ich würde dann bei Gelegenheit nochmal auf Deinen "p.s." Einwand von oben eingehen:

Sinngemäß: "Präzises ADDA nur mit gemeinsamer Clock ?"


Viele Grüße

Oliver

_________________

(*) Sollte Hans Martin jedoch Recht damit haben, daß aus Nachlässigkeit im Versuchsaufbau tatsächlich in 44.1 Khz /18 Bit gewandelt wurde anstatt in 44.1 Khz / 16Bit (CD Redbook Standard), dann wäre die gehörmäßige Transparenz nur für 44.1 Khz /18 Bit durch die Ergebnisse nahegelegt und nicht für den CD Standard.
Bild
dietert
Aktiver Hörer
Beiträge: 533
Registriert: 24.11.2013, 10:31
Wohnort: 76571 Gaggenau
Kontaktdaten:

Beitrag von dietert »

Hallo miteinander,

ehrlich gesagt finde ich die Diskussion etwas seltsam. Wo gibt es bei einer Kette AD-DA zwei verschiedene Clocks? Das ist doch Blödsinn. Digitale Audiodaten enthalten ihre Clock und die wird immer mitübertragen. AD- und DA-Wandler arbeiten natürlich mit derselben Clock.

Zwei verschiedene Clocks hat man womöglich in einer Kette DA-AD, und das ist das erste Gebot der digitalen Audiotechnik, dass man so etwas nicht macht. Grund sind die mangelhaften Filter für hochfrequente Signalanteile am Ausgang des DA-Wandlers. Hier wird in kommerziellen Geräten üblicherweise gespart, weil sowieso kein vernünftiger Anwender eine Kette DA-AD machen würde, wozu auch. Für die saubere Umrechnung auf eine andere Clock würde man einen ASRC benutzen, der das Problem rein numerisch löst.

Grüße,
Dieter T.
Bild
O.Mertineit
inaktiv
Beiträge: 755
Registriert: 07.05.2012, 11:42
Wohnort: Reinheim bei Darmstadt
Kontaktdaten:

Beitrag von O.Mertineit »

Hans-Martin hat geschrieben: Da musst du wohl etwas großzügiger sein, zitierten Meyer / Moran waren Faktor 4 oder 2 Bits ja auch nicht der Rede wert :wink:
Sie haben 44,1kHz/16 Bit geschrieben, aber der zentrale CD-Recorder arbeitete mit Hardware die für 44,1kHz/18Bit bestückt war, mit demselben Chip zum Downsampling wie das Pioneer-Basisgerät, welches mit allerdings mit 24Bit Codec bestückt war.
Warum bei der Audio Engineering Society niemand den Fehler bemerkte, lässt mich an der Qualität der Mitglieder zweifeln.



Hallo Hans Martin,

ich möchte darauf doch nochmals kurz eingehen, auch wenn wir die reale Bit-Tiefe des verwendeten DA-Recording Monitors (für die AD DA Wandlung) hier m.E. nicht werden abschließend klären oder beweisen können, ohne ein Exemplar des verwendeten Gerätetyps zu analysieren.

Wie die Autoren hier nochmals erklären

http://www.bostonaudiosociety.org/explanation.htm

verwendeten sie einen "HHB CDR-850 professional CD recorder". Jetzt mag es sein, daß das Gerät mit einem 18 Bit Chip bestückt ist.

Der Hersteller nimmt für sich jedoch in Anspruch, mit o.g. CD-Recorder tatsächlich Datenträger im CD Format zu beschreiben. Das legt für mich zumindest nahe, daß die Wortbreite von 16 Bit und die jeweiligen Spieldauern der damit erstellten Datenträger auch eingehalten werden, was mit dem bekannten "Compact Disc Digital Audio" Logo u.a. im User-Manual zum Ausdruck kommen soll.

https://de.wikipedia.org/wiki/Compact_D ... ital_Audio

Damit würde zum Beschreiben des Datenträgers ein Datenstrom mit 16Bit Wortbreite benötigt.

Deine oben zitierte Aussage würde nun m.E. nahelegen, daß der Hersteller zwar den Datenträger mit nur 16 Bit Tiefe beschreibt, jedoch für den "Recording Monitor" mit 18 Bit in den DA Wandler geht.

Damit wäre das Monitorsignal des "Recording Monitor" hinsichtlich Quantisierung und Rauschabstand natürlich deutlich besser als das, was auf den Datenträger geschrieben würde.

Ein solches Design erschiene mir - und sicher auch möglichen Anwendern - als "Recording Monitor" Funktion nicht in Ordnung. Wenn Du aber meinst, daß das Gerät so aufgebaut sei, dann lasse ich es so stehen.

Aus Meyer/Moran, "Audibility of a CD-Standard A/D/A Loop Inserted into High-Resolution Audio Playback":

"For the CD loop we used a well-regarded professional CD recorder with real-time monitoring."

Dann wären die Autoren tatsächlich auf ein "seltsames Gerätedesign" hereingefallen und hätten aus Versehen die Transparenz einer ADDA Schleife von 44.1Khz / 18 Bit getestet.


Ich kann es nicht beurteilen, halte es aber genauso für möglich, daß die 2 niederwertigsten Bits weder für das Schreiben der Audio Daten, noch für den Recording Monitor verwendet werden.


Grüße Oliver
Bild
O.Mertineit
inaktiv
Beiträge: 755
Registriert: 07.05.2012, 11:42
Wohnort: Reinheim bei Darmstadt
Kontaktdaten:

Beitrag von O.Mertineit »

dietert hat geschrieben:Hallo miteinander,

ehrlich gesagt finde ich die Diskussion etwas seltsam. Wo gibt es bei einer Kette AD-DA zwei verschiedene Clocks? Das ist doch Blödsinn.

Hallo Dieter,

ich denke, es ging mir und auch Uli hier um die physische Zeitbasis.

Bei einem AD-Wandler und einem DA-Wandler auf einer gemeinsamen Platine, können beide ein gemeinsames Clock Signal als Zeitbasis nutzen.

Wenn Du hingegen eine CD abspielst, dann ist der Vorgang unabhängig von jenem Clock Signal, welches bei der Aufzeichung den AD Wandler getaktet hat.

dietert hat geschrieben: Digitale Audiodaten enthalten ihre Clock ...
Sie repräsentieren - sogar dann wenn sie auf einem Medium persistent abgelegt sind und nicht gerade "über eine Leitung zappeln" - Samples, welche für bestimmte Zeitintervalle Gültigkeit haben.

Man kann es so sehen, daß sie selbst in diesem Zustand einen "Takt" haben, wenn Du das z.B. so meinst, dann gehen wir durchaus konform.

Was das aber für Systeme mit physisch verteilten AD und DA Wandlern bedeuten kann - für die erreichbare Genauigkeit einer ADDA Wandlung - darauf kommen wir wohl erst noch.

Meine eigene Auffassung dazu habe ich bereits ansatzweise beschrieben ...

Da das Thema hier aber kontrovers ist, dürfte dazu noch eine Erläuterung notwendig sein.


Grüße Oliver
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4658
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

dietert hat geschrieben:Wo gibt es bei einer Kette AD-DA zwei verschiedene Clocks?
Dieter,

Beispiel 1:
stell Dir vor Du machst eine Logsweep-Messung. Das Signal spielst Du mit einer USB-Soundkarte oder mit dem im Rechner eingebauten Soundchip. Ergo hat der DA-Wandler seine Clock.
Und nun nimmst Du das Ganze mit einem USB-Mikro auf. USB ist digital, also muss im Mikro eine AD-Wandlung stattfinden. Und nun rate mal wo die Clock dafür sitzt?

Beispiel 2:
Du nimmst einen AD-Wandler und bekommst damit spdif-Daten. Damit kannst Du einen Prozessor füttern der dann wiederum einen externen DA-Wandler per spdif speist. Leider haben die Geräte keinen Wordclock-Eingang. Und was ist nun mit den Clocks?

Grüsse
Uli
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4658
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Ergänzung:
Man vergleiche Abb. 1 im Meyer/Moran-Test mit Haralds Testaufbau beim Forentreff.
Bei letzterem sind mit ADC, Reclocker und DAC drei unabhängige Geräte mit eigenen Clocks verkettet und zwar über AES/EBU und spdif.

Nun, man kann nun philosophieren á la: sowas tut man doch nicht. Aber wenn nun einmal der Acousence AD-Wandler nun eimal ein reiner AD-Wandler ist ... Und dass ein DA-Wandler eben nur digital-analog wandeln kann und nicht andersrum wird allgemein auch nicht übel genommen.

Und schon sind da diverse Clocks mit im Spiel.

Grüsse
Uli
Bild
dietert
Aktiver Hörer
Beiträge: 533
Registriert: 24.11.2013, 10:31
Wohnort: 76571 Gaggenau
Kontaktdaten:

Beitrag von dietert »

Hallo miteinander,

ein Gerät zur Verarbeitung digitaler Audiodaten muss sich auf den darin enthaltenen Takt synchronisieren. Und das ist kein technisches Problem, sondern wird von handelsüblichen Geräten mit großer Präzision gekonnt, jedenfalls viel genauer, als man einen Plattenteller gleichmäßig drehen kann. Bei dem Logsweep-Beispiel geht es ja auch nicht um Erkenntnisgewinn hinsichtlich der "Grenzen der digitalen Audiotechnik", sondern um die Charakterisierung eines analogen Übetragungssystems, sozusagen DA-X-AD.

Zusätzliche Clock-Leitungen gibt es in der professionellen Audiotechnik für die Realisierung großer Netzwerke, in denen man schon mal den Überblick verlieren kann, wer Master und wer Slave ist. Bei Heimaudio gibt es so ein Problem nicht, Stichwort "Kette".

Grüße,
Dieter T.
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4658
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

dietert hat geschrieben:ein Gerät zur Verarbeitung digitaler Audiodaten muss sich auf den darin enthaltenen Takt synchronisieren. Und das ist kein technisches Problem, sondern wird von handelsüblichen Geräten mit großer Präzision gekonnt,
weswegen all die Entwicklungen der letzten Jahre hinsichtlich z.B. Reclocker & Co. totaler Nonsens sind. Die große Präzision war doch schon vorher oder eigentlich sogar immer. Um im Blindtest lässt sich sowieso nichts unterscheiden. Alles perfetto. :mrgreen:

Falls nun aber doch Fortschritte auf dem Gebiet der präzisen Synchronisierung festzustellen sind, dann wäre die Frage, wie sich nun die zuvor etwas unpräzisere Synchronisierung und die nunmehr präzisere Synchronisierung unterscheiden (im Forum hier wäre damit "hörbar" gemeint). Ohne Unterschied wäre es tatsächlich Nonsens, ausser dass es beiträgt, den Wirschaftskreislauf mit in Gang zu halten.
Mit einem Unterschied kommt wiederum die Frage auf, wo denn nun das Ende der präzisen Synchronisierung ist, ob es also nicht noch präziser geht und ob das nicht Vorteile hätte.

Grüsse
Uli
Bild
Antworten