Hallo Leif,
also auf Jitter wollte ich nicht hinaus. Was ich meine hat nur mit Rechengenauigkeit zu tun und nicht mit Taktung.
@Uli:
uli.brueggemann hat geschrieben:
3. Ein DA-Wandler, der die perfekt interpolierten Datenpunkte bekommt hat es einfacher. Es gehört ja auch dazu ein analoges Ausgangsfilter, was die sample&hold-Funktion = Treppenstufen nochmals glättet. Bei Ausgabe mit 44.1 kHz soll dieses analoge Filter eigentlich alles unter 22050 Hz unverändert durchlassen, aber die in den Treppenstufen enthaltenen höheren Frequenzen über 22050 Hz voll sperren. Das Tiefpassfilter mit diesem idealen Verhalten ist analog schwierig zu realisieren. Wird nun aber beispielsweise um den Faktor 2 hochgesampelt, muss das Filter am DA-Ausgang alles über 44100 Hz total sperren. Es kann dabei bereits ab 22050 Hz schon mit der Abschwächung beginnen, hat also einen zusätzlichen Übergangsbereich von 22050 Hz dazugewonnen. So ein Filter ist viel einfacher zu realisieren und vor allem es unterliegt bereits nicht mehr den extremen Anforderungen.
Hier brauche ich wohl noch etwas Nachhilfe. Ich kann Dir zwar zugegeben nicht genau erklären, wie ein moderner Sigma-Delta-DAC im Detail arbeitet, aber der wandelt das Eingangssignal i.d.R. auf die exakt gleiche Modulatorfrequenz, ganz unabhängig von der Abtastrate am Eingang. Eben habe ich, wie der Zufall es will, das White Paper zum inzwischen immer öfter anzutreffenden und hochgelobten SABRE DAC von ESS mal grob durchgesehen (
http://www.esstech.com/PDF/sabrewp.pdf). Dort ist die Rede von 40MHz und 6Bit bei 48Bit Rechentiefe der DSP.
Bei der Einführung der SACD war ja stets das Argument mit dabei, dass als DAC im Prinzip ein ganz simpler RC- oder LC-Filter genügt, weil bei den Taktraten nicht mehr viel ist mit „Treppenstufen glattziehen“. Da ging man nur von 2,88MHz aus. Heute haben wir das x-fache. Also ich kann nicht verstehen, wo hier noch das Argument mit dem Analogfilter zieht. Für mich ist das ein Relikt aus frühen Tagen vor Erfindung der Sigma-Delta-Wandlung?
uli.brueggemann hat geschrieben:Gemäss Mathematik gibt es nur ein einziges Filter welches eine perfekte Rekonstruktion macht, das sinc-Filter. Alle anderen Interpolationen (Treppe, linear, Polynom 2. oder 3. Grades, Spline ....) sind nur Annäherungsverfahren. Nichts Perfektes. Es gäbe also hinsichtlich sinc keine Diskussion, wenn das sinc-Filter nicht auch eine unangenehme Eigenschaft hätte: es ist unendlich lang. In der Realität, speziell unter Echtzeitgesichtspunkten, ist es so nicht praktikabel. […] Es muss aber klar sein, dass ein sinc-Filter alle sonst üblichen Interpolationen übertrifft, wenn man es nur lang genug macht.
Naja ... gut ... Du relativierst ja gleich selbst. Aber warum überhaupt erst mit perfekt argumentieren, wenn gleichzeitig die Größe Unendlich nur theoretischen Wert hat und damit die Sinc-Interpolation genauso nicht perfekt ist wie alle anderen? Deshalb suchen diese Leute doch nach anderen Interpolationsverfahren. Übrigens gilt das „perfekt“ sowieso nur für bandbegrenzte Signale. Unser Signal ist aber nur bandbegrenzt, wenn wir es künstlich dazu machen, und dann passiert der eigentliche Fehler eben schon bei der Bandbegrenzung. Perfekt ist in der Realität nichts. Wir können uns eigentlich stets nur darüber unterhalten, was ausreichend gut genug ist. Die „Oblique Projection“ in dem Beispiel hinter dem Link von vorhin liefert doch nun mal deutlich bessere Ergebnisse als die einfache Sinc-Interpolation.
Es sei Dir aber versichert: Ich bin auch vorsichtig, daraus irgendwelche direkten Rückschlüsse auf den Audiobereich zu ziehen. Ich denke nämlich, dass die Audioleute ihren Weg über Sigma-Delta gefunden haben. Eines muss doch aber klar sein: Egal welches Interpolationsverfahren, die Genauigkeit ist limitiert.
Ansonsten kann man glaube ich einvernehmlich festhalten: 1. Beim Upsampling wird oberthalb fs/2 nichts neu generiert und 2. Preringing spielt dabei keine Rolle.
Ich würde lediglich noch hinzufügen: Bei der Abtastung eines analogen Musiksignals mit Abtastraten, die nicht die volle Bandbreite des Nutzsignals abdecken, verliert man Auflösungsgenauigkeit durch die Bandbegrenzung und dann generieren die Aliasingfilter auch noch zusätzlich Ringing. Beide Effekte sind durch nachträgliches Upsampling nicht zu kompensieren.
Die Sinnhaftigkeit von Upsampling kann man daher meiner Meinung nach nur in der Genauigkeit des Wandlungsprozesses suchen. Ich mache ja auch die Erfahrung, dass bei gutem Resampling und verbindungstechnisch guter Kette der gleiche DA bei höherer Abtastrate besser klingt. Aber prinzipiell würde ich unterstellen, dass es sehr vom DA abhängt und gerade so hochmoderne Teile wie der Sabre DAC sich vielleicht anders verhalten. Wenn die DSP im Chip leistungsfähig genug ist und die nötige Rechentiefe besitzt, kann ein Resampling vor dem DAC das Ergebnis eigentlich nur schlechter machen.
In solchen Entwicklungen wie dem Sabre DAC und anderen, aber auch wie LINN ihre DACs in den Streamern baut, sehe ich die These bestätigt. Dort wird offensichtlich schon länger verstanden, um was es geht.
Viele Grüße
Ralf