Grenzen der digitalen Audiotechnik (Ralf Koschnicke)

Hans-Martin
Aktiver Hörer
Beiträge: 9156
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Fbee hat geschrieben:Wird zwischen den Musikstücken auch gesprochen, war ich zunächst wegen einer "weiteren Person "im Hörraum irritiert.
Hallo Frank

Jau, das macht Spaß. An eine Klangfarbe kann ich mich gewöhnen, an eine unscharfe Abbildung nicht.
Kürzlich hatten wir hier im Forum eine bildhafte Darstellung von Auflösung gegen Kontrast, beides unnatürlich und suboptimal, eines wird im Vergleich vorgezogen, in dem Fall das kontrastreichere Bild als das bessere.

Ich ziehe eine räumlich plastische und abbildungsscharfe Wiedergabe vor, leichte Verfärbungen nehme ich hin.
Teilst Du die im Artikel beschriebene Beobachtung, dass ein etwas geringfügiges Rauschen (unter/über der Wahrnemungsschwelle) eine realistischeres Phantombild erszeugen kann als das messtechnisch "bessere rauschfreie" Signal?
In den 1980ern hätte ich ohne Zögern ja gesagt, heute nein, sofern die Aufnahme gut ist.

Der Bonger-Test auf einer der Chesky Test-CDs zeigt bei nahem Signal einen klaren Impuls mit guter Flanke und wenig nebengeräuschen. Bei weiterer Entfernung nimmt das Nebengeräusch diffuser Raumhall zu, der Direktschall nimmt ab, die Flanke ist verschwommen. Mit einem WAV-Editor kann man den Bonger im Rauschen bald nicht mehr sehen, aber noch heraushören.

Ich mag nicht behaupten, Rauschen verbessere die Abbildung, eher das Gegenteil, es verschwimmt und diffus verbindet man mit entfernt, klar und konkret verbindet das Gehör mit nah dran. Bei den vielen üblen DDDs der Anfangszeit fehlte mit räumliche Tiefe, zu schrill die Höhen und zu breit wiedergegeben, Klang klebte an den Boxen. Da waren viele Fehler, die durch Rauschen etwas gemildert, vernebelt werden könnten.

Bei komprimiertem Musikmaterial (nicht datenreduziert) kommt die Stimme noch mehr nach vorn, Begleitinstrumente im Bass bullern mehr, sind scharf ortbar aber nicht mehr deutlich hinten, Rauschen ist nicht hörbar.

Dieser Artikel beschäftigt sich mit ähnlichen Betrachtungen zum Thema Verzerrungsstruktur:

http://www.stereophile.com/reference/40 ... index.html

Er kommt zu dem Schluss, dass Hinzufügen von k2 die Balance oder besser gesagt, die fallende Reihenfolge von k2,k3,k4,k5 usw herstellen kann, aber nicht unbedingt besser klingt als eine Wiedergabe, die in allen Bereichen so niedrige Werte wie möglich hat, auch wenn sie unterschiedlich intensiv ausfallen, also k2 schwächer, k3 stärker.

Meine Antwort auf Deine konkrete Frage wäre also: Rauschen für die einzelnen Hintergrundinstrumente vielleicht, um mit mehr Diffusität dem Gehör die Attribute entfernter Schallereignisse mitzugeben, für die Instrumente und Stimmen im Vordergrund auf keinen Fall.

Also: pauschales Hinzufügen von Rauschen zu einer Aufnahme ist falsch, sie wird mehr verschlechtert als verbessert.

Grüße Hans-Martin
Bild
Fbee
Aktiver Hersteller
Beiträge: 107
Registriert: 06.02.2010, 10:32
Kontaktdaten:

Beitrag von Fbee »

Hans-Martin,

sehr informativ und fundiert.

Danke, Frank
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Nachdem hier eingangs noch auf eine uralte Version meines Artikels verwiesen wird, muss ich doch mal kund tun, dass es eine relativ frische Fassung auf (fast) aktuellem Erkenntnisstand nun zum freien Download auf unserer Website gibt:

http://www.acousence.de/ACOUSENCE_Aspek ... ragung.pdf

oder auch in Englisch:
http://www.acousence.de/ACOUSENCE_Aspec ... ission.pdf

Das "fast" nur deshalb, weil ich gerade in den letzten Wochen wieder mal viel diskutiert habe. Anlass war das neue Analogmischpult der Superlative in 120V Technik NEOS der Firma SPL (http://spl.info/). Es gibt zwar kaum wirklich neue Erkenntnisse im Vergleich zu dem hier Geschriebenen, jedoch kann ich inzwischen den zentralen Fehler digitaler Technik viel knackiger auf den Punkt bringen und daran arbeite ich momentan. Wer also nicht so viel lesen will, der bekommt es irgendwann demnächst wohl auch etwas kürzer und anders aufbereitet.

Viele Grüße
Ralf
Bild
axxxxx

Beitrag von axxxxx »

Hallo Ralf,

ich hab's gerade mal überflogen.

Sehr interessant und einleuchtend. Die drei Abbildungen auf S.26 sind ja wirkliche Augenöffner für alle die immer noch glauben, daß 16/44 ausreicht.

So plastisch habe ich das auch noch nie vorgeführt bekommen (optisch).

Gruß,
Kai
Fortepianus
Aktiver Hersteller
Beiträge: 3692
Registriert: 17.12.2008, 12:41
Wohnort: Stuttgart

Beitrag von Fortepianus »

Hallo Ralf,

danke für den Link, habe mir das eben gewissenhaft durchgelesen. :cheers: ! Danke für die exzellente Darstellung des entscheidenden Sachverhalts, dass auf zwei Ohren eines Menschen die Formel f=1/T mit Verstand angewandt werden muss.

Viele Grüße
Gert
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Hallo Gert,

das tut mal gut, dass jemand den entscheidenden Knackpunkt sofort entdeckt. :D Zur Zeit sitze ich gerade da und versuche genau die Sache mal etwas prägnanter heraus zu arbeiten.

Der Artikel ist vor längerer Zeit entstanden und mittlerweile hatte ich das Thema eigentlich abgehakt; im Sinne von Theorie ist mir nun egal, ich für meinen Teil arbeite einfach so. Durch die Firma SPL und ihren neuen Analogmixer wurden jedoch mal wieder ein paar Diskussionen angestoßen. Denn warum brauche ich digital mehr als 300kHz Abtastrate, um eine Summierung hinzubekommen, die mit bester Analogtechnik allmählich mal mithalten kann ... ganz heißes Thema. Durch diese neuen Impulse, neue Recherchen und neue Überlegungen ist nun vieles noch deutlicher geworden.

Im Prinzip ist die Festlegung des CD-Formats so willkürlich, die Rechtfertigung mit dem 20kHz Hörbereich einfach nur absurd. Das menschliche Hörsystem ist doch erwiesenermaßen ein so komplexes Gebilde, hochgradig von psychoakustischen Eigenheiten geprägt, dass man aus der Frequenzbandbreite ganz sicher nicht nach Küpfmüller bzw. Heisenberg schlicht in den Zeitbereich umrechnen kann. Damit deckt die Limitierung des tonalen Hörbereichs eines Ohres nur einen winzigen Bereich der Eigenschaften des gesamten Hörsystems ab. Dafür, dass die gesamte moderne digitale Audiotechnik ohne die hierauf gründende Vereinfachung wie ein Kartenhaus ineinander zusammenbricht, ist das verdammt dünn. :cheers:

Aus marktpolitischen Gründen ist ja zu verstehen, dass man diese Alibiveranstaltung damals abgezogen hat. So schlecht funktioniert die Sache in der Praxis ja trotzdem nicht und die CD wurde ein Erfolgsmodell. Wissenschaftlich gesehen war und ist das unglaublich grober Unfug. :mrgreen:

Inzwischen habe ich aber auch noch soviel andere Dinge gefunden, gerade heute wieder, hier ein Originalzitat aus Shannons „A Mathematical Theory of Communication“ quasi der Bibel der Signaltheorie (S. 47/48):
Claude Elwood Shannon hat geschrieben:This means that to transmit the output of a continuous source with exact recovery at the receiving point requires, in general, a channel of infinite capacity (in bits per second). Since, ordinarily, channels have a certain amount of noise, and therefore a finite capacity, exact transmission is impossible.

This, however, evades the real issue. Practically, we are not interested in exact transmission when we have a continuous source, but only in transmission to within a certain tolerance. The question is, can we assign a definite rate to a continuous source when we require only a certain fidelity of recovery, measured in a suitable way. Of course, as the fidelity requirements are increased the rate will increase. It will be shown that we can, in very general cases, define such a rate, having the property that it is possible, by properly encoding the information, to transmit it over a channel whose capacity is equal to the rate in question, and satisfy the fidelity requirements. A channel of smaller capacity is insufficient.
(Die Hervorhebung mit Fettschrift stammt von mir).

Dass eine exakte Übertragung unmöglich ist, war mir ja schon länger bekannt. Dass aber bereits Shannon näher auf die Frage der Qualität eingeht und bereits anspricht, dass eine höhere Qualität selbstverständlich auch eine höhere Abtastrate erfordert, das haut mich nun doch um. :shock:

Bin ich da nun falsch, wenn ich vermute, dass Generationen einfach nur noch eine einmal gemachte, bestenfalls halb-richtige Interpretation der Basisschrift schlechthin abgeschrieben haben, aber keiner mehr das Original gelesen hat? Die Sache mit der Abtastrate doppelt so hoch wie die Maximalfrequenz des Audiosignals ist schlicht – schon nach Shannons Schrift von 1948 – nur die absolute Mindestbedingung.

Auch Karl Küpfmüller stellte wohl bereits 1928 in seiner Arbeit "Über Einschwingvorgänge in Wellenfiltern" eine Beziehung zwischen Einschwingzeit und verfügbarer Bandbreite her (Die Info habe ich gefunden, kann sie aber nicht nachprüfen). Aufgrund von Beobachtungen forderte er anscheinend, dass die Bandbreite eines Systems etwa das sechsfache des Nutzbandes haben müsste, um Fehler bei Einschwingvorgängen zu vermeiden. Damit konnte er sich gegen Nyquist nicht durchsetzen. Aus meiner persönlichen praktischen Erfahrung erscheint mir die Forderung jedoch gar nicht so dumm ... 1928 ... experimentell gefunden :shock:
Shannon widerspricht dem noch nicht einmal. Eine akzeptable Qualität kann halt auch drunter liegen, Küpfmüllers Forderung ist dann nur eben aus Shannons Sicht sowas wie 'High End'. Aber 120kHz Bandbreite (6*20kHz) bzw. 240kHz Abtastrate … in der Gegend bewegen wir uns mit den 192kHz heute.

Und das alles hat noch nicht einmal etwas mit unserem Hörvermögen zu tun, sondern es geht einfach nur um Abbildungsgenauigkeit. :cheers:

Da wundere ich mich nun gar nicht mehr, dass ich den Radio- und Fernsehton inzwischen nicht mehr ertragen kann. Ein Hoch auf den Industrie- und Rundfunkstandard mit 48kHz :cheers: Die Herren Küpfmüller und Shannon müssen sich im Grabe umdrehen. :wink:

Grüße
Ralf
Bild
Daihedz
Aktiver Hörer
Beiträge: 793
Registriert: 25.06.2010, 15:09

Beitrag von Daihedz »

Grüsseuch Forenten

Hoffentlich passt folgender Hinweis in diesen Thread:

Ich habe zwei Links auf der Website von S.Linkwitz entdeckt, und mir die Vorträge angesehen. Darin schildert Martin Mallinson von ESS Technology (auf sehr verständliche Weise, und natürlich auch mit einem Schuss Propaganda)

- die Funktionsweise(n) von Delta-Sigma-DAC's und eine mögliche Minimierung deren Nachteile:
http://www.youtube.com/watch?v=1CkyrDIGzOE

Ich fand diesen ersten Vortrag über die Funktionsweise von DAC's besonders interessant, da er viele mögliche Erklärungen liefert für den Umstand, dass einige Wandler gut, andere weniger gut klingen. Dabei scheint im Wesentlichen die Verteilung des Rauschens und dessen Dynamik eine grosse Rolle zu spielen. Die 50', welche der Vortrag dauert, scheint mir eine gut investierte Zeit.

sowie

- etwas über digitale v.s. analoge Pegeleinstellung (0'-16') und etwas über Jitter (16->):
http://www.youtube.com/watch?v=JYjHKv2_OqQ

Dieser zweite Vortrag ist nach meinem Ermessen eher gut gemachte Propaganda, indem einige Features des Sabre-DAC's besonders herausgehoben werden.

Simon
Bild
audiotools
Aktiver Hörer
Beiträge: 41
Registriert: 17.09.2012, 20:06
Wohnort: Lauffen am Neckar

Beitrag von audiotools »

Hallo alle Themen -Teilnehmer,
... interessanterweise griff Fritz Rosendahl die Sichtweise von Peter Lucas hinsichtlich eines Abtastraten -Overkills auf der technisch -wissenschaftlichen Seite auf und kam zu der verwegenen Aussage, dass 48 kHz Abtastrate und 20 Bit Wortbreite ausreichen, um jedes Detail einer musikalischen Darbietung präzise wiedergeben zu können...
zitiert aus Studio Magazin Heft 10/2012 Seite 33.

Bei aller Toleranz für freie Meinungsäußerung und menschliche Eigenarten: Schmerz lass nach.

Berndt H. Bauer
Bild
wgh52
Aktiver Hörer
Beiträge: 5651
Registriert: 25.01.2008, 15:17
Wohnort: Schweitenkirchen
Kontaktdaten:

Beitrag von wgh52 »

Nun ja,

es gibt noch mehr ausführliche, kritische Kommentare. Ich höre HD Audio auch lieber... :roll:

Gruß,
Winfried

2467
Bild
Bernd Peter
Aktiver Hörer
Beiträge: 4008
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo,

interessant ist auch diese Diplomarbeit von 1998:

http://old.hfm-detmold.de/eti/projekte/ ... eite1.html

Gruß

Bernd Peter
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Hallo zusammen,

wo nun doch mal wieder etwas Aktivität in diesen Thread zurückgekehrt und weil Mitglieder dieses Forums wohl eher nicht Studio Magazin Abonnenten sein dürften, möchte ich nun hier meinen neusten (allerdings auch schon Heft 02/2012) – und vermutlich auch letzten – Beitrag zum Thema als PDF zur Verfügung stellen:

http://www.acousence.de/StudioMagazin2_ ... enzung.pdf

Wem das zu lang ist, eine Kurzzusammenfassung: Jede Argumentation mit Nyquist-Shannon für das CD-Format und Standardabtastraten kommt an der Anfangsannahme in der Form von „Der Mensch hört nur bis 20kHz und deshalb ist eine Bandbegrenzung bei 20kHz zulässig“ nicht vorbei. Ohne diese Aussage bricht die ganze Theorie in sich zusammen. Diese Verknüpfung ist aber ganz einfach falsch. Der Begriff „Linearität“ ist der Schlüssel. Das menschliche Ohr ist ganz klar ein nichtlineares System, und deshalb liefert eine Messung des Verhaltens im Frequenzbereich KEINE Aussage über das Verhalten im Zeitbereich. Technische Systeme sind aber meist lineare Systeme – zumindest strebt jeder Entwicklungsingenieur das an – so auch die PCM-Aufzeichnung. In linearen Systemen bedingt jedoch eine Änderung der Eigenschaften im Frequenzbereich IMMER auch eine Änderung der Eigenschaften im Zeitbereich. Die Limitierung im technischen (linearen) System hat also weiter reichende Auswirkungen als sie durch diese Feststellung des Hörbereichs zu argumentieren sind. Wollte man korrekt argumentieren, dann müssten – genauso wie eben der Frequenzbereich gemessen wurde – auch die Fähigkeiten im Zeitbereich genau untersucht werden. Erst wenn man dabei feststellen würde, das die Zeitauflösung des menschlichen Ohres nicht besser ist, als es ein technisches System mit 20kHz Bandbreite reproduzieren könnte, erst dann – und NUR DANN – wäre diese Folgerung der Begrenzung der Bandbreite auf 20kHz zulässig.

Ich habe gerade ein wunderbar passendes Zitat aufgeschnappt, vom Schriftsteller Henry Louis Mencken: „Es gibt für jede komplexe Frage eine Antwort, die klar, einfach – und falsch ist“

Und das schlimmste ist wohl, dass sich diese „klaren und einfachen“ Antworten gerade deshalb so hartnäckig halten, auch wenn sie falsch sind. Ich befasse mich ja nun lange mit dem Thema und nur weil ich tagtäglich höre, dass die Antwort falsch sein muss, bin ich nicht müde geworden, weiter zu suchen. Die wirkliche Erklärung habe ich zugegeben auch lange nicht gesehen, obwohl sie so offen vor einem liegt. Es ist einfach grober Unfug, ein lineares mit einem nichtlinearen System auf diese Art und Weise in Beziehung zu setzen … die berühmten Äpfel und Birnen … Das war´s. Punkt.

Um nun etwas versöhnlicher zu enden: Die Beschränkung der Bandbreite auf 20kHz könnte theoretisch noch zufällig richtig sein. Denn das Erkennen der falschen Schlussfolgerung beweist noch lange nicht das Gegenteil. Aber es ist eben ganz klar Derjenige in der Beweispflicht, der Vereinfachungen machen will. Und dann ist da ja ohnehin noch die nachgewiesene Zeitauflösung des menschlichen Hörapparats beim Hören mit beiden Ohren, die mit 20kHz Bandbreite nicht vereinbar ist...

Viele Grüße
Ralf
Schorsch
Aktiver Hörer
Beiträge: 842
Registriert: 17.02.2011, 03:33
Wohnort: Frankfurt am Main

Beitrag von Schorsch »

Hallo Ralf,

danke für diesen anschaulich geschriebenen Artikel, in dem Du schreibst, dass unsere nichtlinearen Hör- und Wahrnehmungsvorgänge nicht vollständig durch lineare Systeme approximiert werden können.
Um nun etwas versöhnlicher zu enden: Die Beschränkung der Bandbreite auf 20kHz könnte theoretisch noch zufällig richtig sein. Denn das Erkennen der falschen Schlussfolgerung beweist noch lange nicht das Gegenteil. Aber es ist eben ganz klar Derjenige in der Beweispflicht, der Vereinfachungen machen will. Und dann ist da ja ohnehin noch die nachgewiesene Zeitauflösung des menschlichen Hörapparats beim Hören mit beiden Ohren, die mit 20kHz Bandbreite nicht vereinbar ist...
Es bleibt also spannend ...

Viele Grüße
Georg
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4666
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Hallo Ralf,

ich bin nach dem Lesen des Artikels etwas verwirrt und irritiert.

Prima, das Neumann-Mikro scheint den Ohren eines erwachsenen Menschen zu entsprechen. Frequenzabfall ab 17 kHz.
Das bedeutet für mich, dass das Mikrofon ein reales Ereignis wie ein Filter aufnimmt. Nun nehme ich mal an, wir würden das Mikrosignal mit 1 GHz und 64 bit Aufösung digitalisieren. Diese technischen Werte sollten gut genug sein. Trotzdem ist das reale Signal durch das Mikro bereits gefiltert. Spielen wir weiterhin das digitalisierte Signal über einen perfekten DAC und perfekte Lautsprecher in einem perfekten Raum, so gelangt das Mikrosignal (durch die Mikrofon-Eigenschaften gefiltert) wiederum unverfälscht an unser Ohr, welches seinerseits wie ein 17 kHz Tiefpass wirkt.
Was also bedeutet, dass wir schlichtweg doppelt filtern und nicht das hören, was Realität war.

Und wenn das Mikrofon die tollen Fähigkeiten hat, wie beschrieben, und ein 8 µs-Signal noch prima erfasst, damit also ein Digitalisiersystem von mindesten 126 kHz Abtastrate benötigt, dann frage ich mich, ob wir nun dasselbe Signal mit unseren Ohren wahrnehmen können, wo unsere Ohren sogar kontinuierlich arbeiten, also noch nicht einmal digitalisieren. Kannst Du das hören?

Oder hinkt da nicht etwas gewaltig im zitierten Vergleich ?

Ich bin kein glühender Verfechter der 20kHz-IstGenug-Theorie, aber auch nicht der 192kHz-MüssenEsMindestensSein-Theorie.
Und ich wundere mich immer über den wiederholt verwendeten Zusammenhang zwischen der Zeitdistanz von 2 Abtastwerten und der Lokalisierung. Für die Lokalisierung von Phantomschallquellen sind zwei Kanäle erforderlich. Und es ist kein Problem, auch bei 44.1 kHz Abtastrate die beiden Kanäle um kleinere Zeitdistanzen als 22 µs differieren zu lassen. Da spielt als Grenze wohl noch die Bitaufösung mit rein. Wonach 24 bit mehr Wirkung zeigen als 16 bit und Verdoppelung der Abtastrate.

Grüsse
Uli
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

uli.brueggemann hat geschrieben: Prima, das Neumann-Mikro scheint den Ohren eines erwachsenen Menschen zu entsprechen. Frequenzabfall ab 17 kHz.
Das bedeutet für mich, dass das Mikrofon ein reales Ereignis wie ein Filter aufnimmt. Nun nehme ich mal an, wir würden das Mikrosignal mit 1 GHz und 64 bit Aufösung digitalisieren. Diese technischen Werte sollten gut genug sein. Trotzdem ist das reale Signal durch das Mikro bereits gefiltert. Spielen wir weiterhin das digitalisierte Signal über einen perfekten DAC und perfekte Lautsprecher in einem perfekten Raum, so gelangt das Mikrosignal (durch die Mikrofon-Eigenschaften gefiltert) wiederum unverfälscht an unser Ohr, welches seinerseits wie ein 17 kHz Tiefpass wirkt.
Was also bedeutet, dass wir schlichtweg doppelt filtern und nicht das hören, was Realität war.
Achtung, Du denkst jetzt automatisch wieder, weil Du es zwangsläufig aus Deiner täglichen Praxis gewohnt bist, dass ein Filter im Frequenzbereich automatisch eine festgelegte und vorhersehbare Auswirkung auf den Zeitbereich hat. Gerade das Beispiel des M150 soll zeigen, dass dies nicht zwingend so ist, eben wenn sich das System nichtlinear verhält. Die Mikrofonkapsel ist hier auf eine Art und Weise, die offenbar für die Aufgabenstellung Musikübertragung sehr günstig ausfällt, nichtlinear. Ich besitze ja seit einiger Zeit zwei dieser Schätzchen und auf den Aufnahmen mit diesen Mikrofonen finde ich stets auch Bestandteile locker bis über 50kHz. Das dürfte laut Frequenzgangmessung aber gar nicht sein. (siehe Diagramme im Artikel!) Das ist ja gerade der Witz bei der Sache. Ich denke der erste Schritt der wirklich schwer fällt ist, sich im Falle des menschlichen Hörsystems mal von technischen Begriffen wie Tiefpass zu lösen. Das geht doch völlig an der Sache vorbei. Das Ohr ist das leistungsfähigste Sinnesorgan des Menschen. Die Auswertung der Ereignisse im Zeitbereich, eben Richtungen, Rauminformationen, Klangstrukturen und damit Identifizierung von Klängen, das ist doch sehr wahrscheinlich weitaus wichtiger als der absolute Frequenzgang. Und wenn wir feststellen können, dass wir ab 17kHz nicht mehr viel hören, dann sagt das aber eben absolut nichts über die Fähigkeiten im Zeitbereich. Das Ohr ist eben etwas anderes als ein Hifi-Verstärker. Bei dem wüssten wir genau was aus dem einen folgt... nichts gutes :wink:
uli.brueggemann hat geschrieben: Und wenn das Mikrofon die tollen Fähigkeiten hat, wie beschrieben, und ein 8 µs-Signal noch prima erfasst, damit also ein Digitalisiersystem von mindesten 126 kHz Abtastrate benötigt, dann frage ich mich, ob wir nun dasselbe Signal mit unseren Ohren wahrnehmen können, wo unsere Ohren sogar kontinuierlich arbeiten, also noch nicht einmal digitalisieren. Kannst Du das hören?
Inwieweit das menschliche Hörsystem in der Lage ist, zeitlich aufzulösen, gerade das ist eben nicht hinreichend untersucht. Ich höre zumindest ganz eindeutig, dass dieses Mikrofonsignal auf CD-Format konvertiert nicht mehr die Klangcharakteristik und vor allem nicht mehr die zeitliche Präzision des „Originals“ der 192kHz Aufzeichnung hat. Neumann beschreibt auch in einem frei zugänglichen Entwicklungsbericht, wie sie die Membrandicke und damit die Impulsgenauigkeit per Hörbewertung optimiert haben. Alles nur Indizien, aber man kann es wohl hören.
Aber auch das ist eigentlich nicht entscheidend. Entscheidend ist, dass noch niemand das Gegenteil bewiesen hat, und vor allem eben nicht über den Umweg „Frequenzbandbreite“, weil das eben wegen der Nichtlinearität des Hörsystems nicht zulässig ist, sondern direkt im Zeitbereich. Wie ich bereits sagte, beweisen muss der, der etwas vernachlässigen will, dass er das auch wirklich vernachlässigen darf. Sinn und Zweck der ganzen Argumentation ist eigentlich nur folgender: Von jedem, der für eine höhere Bandbreite als 20kHz plädiert, wird immer mit dem bekannten Argument „der Mensch hört nur bis 20kHz etc.“ verlangt, er müsste die Sinnhaftigkeit seines Anliegens belegen. Tatsache ist aber eben, dass die Feststellung der Bandbreite des menschlichen Hörsystems im Frequenzbereich auf 20kHz NICHT ausreicht, um damit ein technisches System mit 20kHz Bandbreite solide zu argumentieren. Genau dieser Beweis steht bis heute noch aus und folglich ist es auch nicht weiter verwunderlich, wenn doch inzwischen auch viele hier – Theorie hin oder her – in praktischer Erfahrung etwas anderes erleben.
uli.brueggemann hat geschrieben: Und ich wundere mich immer über den wiederholt verwendeten Zusammenhang zwischen der Zeitdistanz von 2 Abtastwerten und der Lokalisierung. Für die Lokalisierung von Phantomschallquellen sind zwei Kanäle erforderlich. Und es ist kein Problem, auch bei 44.1 kHz Abtastrate die beiden Kanäle um kleinere Zeitdistanzen als 22 µs differieren zu lassen. Da spielt als Grenze wohl noch die Bitaufösung mit rein. Wonach 24 bit mehr Wirkung zeigen als 16 bit und Verdoppelung der Abtastrate.
Niemand redet von zwei Übertragungskanälen. Es gibt ein Schallereignis. Das menschliche Hörsystem - ich sage bewusst nicht Ohr - ist dann in der Lage dieses eine Schallereignis mit einer Präzision unterhalb von 10µs auszuwerten. Quantitativ festmachen kann man das hier mal ausnahmsweise recht gut, weil man die zeitliche Präzision am Beispiel Richtungswahrnehmung in einen geometrischen Winkel umrechnen kann. Die „Illusion“ einer räumlichen Abbildung bei Musikübertragung über zwei Übertragungskanäle ist eine ganze andere Sache. Wer kann denn beweisen, dass das menschliche Hörsystem diese präzise Auswertung im Zeitbereich alleine nur für die Richtungsbestimmung nutzt?
Wenn nun aber bei dem gleichen Versuch eine Winkelgenauigkeit heraus käme, die beispielsweise 30µs entspräche, dann wäre das zwar immer noch kein echter Beweis für die Zulässigkeit der 20kHz-Bandbreitenbeschränkung, aber zumindest ein wichtiges Indiz, weil es dann zumindest mal ein Messergebnis direkt im Zeitbereich gäbe, das die Annahme stützt. Es ist aber eben das Gegenteil der Fall.

Falls dieser Punkt trotz des letzten Absatzes oben nicht klar wurde: Ich will mit diesem Artikel gar nicht beweisen, dass wir eine höhere Bandbreite als 20kHz brauchen. Ich kann aber belegen, dass der 20kHz Hörbereich des Menschen nicht als Beweis ausreicht, um die Bandbreite eines technischen Übertragungssystems auf diesen Wert zu beschränken. Und genau das Gegenteil wird uns allen eben seit 30 Jahren aufgetischt und bildet die Basis auf die der heutige Industrie- und Rundfunkstandard gründet. Dass dies vielleicht dennoch zufällig richtig sein könnte - zumal ja einige Hörerfahrung das immer unwahrscheinlicher werden lässt - ist dann doch eine wacklige Basis...

Grüße,
Ralf
Hans-Martin
Aktiver Hörer
Beiträge: 9156
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Man muss sich den Hörapparat mal an der Stelle ansehen, wo die Nervenbahnen vom Hörnerv getriggert Signale zum Hirn senden. Offenbar habe diese eine Erholzeit. 17000 Pulse pro Sekunde können sie nicht übertragen, die maximale Frequenz scheint unter 400 zu liegen.
Hören ist viel komplizierter, wenn man diesen Aspekt mit einbezieht.
Bin keine Neurobiologe, lese mich da gerade ein...
Grüße Hans-Martin
Bild
Antworten