Grenzen der digitalen Audiotechnik (Ralf Koschnicke)

Thias
Aktiver Hörer
Beiträge: 233
Registriert: 25.12.2011, 08:53
Kontaktdaten:

Beitrag von Thias »

Ralf Koschnicke hat geschrieben: Deshalb: In Sinusschwingungen gedacht, kann ich zwei Sinusschwingungen um einen praktisch beliebig kleinen Phasenbetrag verschoben abbilden. Sprechen wir über das Zeitverhalten des Systems – und vor allem darum geht es beim Thema ‚hohe Abtastraten‘ – dann sind Sinusschwingungen – weil ein periodisches Signal – das falsche Modell.

Ich bevorzuge daher für die Beschreibung des Auflösungsvermögens in Analogie zur Optik die Impulsdarstellung. Denn die ‚Physik der Schwingungen und Wellen‘ gilt weitgehend für alle Teilbereiche – Mechanik, Akustik, Optik, elektromagnetische Schwingungen und Wellen – analog zueinander.
Die Schwingungslehre kann man doch nicht mit dem Dualismus des Lichtes vergleichen.
Jede Signalform lässt sich in Sinussignale zerlegen, oder anders herum, aus der Addition von Sinussignalen kann man jede Signalform erzeugen, gleich ob Impulse, Rechteck...
Es wäre eine völlig falsche Vorstellung, man könnte irgendeine x-beliebige Signalform kontinuierlich mit unendlicher Genauigkeit in ihre Bestandteile aus Sinusschwingungen aufteilen und deshalb bei einem komplexen Musiksignal so tun als ob man nur viele Sinusschwingungen gleichzeitig übertragen müsste. In einem Musiksignal gibt es – außer vielleicht bei manchen Orgelklängen, wenn man die Töne lange stehen lässt – nie Sinusschwingungen als Signalform an sich, d.h. eine Schwingung in einem eingeschwungenen, stationären Zustand. Deshalb hat ein Musiksignal erst einmal wenig mit einem Sinus gemein.
Doch, das kann man. Grundlagenstudium Physik, oder ist das falsch, was dort gelehrt wird?
Musiksignale sind nicht kompliziert. Durch Mikrofone sind sie auch bandbegrenzt. Mit einer Abtastrate von 192 kHz oder von mir aus noch viel höher lassen sie sich aufnehmen und mit Fourieranalyse zerlegen. Da sieht man das komplette Spektrum.
Impulse sind auch nur in der Übertragungsbandbreite der Mikrofone enthalten. Auch sie lassen sich in ein Frequenzspektrum zerlegen.
Ich verstehe die Unterscheidung Bandbreite und Zeitverhalten nicht.
Der Amplitudenanstieg eines Impulses kann nie steiler sein als die Bandbreite es zulässt.
Ein Sinus sind nicht nur eingeschwungene Orgeltöne, ein Nadelimpuls ist auch ein Sinussignal (oder viele).
Sorry, wenn ich darauf herumreite, aber das sind die Grundlagen, auf denen alles weitere aufbaut.

Grüße
Thias
Bild
KSTR
inaktiv
Beiträge: 1221
Registriert: 08.05.2008, 11:51

Beitrag von KSTR »

Uli,

http://www.neumann.com/?lang=de&id=curr ... escription

1/2" Druckempfänger mit Titanmembran, in einer "Billardkugel". Ich denke, es wird hoch abgestimmt sein, damit man den Peak bei der Reso nutzen kann, bevor es mit mindestens 40dB/dekade abwärts geht (Massehemmung). Die Membran wird spät aber stark in Partialschwinungen aufbrechen und durch die große Druckstau-Aussenkugel gibt es Lobing wie Hölle (siehe Polare bei 16kHz). Klirr des Empfängers selbst ist nicht angegeben, nur der des Vorverstärkers/Impedanzwandlers.

~50kHz auf Achse wird der eigentliche Empfänger daher mit noch genug Pegel und moderatem Klirr raushauen denke ich. Der Pre (Röhre) usw werden auch noch Pole haben weiter oben.

Von dem Rechteckpuls an schlagartiger Volumenausdehnung, was eine Funkenstrecke erzeugt, bleibt ein entsprechend scharfes Bild auch oberhalb von 20kHz übrig. Es differenziert aber nach der Frequenz, muss also mit einem Stück 20dB/dek-Flanke entzerrt werden wenn man es als per FFT als FG nutzen will (als praktikable Art der Ermittlung desselben, eben).

Uns ist klar (aber ist es Ralf?), dass eine FFT eines solchen Messpulses, wie auch auf anderen Arten der Impulsermittlung (Logsweep+Faltung, MLS), halt nur das lineare Äquivalent des Pulses ermittelt, d.h. den komplexen Frequenzgang einer linearen Ersatzquelle welcher den gleichen Puls als Anwort auf einen Dirac erzeugt.
Das heißt, je nachdem wie der Impuls vorlag, kommt es zu durch nichtlineare Verzerrungen zur "Fehldeutung" die dem Augenschein nach das Dualitätsprinzip zwischen Zeit- und Frequenzebene verletzen. Dazu müssen die Verzerrungen usw aber schon sehr groß sein...
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4669
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Klaus,

ich weiss insofern eigentlich nur:
- das aufgenommene Signal sollte linear aufgenommen sein. Ohne etwas Unerwünschtes dazuzutun oder auch irgendetwas wegzunehmen.
- ein nachfolgendes Verbiegen des Signals obliegt der Kunst des Toningenieurs, es ist zulässig. Es muss dem Hörer aber letztlich gefallen.
- es MUSS eine Bandbreitenbegrenzung geben. Wir können uns darum streiten, wo wir sie hinlegen. Dem einen reicht es bereits mit geringerer Bandbreite, der andere verlangt nach mehr Bandbreite. Hierbei gibt es widersprechende Kriterien, sei es Hörbarkeit, Speicherplatz, Übertragung, Wirtschaftlichkeit, Profit oder was auch immer.
- es wird immer jemanden geben, der 1000 Gründe weiss, warum eine gegebene Bandbreite nicht reicht. Der mag dann gerne eine neue Bandbreite festlegen, muss dann aber damit rechnen, dass da jemand 1000 Gründe hat, dass die neue Bandbreite nicht ....

und
- bei gegebener Bandbreite lassen sich Signale, welche beim Digitalisieren bereits korrekt bandbreitenbegrenzt sind, sauber rekonstruieren. Es sei denn, die Rekonstruktion unterliegt vorgegebenen Rechenzeiteinschränkungen.

Grüsse
Uli
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Zusammen!

Die unterschiedlichen Mikrofone klingen schon an sich zusammen jeweils unterschiedlich genug. Die Mikrofonauswahl als natürlich noch viel wichtiger die Aufstellung sind ein Klanggestaltungselement des Tonmeisters...und damit auch eine geschmackliche Entscheidung.......die verwendeten verschiedenen Samplingfrequenzen sind bei Verwendung wirklich sehr hochwertiger Wandlertechnik sehr sehr zweitrangig und dort trennt sich technisch nach der Mikrofonaufstellung und Mikrofonauswahl die Spreu vom Weizen.

Grüße Truesound
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Hallo Uli,

zuerst einmal herzlichen Dank für Deinen Beitrag zur Sache! Zum letzten rundum Zustimmung, zum vorletzten folgende Anmerkungen:

Durchaus berechtigter Einwand. Lass uns aber zunächst einmal auf die Definition des Begriffs Linearität eingehen. Dir als Mathematiker ist das sicher klar, ich glaube aber, dass hier ein generelles Verständnisproblem liegen könnte. Definition aus Wikipedia:
wikipedia hat geschrieben:Linearität ist die Eigenschaft eines Systems auf die Veränderung eines Parameters stets mit einer dazu proportionalen Änderung eines anderen Parameters zu reagieren.

Diese allgemeine Definition trifft gleichermaßen für die Systemtheorie, Technik, Physik und Mathematik zu. Ist sie nicht erfüllt, so spricht man von Nichtlinearität.
Es geht also nur darum, ob sich Parameter proportional zueinander ändern oder nicht. Deshalb mögen Ingenieure keine nichtlinearen Systeme, weil man nichts berechnen und damit voraussagen kann.
uli.brueggemann hat geschrieben:
Fazit: wenn das Mikro einen abfallenden Frequenzgang hat und trotzdem 8µs-Pulse rüberbringt, dann widerspricht es dem Prinzip der linearen 1:1 Übertragung.
Weil wir aber über das Verhalten des nichtlinearen Systems so schlecht Vorhersagen treffen können, wissen wir auch nicht, ob das System der 1:1 Übertragung widerspricht. Meine These ist: Nichtlineares Übertragungssystem bedeutet nicht zwingend keine 1:1 Übertragung.

Was zeigt denn die Messung des Frequenzgangs des Mikrofons? Die Membran ist in der Lage, eine stationäre Schwingung bis ca. 20kHz zu reproduzieren. Gemessen wird vermutlich bei relativ hohem Pegel. Welche Anforderungen stellt nun aber das Nutzsignal in der Realität. Wie bereits oben gesagt, stationäre Schwingungen gibt es fast nicht. Dafür spielen nichtperiodische Änderungen über die Zeit eine große Rolle. Jetzt kommt das Frequenzspektrum eines realen Musiksignals ins Spiel.

Ein Beispiel: Es gibt auch die Möglichkeit, Messungen mit periodischen Rechtecksignalen statt Sinussen zu machen. Der Teiltonaufbau des Rechtsecks geht nämlich in Richtung des Spektrums eines realen Musiksignals. Die Amplituden der Obertöne eines Rechtecks fallen mit 1/n. Vor einigen Jahren habe ich mir nochmal ernsthaft überlegt, eine analoge Bandmaschine anzuschaffen und habe mir vom Studiohändler in der Nähe eine große Otari MTR10 oder 12 (weiß ich nicht mehr ganz genau) ins Studio geschafft. Höchst verwundert entdeckte ich dann einen eingebauten Testtongenerator mit einem 10kHz Rechteck. Der diente zum Einmessen einer „Phasenkompensationsschaltung“ die die Impulswiedergabe verbessern sollte. Tatsächlich konnte man bei der Justage der entsprechenden Trimmpotis dank Hinterbandkontrolle am Oszi sofort sehen, wie die Flankensteilheit des Rechtecks optimiert wurde. Die Gestalt des Rechtecks war allerdings so oder so schon sehr deutlich verändert. Ist auch klar: Die erste Oberwelle liegt bei 30kHz, die zweite bei 50kHz. Die erste wurde offensichtlich noch mit hohem Pegel übertragen, man sah die zu erwartende Gestalt und die Flankensteilheit im Nulldurchgang war folglich deutlich größer als die eines 10kHz Sinus. Das ganze diente wohl dazu, die Reproduktion der Einschwingvorgänge zu verbessern. Was bei CD oder DAT (was ja damals fast flächendeckend die Bandmaschine direkt ablöste) bei einem 10kHz Rechteck rauskommt, ist hoffentlich klar: Da wird aus dem Rechteck ein reiner Sinus, weil bereits die erste Oberwelle absolut gar nicht übertragen wird. Das fand ich dann schon beachtlich, dass Otari die Analogtechnik in einem Bereich optimiert hat, in dem die Nachfolgetechnik nicht arbeitet.

Dieser kleine Exkurs soll den Blick etwas auf die Beschaffenheit des Musiksignals lenken. Wir müssen für eine korrekte Musikübertragung nicht in der Lage sein, eine Schwingung von 1kHz und eine Schwingung von 50kHz bei gleich hohem Pegel übertragen zu können. Ähnlich wie bei einem Rechtecksignal, interessieren uns die hohen Frequenzen nur als Bestandteil in einer Teiltonreihe eines Klangs. Die höchsten Grundtöne liegen bei etwa 4kHz. Folglich beginnt die durchschnittliche Amplitude im Frequenzspektrum eines Musiksignals schon recht früh zu fallen, je nach Musikrichtung spielt sich oberhalb von 20kHz alles schon in Bereich unter -50dB ab. Dennoch heißt das noch lange nicht, dass diese Bestanteile für die exakte Reproduktion, gerade der so wichtigen Einschwingvorgänge, unwichtig sind. So wie auch bei einem Rechtecksignal noch die n-te Oberwelle mit 1/n-tem Pegel wichtig ist, um der wirklich senkrechten Flanke nahe zu kommen.

Wenn ein lineares System nun einen weiten Frequenzbereich ohne nennenswerten Pegelverlust abdeckt, egal auf welchem Pegelniveau gemessen, dann darf davon ausgegangen werden, dass es die Anforderungen des Signaltyps Musik sehr gut erfüllt. Andererseits kann die Nichtlinearität der Mikrofonkapsel des M150 genau darin bestehen, dass die Kapsel zwar nicht in der Lage ist, einer singulären 50kHz-Schwingung großer Amplitude zu folgen – das stellt an das dynamische Verhalten des schwingenden Systems ja durchaus hohe Anforderungen – aber dennoch im Rahmen einer einmaliger Anregung durch ein komplexes Frequenzgemisch, in dem hohe Frequenzen immer nur mit einem Unterbau an niedrigeren Frequenzen auftreten, sehr schnell reagieren kann.

Das ist zugegeben eine These, ein Ansatz, auf die mich zugegeben auch erst ein Gespräch mit einem Professor für Signaltheorie mit Spezialgebiet digitale Bildverarbeitung – und in Sachen Audio somit völlig unbelastet – im Zusammenhang mit einer Diskussion um die Schallplatte gebracht hat. Es ist eben durchaus denkbar, dass bei einer Vorerregung durch niederfrequente Schwingungen, das Übertragungssystem höherfrequente Schwingungen überträgt, die es alleine ohne Vorerregung nicht übertragen könnte.

Tatsache ist, dass das M150 natürlich einen ausgeprägten Eigenklang hat, so wie jedes Mikrofon. Tatsache ist aber auch, dass man diese außergewöhnliche Auflösung im Zeitbereich – wie sie die Messung der Impulsdarstellung zeigt – in den damit gemachten Aufnahmen wiedererkennen kann. Das zeigt sich zum Beispiel in einer sehr detailierten Abbildung kleinster Details „aus der dritte und vierten Reihe“ bei komplexer Orchesterliteratur, aber auch in einem ganz besonderen Streicherklang.

Und Tatsache ist, dass gerade im Zuge der SACD/DVD-Audio damals einige Mikrofonbauer Kapseln konstruiert haben, die tatsächlich bei der Frequenzgangmessung bis 50kHz gehen. Ein paar dieser Exemplare konnte ich ausprobieren bzw. hören. Das war ziemlich grauselig… Ich denke 20kHz ist eben schon ein guter Schwellwert für tonale Aspekte, weil wir in diesem Bereich eben das Frequenzspektrum direkt auswerten. Höhere Bereiche spielen womöglich wirklich nur für die Auswertung im Zeitbereich eine Rolle. Und vielleicht ist ein entsprechend ausgelegtes Übertragungssystem dann der Idealfall.

Übrigens ist die SACD wohl auch ein Beispiel für ein nichtlineares System. Gerade in der Zeit des Tests der o.g. Bandmaschine hatte ich den ersten erschwinglichen DSD-fähigen Recorder von TASCAM, der PCM bis 192kHz und 64fs DSD konnte. Das 10kHz Rechteck habe ich auch mal dort durchgeschickt und mich gewundert, dass DSD in etwa vergleichbar mit 96kHz war. Das habe ich damals nicht direkt verstanden, ist mir mittlerweile aber klar: Wir kennen alle diese tollen Bildchen von Impulsmessungen, mit denen die scheinbare Überlegenheit der SACD demonstriert werden soll (z.B. hier: http://www.merging.com/products/show?product=1&page=11). Freundlicherweise ist hier auch der Pegel des 3µs-Pulses angegeben, -6dB. Das kann die SACD natürlich sehr gut, weil das Spektrum dieses Impulses quasi eine Linie bei -6dB ist und somit liegen selbst die höchsten Anteile über dem HF-Noise des DSD-Verfahrens; der Impuls ist scharf abgebildet. Beim – wie gesagt, der Beschaffenheit von Musik eher angepassten Obertonspektrum des Rechtecksignals – laufen die mit 1/n im Pegel abfallenden Obertöne recht schnell in das schon bei 20kHz beginnende HF-Noise. Also wohl die zweite Oberwelle von 50kHz verschwindet bereits nahezu komplett im Rauschen und ist somit nicht mehr verwertbar. 192kHz sah dann auch ganz eindeutig besser aus als DSD, weil die 70 und die 90kHz noch übertragen werden. Durch das Noiseshaping-Noise ist also auch das DSD-Verfahren ein Beispiel für ein nichtlineares System. Der Übertragungsbereich ist Abhängig vom Pegelniveau, je niederiger der Pegel je geringer die Bandbreite. Die Nichtlinearität läuft nur dummerweise hier auch gerade noch in entgegengesetzte Richtung als es das Nutzsignal erfordert. Trotzdem ist auch hier nicht deshalb gleich alles ganz furchtbar schlecht. Diese Nichtlinearität stört den größten Teil des Nutzsignals nicht.

@Thias: Der Ausgangspunkt war doch die Sache mit den beiden Sinusschwingungen, die man quasi beliebig fein zueinander phasenverschoben abbilden kann, als Beweis für unbegrenzte Genauigkeit im Zeitbereich. Das war nicht meine Position und genau damit wollte man ja den Zusammenhang zwischen Bandbreite und Zeitverhalten wegdiskutieren. Meine Position ist ja gerade, dass dieser Zusammenhang immer existiert. aber in der Frage sind wir inzwischen ja glaube ich weiter und somit sind wir ganz einer Meinung.
Aber habe ich behauptet, der Dualismus des Lichtes wäre auf unser Thema übertragbar? Das war als ganz allgemeines Beispiel für die Verwendung unterschiedlicher Modelle zur Beschreibung ein und derselben Sache gemeint. In unserem Fall ist es sicher weitaus leichter, beide Modelle zusammenzuführen, eben weil wir uns den Impuls auch aus Sinusschwingungen zusammensetzen können, klar. Dennoch hilft uns bei der Untersuchung des Systemverhaltens, einmal das eine, einmal das andere Modell besser. In einem nichtlinearen System ist es sogar notwendig. Das geht doch wie oben gezeigt auch bei der SACD schief. Ganz tolle Impulswiedergabe mit einem 3µs/-6dB Pulse und für Musik eigentlich fast keine größere nutzbare Bandbreite wie bei der CD. Wobei … bevor das Detail gleich gegen mich verwendet wird. Wenn sich das Verhalten des Noiseshapers genau vorhersagen ließe, wäre es streng nach Definition kein nichtlineares System; nur vielleicht etwas komplex in der Vorausberechnung. Bin ich zugegeben nicht tief genug in der Materie. Der Betrag an HF-Noise erhöht sich allerdings mit jedem Bearbeitungsschritt in DSD, wie beispielsweise eine simple Pegelkorrektur, heißt es. Uli kann vielleicht etwas darüber sagen, wie genau sich das System mathematisch beschreiben lässt.

@KSTR: Niemand spricht von FFT. Die Impulsbreite lässt sich nach Küpfmüller umrechnen (z.B. http://de.wikipedia.org/wiki/Küpfmüller ... tsrelation). Laut NEUMANN zeigt sich wohl auch bei jedem anderen ihrer Mikrofone dieser Zusammenhang zwischen Frequenzganz und Impulsmessung. Nur eben beim M150 nicht. Was dann auch einen systematischen Fehler ausschließt und die Existenz dieser Eigenart absichert.

Viele Grüße
Ralf
KSTR
inaktiv
Beiträge: 1221
Registriert: 08.05.2008, 11:51

Beitrag von KSTR »

D.h. kurz, das M150 hat also starke Membranresonanzen und damit wohl auch Klirr und IMD, was alles irgendwie unvermeidlich ist am oberen Bereichsende. Das sei ein legitimes Mittel um das Mikrofon "klingen zu lassen" wenn es das eh muss, und Neumann wird daran getüftelt haben, dass die unvermeidlichen Artefakte eben auch tatsächlich psychoakustisch positiv bewertet werden, auch durch den Impedanzwandler kommende. Soweit OK....

Und es liegt auch kein Verstoß gegen die Signaltheorie vor (wie aber im Kommentar des letzten PDF-Artikels gemutmaßt wird), denn ich habe ja schon erläutert, dass das Mikro ja nicht brickwallmäßig wegknickt bei 20kHz. Auch ohne obigen "euphonischen Zusatzdreck" kommt da noch was, mit halt noch mehr... welcher dann zusätzliche IMD-Produkte runter spiegelt in der Frequenz.

Ein Vergleich mit einem 100kHz-Messmikrofon wäre aufschlussreich....
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Zusammen!

Zu all diesen Dingen die nun hier wissenschaftlich betrachtet werden kann man auch mal einen einfachen praktischen Versuch als Metapher zur besseren praktischen Verständlichkeit oder der Relevanz in der Praxis machen. Ein Vierspurprojekt in der DAW öffnen die ersten zwei Spuren mit einem schönen gut aufgenommenen Klassiktitel und die beiden letzten Spuren belegen wir mit einem eher unmusikalischen 16kHz Sinuston mit Pegel -60dB und spielen dann mal das Projekt ab und schalten dann einfach immer mal wieder die Spuren mit dem 16 kHz Sinuston dazu bzw. stumm und hören aufmerksam was sich da dolles tut.
Einen 16 kHz Ton könnten noch viele von uns irgendwie hören und wir wählen extra einen Sinuston weil der so schön unmusikalisch ist und am ehsten akustisch in Erscheinung treten könnte....

Grüße Truesound
Bild
KSTR
inaktiv
Beiträge: 1221
Registriert: 08.05.2008, 11:51

Beitrag von KSTR »

In vielen Aufnahmen sind solche Birdies eh schon drin, von übersprechenden Computermonitoren/Fernsehern.

Ein Dauerton fällt kaum auf, da statisch und unkorreliert, so hochfrequent zumal. Triggert man dagegen 3kHz-Bursts mit der Musik (quasi korreliertes Morsen), dürfte die Erkennungsschwelle deutlich niedriger ausfallen...
Bild
audiotools
Aktiver Hörer
Beiträge: 41
Registriert: 17.09.2012, 20:06
Wohnort: Lauffen am Neckar

Beitrag von audiotools »

- Beschaffenheit des natürlichen Tonsignals.
- Technische Determinanten des Aufzeichnungsmediums.
- Psychoakustik.

Worum geht es ?
Ein natürliches Tonsignal, egal wie laut, egal welche Zeitdauer außer Null, ist niemals ein Sinus.
Ob Wasserfall, Menschenstimme oder der Wind in den Bergen, in der Natur gibt es keinen Sinus.
Alle natürlichen Schallereignisse sind spektral, eine Zusammensetzung aus Grund -und Obertönen.

Wenn jetzt mit einem Sinusgenerator Schallwellen erzeugt werden, um die Hörgrenzen des menschlichen Gehörs zu erfassen, und kein Mensch etwas über 20 K hört, heiß das noch lange nicht, bei 20 K ist Schluss.
Millionen Jahre Evolution, und das solls gewesen sein?
Weil die exakten Wissenschaften auf Beweisführung gestellt sind, ist mir der Grund dieses manipulativen Versuchsaufbaus klar, aber ich empöre mich über so eine Vereinfachung, die willkürlich ist und nur etwas beweist, das isoliert und aus dem Zusammenhang gerissen ist. Wir hören aber keinen Sinus, wir hören spektral, und selbst jemand dessen Sinushören bei 10 K aufhört, wird sofort ein Musiksignal erkennen, welches über 10 K einen Tiefpass hat und von einem breitbandigen unterscheiden können. Die 20 Khz Grenze gibt es nicht. Und ein für alle mal: alle darauf gestützten Theorien sind nur als geschlossenes System richtig, in unserer Wirklichkeit aber falsch und unbrauchbar.
Das ist genauso, als ob jemand sagen würde, die Menschen sehen kein UV, also genügt eine Sonne ohne UV.

Digitaltechnik ist eine großartige Erfindung mit wunderbaren Möglichkeiten und die vielleicht nützlichste Erfindung der Geschichte überhaupt. Wir verdanken ihr unseren Gedankenaustausch hier im Forum, obwohl wir uns nie gesehen haben. Nur soll doch bitte niemand so tun, als sei sie das perfekte Medium für Tonaufzeichnung. Ich erinnere mich an einen Satz meines Mathematiklehrers, vorgetragen im Ton einer Zauberformel " Paralellen schneiden sich im Unendlichen".
Die Digitaltechnik und die Analogtechnik treffen sich im Unendlichen.
Bis dahin haben wir noch viel Zeit. Nebenan läuft das Radio, genauer der UKW Empfang mit einem 40 Jahre alten Analog Receiver,Drehkondensator, und ich habe die offen liegenden Phono Eingänge gerade mit Blindsteckern HF -dicht gemacht. Eine Räumlichkeit bis zu den Sternen.
! Aber UKW geht doch nur bis 15 K ! Ja, und ich höre trotzdem darin den spektralen Bereich, die feinsten Obertöne werden nicht mehr von dem HF Nebel verdeckt.
Wenn jemand ein Meßgerät erfunden hat, welches die Stimmen von Hermann Prey und Elvis Presley unterscheiden kann, melde ich mich wieder.

Berndt H. Bauer
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Berndt !

Ein Gerät was die Stimmen von Hermann Prey und Elvis Presley unterscheiden kann hat heute jeder auf einem modernen Smartphone nennt sich "Musikerkennung" und funktioniert ziemlich um nicht zu sagen verblüffend gut. Wenn ich bei einem breitbandigen Musiksignal bei 10 kHz alles kappe kann man das im Vergleich auf jeden Fall hören... deswegen ist man ja bei der CD bis 20 kHz gegangen....

Grüße Truesound
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

KSTR hat geschrieben:In vielen Aufnahmen sind solche Birdies eh schon drin, von übersprechenden Computermonitoren/Fernsehern.

Ein Dauerton fällt kaum auf, da statisch und unkorreliert, so hochfrequent zumal. Triggert man dagegen 3kHz-Bursts mit der Musik (quasi korreliertes Morsen), dürfte die Erkennungsschwelle deutlich niedriger ausfallen...
Hallo Klaus!

Diese Birdies findet man z.b. auf Solti Ringeinspielung in der Wiener Sophiensälen (Decca).... hat auch niemand vorher gehört.... bevor man sie auf dem FFT gesehen hat.... Es war das Geräusch welches einen Zeilentrafo in alten Röhrenmomitoren von sich gegeben hat....Klar Bursts haben ja dann schon wirklich nichts mehr mit einem Musiksignal zu tun....und 3 kHz kann ja ohne Frage zudem bei 44,1kHz Samplingfrequenz sowieso komplett rekonstruiert werden...
Man hört den -60dB 16 kHz Sinuston schon nicht mehr wenn man die beiden Spuren mit dem Musiksignal zwischendrinne stumm schaltet....und dann muß halt jeder selbst entscheiden ob er trotzdem einen Birdie haben will oder nicht.... :D

Grüße Truesound
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Zunächst noch ein paar Worte zum M150 und 1:1-Übertragung und „akustisch verwertbar“…
Jedes Messgerät beeinflusst auch das zu messende Signal. Das geschieht bei Mikrofonen ganz deutlich, denn ansonsten müssten sie unendlich klein sein. Druckempfänger werden allgemein als der „klangtreuste“ Mikrofontyp geschätzt. Nur leider gibt es bei diesem Typ immer einen Druckstau vor der Membran, ungefähr ab einer Frequenz ab der die Wellenlänge in Größenordnung des Membrandurchmessers liegt. Die Kapsel des M150 verfolgt nun die Idee „wenn ich das schon nicht verhindern kann, dann versuche ich den Effekt möglichst unauffällig und nutzbringend einzusetzen“. Durch die große Kugel beginnt der Anstieg recht früh und wird dadurch unauffälliger und die Abhängigkeit der Frequenzanhebung im Höhenbereich vom Einfallswinkel wird viel gleichmäßiger als bei einer runden Membran in einem zylindrischen Stäbchenmikrofon. Letzteres ist vermutlich mindestens genauso entscheidend für das gute Auflösungsvermögen bei großen Mikrofondistanzen als das Zeitverhalten (irgendwo auf der NEUMANN-Seite gibt es auch ein PDF zu diesem Thema).

Weiter braucht uns doch aber die Frage der „akustischen Verwertbarkeit“ hier eigentlich nicht zu interessieren. Das M150 dient in dieser Diskussion nur als Beispiel dafür, dass es in der realen Technik Geräte geben kann, die beim Messen mit Sinusschwingungen ein anderes Verhalten zeigen als bei Impulsmessungen. Übertragen auf das Hörsystem des Menschen dient es als Argument gegen die „20kHz-Vereinfachung“.

Einen wesentlichen Punkt haben wir nun denke ich abschließend gemeinsam herausgearbeitet: Die Tastsache, dass man zwei Sinusse quasi beliebig fein zueinander verschoben abbilden kann, widerlegt nicht den Zusammenhang zwischen Bandbreite und Zeitverhalten. Das ist finde ich ein ganz wesentliches Ergebnis.

Jetzt fielen jüngst einige interessante Bemerkungen:
Hans-Martin hat geschrieben:Man muss sich den Hörapparat mal an der Stelle ansehen, wo die Nervenbahnen vom Hörnerv getriggert Signale zum Hirn senden. Offenbar habe diese eine Erholzeit. 17000 Pulse pro Sekunde können sie nicht übertragen, die maximale Frequenz scheint unter 400 zu liegen.
KSTR hat geschrieben: Ein Dauerton fällt kaum auf, da statisch und unkorreliert, so hochfrequent zumal. Triggert man dagegen 3kHz-Bursts mit der Musik (quasi korreliertes Morsen), dürfte die Erkennungsschwelle deutlich niedriger ausfallen...
audiotools hat geschrieben: Alle natürlichen Schallereignisse sind spektral, eine Zusammensetzung aus Grund -und Obertönen.

[...]

Wir hören aber keinen Sinus, wir hören spektral, und selbst jemand dessen Sinushören bei 10 K aufhört, wird sofort ein Musiksignal erkennen, welches über 10 K einen Tiefpass hat und von einem breitbandigen unterscheiden können.
Das geht doch alles in die gleiche Richtung, oder? Also beispielsweise der getriggerte 3kHz-Burst. Das glaube ich sofort. Aber gibt es dazu Untersuchungen mit überprüften Fakten? Denn genau das stützt doch die Aussage bzgl. „spektrales Hören“. Und nach dem Einwurf von „Hans-Martin“ ist doch wohl erstaunlich, dass wir ein 17kHz-Signal überhaupt hören. Das sind alles Denkansätze in die Richtung, in die das Thema nichtlineare Systeme mit dem Beispiel M150 führen sollte. Das menschliche Hörsystem ist etwas ganz anderes als ein System aus zwei elektroakustischen Schallwandlern mit nachgeschalteter Signalverarbeitung, das weder mit analogen Signalen wie wir sie in technischen Systemen benutzen noch auf binärer Ebene arbeitet.Wir reduzieren nur stets auf ein vereinfachtes Modell mit dem man dann unter gewissen Einschränkungen arbeiten kann. Ich glaube es würde sich lohnen, in diese Richtung mehr Wissen zusammenzutragen…

Viele Grüße
Ralf
KSTR
inaktiv
Beiträge: 1221
Registriert: 08.05.2008, 11:51

Beitrag von KSTR »

Das menschliche Hörsystem ist etwas ganz anderes als ein System aus zwei elektroakustischen Schallwandlern mit nachgeschalteter Signalverarbeitung, das weder mit analogen Signalen wie wir sie in technischen Systemen benutzen noch auf binärer Ebene arbeitet.Wir reduzieren nur stets auf ein vereinfachtes Modell mit dem man dann unter gewissen Einschränkungen arbeiten kann. Ich glaube es würde sich lohnen, in diese Richtung mehr Wissen zusammenzutragen…
ZB das (leider nicht peer-reviewte) spektakuläre Paper von Heerens & De Ru, "Applying physics makes auditory sense : a new paradigm in hearing". Da gibts auch eine Software zum selber testen. Leider ein etwas zäher Brocken (das Paper) bis die Herren auf den Punkt kommen, der aber dann umso spektakulärer ist.... und so manches seltsame Phänomen bereits mir erklären konnte.

Runtergespiegelte Intermodulationsverzerrung von Signalgemischen oberhalb 20kHz sind dadurch auch als möglicherweise hörbar mit dabei im Erklärungsansatz, weil sie nämlich bereits im Ohr physikalisch(!) vorhanden sind, bzw im Innenohr zustande kommen (das erklärte auch den highcut-hörenden Opa). Wenn wir eine 22kHz Brickwall-Filterung der Quelle haben die an sich noch deutlich höher ginge (Becken zB), gibt es einen anderen IMD-Flur im Ohr, was unterscheidbar sein mag. Das wurde ja auch schon früher untersucht, mit nicht immer klar positivem Ausgang soweit ich weiß(?)
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4669
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Ein AES Dokument aus dem Jahr 2004:
Perceptual Discrimination of Very High Frequency Components in Musical Sound Recorded with a Newly Developed Wide Frequency Range Microphone

Auszüge aus der Summary:
To make a precise evaluation, the test system was strictly designed to ensure that the very high frequency components did not affect the audible frequency band. Sound sources used for stimuli were primarily divided into the audible frequency band (below 21 kHz) and very high frequency band (above 21 kHz), and each band was represented independently. Sound stimuli were re-recorded with a newly developed very wide frequency range microphone in order to sufficiently capture the very high frequency components.
To examine the results, the nonlinear distortion level within the auditory band caused by reproduction of the very high frequency band was measured. From this measurement, 25 dB SPL of nonlinear distortion within the audible frequency band was observed in the sound stimulus for which the two subjects achieved a significant rate of correct answers. The hearing threshold above 20 kHz of the two subjects was also measured and it was found that their hearing threshold was below 22 kHz.
According to these results, the truth can be stated only as follows: two subjects, who could not hear the pure
tone above 22 kHz, perceived the differences between with and without higher frequency band above 22 kHz only for a longer stimulus with the highest level of very high frequency components.
It also remains impossible to indicate the necessary frequency bandwidth for recording music. However, it might be worth recording music by high resolution audio systems with very wide frequency range, because the possibility that such very high frequency band might affect human perception cannot be entirely discounted.
Also, von den Probanden haben nur 2 signifikant etwas über 21 kHz gehört, der Rest nicht. Und das dann nur bei längeren Signalen mit hohen Hochfrequenzpegeln.

Das Mikrofon mit Frequenzgang bis 100 kHz hat bei Aufnahme mit 192 kHz Abtastrate sicherlich die hohen Frequenzen aufgenommen. Damit sollten dann steilste Flanken (Diskussion Rechteckflanke) realisierbar sein.
Und beim Test wurden die Flanken eben zu- oder weggeschaltet.

Trotzdem haben die meisten Testteilnehmer nichts davon gemerkt. Ich finde, es sollte nachdenklich machen.

Grüsse
Uli
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9187
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Was machen eigentlich die steilen Flanken bei der unumgänglichen Filterung?
Wie verhält sich im Vergleich dazu die reine Analogtechnik?
Grüße Hans-Martin
Bild
Antworten