Frage eines Lesers über Ursache von
Klangunterschieden in
Verstärker:
Guten Tag,
Anlass meines Schreibens: Ich habe
von Ihrer
HP in einer der HiFi-Zeitschriften gelesen und bei passender Gelegenheit einen Link in
einem thread gesetzt. Es ging dabei um den Einfluss von elektronischen
Bauteilen auf den Klang. Ich möchte lieber darüber
diskutieren, warum Verstärker unterschiedlich klingen
(Konzept, Schaltung, Dimensionierung, Qualtität der
Bauelemente) und wie sich das in den Meßwerten abbildet. Auch
gibt es Verstärker, die, zumindest nach den üblichen
Meßverfahren, identische Werte aufweisen und trotzdem
unterschiedlich klingen. Woran liegt das, wo sind die Unterschiede
begründet, kann man das meßtechnisch herleiten?
Halten sie so eine Diskussion
für
sinnvoll und machbar oder ist das Utopie?
freundliche Grüße,
XX
Die email wurde in
gekürzter Form
wiedergegeben, blieb inhaltlich unverändert.
Antwort:
Hallo
XX,
vielen
Dank für Ihre Zuschrift.
-
Warum klingen
Verstärker
unterschiedlich?
Verstärker
nutzen unterschiedliche Schaltungen aus unterschiedlichen Bauteilen
betrieben in unterschiedlichen Mikro-Umweltbedingungen. Für
den größten Einflußfaktor halte ich die
Schaltungstechnik, gefolgt von der Dimensionierung der angewandten
Schaltungstechnik, gefolgt von der Eignung der Bauteile für
die jeweilige Funktion innerhalb der Schaltung.
Die
andere Frage wäre, warum "klingen" sie überhaupt?
hauptsächlich durch Nichtlinearitäten der Bauteile
und Modulation der Bauteileparameter durch beliebige
Größen.
Zur Schaltungstechnik,
Dimensionierung und Eignung der Bauteile sind vielleicht diese Punkte
interessant:
-
perfekte
Schaltungstechnik:
die
perfekte Schaltungstechnik gibt es nicht, immer nur die den
Wünschen scheinbar am besten gerecht werdende.
Selten
wird es gelingen alle Parameter zu vereinen in einer Schaltung. Ich
schweife ab in die Operationsverstärkertechnik. Ein reiner
DC-Präzisions-Operationsverstärker mit sehr niedriger
DC-Offset-Ausgangsspannung und Drift über Temperatur erreicht
nicht die Bandbreiten und Anstiegsgeschwindigkeiten wie einer
für den Videobetrieb. Umgekehrt, der Video OP ohne ettliche
Zusatzmaßnahmen auch nicht die Präzision bei sehr
niedrigen Frequenzen wie der DC OP. Die Vergleiche lassen sich endlos
fortführen. Schon mal einen Rennwagen gesehen mit einer
Zuladung von 5 Tonnen? Bestimmt könnte ein LKW so umgebaut
werden, daß er auch 250 km/h fährt mit der Ladung
hintendrauf, bei der Straßenlage wird es dann aber schon
recht schwierig. Das ist der unmögliche Punkt, auch bei der
Elektronik alles zu vereinen:
Um in
der Elektronikentwicklung möglichst viele elektrische
Parameter zu optimieren steigt der Aufwand irgendwann ins GIGANTISCHE
bezogen auf Kosten, der Entwicklungszeit und dem Meß- sowie
Beweisführungsaufwand. Daher müssen Abstriche gemacht
werden um die Schaltungstechnik nicht ausufern zu lassen.
Die
Kunst liegt nun darin den richtigen Kompromiss aus Ziel und Aufwand zu
finden, die Schaltungstechnik ist das Mittel um den Kompromiss zu
erfüllen. Das manche gute Verstärker teuer sind, hat
seine Berechtigung begründet in den geringen
Stückzahlen, dem geleisteten Aufwand an Entwicklungsarbeit und
der Fertigungsqualität.
Hätte
nun aber die Schaltungstechnik einen bestimmten gravierenden Haken an
nur einer Stelle, die nicht beachtet worden wäre, was
nützt dann noch aller erdenklicher Aufwand und Tam Tam darum
herum: nichts, aber auch rein gar nichts mehr. Es ist nur die Linderung
der Schmerzen eines bereits totkranken Patienten, zuerst sollte ihm bei
seiner Krankheit geholfen werden, bevor ihm die Haare neu gestylt oder
ihm ein Selbstfindungskurs mit Wassertreten empfohlen wird.
Genauso
ist es in der Elektronik, finde lieber die Stelle in der Schaltung wo
beispielsweise eine Zenerdiode, Stromquelle günstiger
wäre als ein Widerstand, wo ändert man die
Masseführung oder wo wäre eine Kaskode angebracht
oder wo stört sie nur. Das sind jetzt Veränderungen,
die innerhalb von Geräten noch halbwegs realisierbar sind.
Materialkosten ein paar Euro, Aufwand leicht das komplette Wochenende.
Es läßt sich auch noch steigern, z.B. hier:
Verstärker
Umbau
Aufwand
etwa 200 Euro Materialkosten und drei Wochen verbrachter
Rest-Jahresurlaub, Ärger zu Hause, ein chaotisch aussehender
Arbeitsplatz und viele andere liegengelassene Dinge des
alltäglichen Lebens. Mit welchem Gewinn? minus 200
Euro und verlorener Lebensqualität aus der Sicht des
Betriebswirtschaftlers und dem Lebemann. Einziger Beweggrund:
"Erfahrungen, diese kann man nicht kaufen, die muß man
machen". Bitte nicht die Änderungen anfragen.
Der
aufällige Beobachter einer Schaltung wird sich z.B. fragen: "
warum regelt er hier die Spannung nicht? - stimmt du hast Recht - nur
das weiß der Entwickler aber auch - er darf nur manchmal
nicht, gelegentlich weiß er es aber auch nicht, sind auch nur
Menschen.
Der Kostendruck und Fertigbarkeit ist eine Hauptursache
für fehlende Schaltungsteile andererseits aber auch der Grund
für äußerst trickreiche Schaltungstechnik,
billig und sehr beachtlich.
Schraubt
doch mal moderne Massenware auseinander, wie konstruktiv einfach da so
viel erreicht worden ist. Oder kürzlich gab es bei MAC D.
für 3,20 Euro vier Chicken Nuggets, Pommes, Salat und Coke.
Als Zusatz noch eine kleine Musikbox, man drückt einen Knopf
und es spielt ein Lautsprecher aus einem Speicher ein erkennbares
Poplied - unglaublich - für wenig Geld.
Auch
wie beispielsweise in der Vergangenheit mit nur wenigen Röhren
so viele Funktionen gleichzeitig ausgeführt worden sind,
Klangregler, Mischer usw. - einfach nur beachtlich.
Der
größte Änderung der Schaltungstechnik,
wäre dann ein komplett anderes Schaltungsprinzip - eine
Neukonstruktion.
die
perfekte Dimensionierung gibt es nicht, immer nur die den
Wünschen scheinbar am besten gerecht werdende.
Ist
nun endlich die angewandte Schaltungstechnik gefunden gilt es diese zu
dimensionieren, 2k2 Ohm oder doch 3k3 Ohm, 10 Picofarad oder 6.8
Picofarad, reichen die 22µF an der Stelle? Die Fülle
der Möglichkeiten erstreckt sich lang. "Oh! mit den 6.8pF hab
ich jetzt zwar mehr Bandbreite aber warum hab ich jetzt andere
Überschwinger auf dem Oszilloskop?" An vielen Stellen ist man
sich nicht sicher welcher Wert gewählt werden soll - trotz
vieler Berechnungen und Messungen entscheidet an manchen Stellen oft
nur das Bauchgefühl aus den Erfahrungswerten heraus wie
dimensioniert wird. Warum?, man könnte auch sicherlich dieses
noch meßtechnisch und rechnerisch erschlagen - Problem, man
will/muss auch endlich mal fertig werden !!
Vergleichbar
dazu, wer von Euch guckt bei jedem Abbiegen so wie in der Fahrschule
gelernt, Innenspiegel, Außenspiegel, Schulterblick nachts um
halb vier?
Jeder entscheidet auf Basis von Erfahrungswerten in der
jeweiligen Situation über notwendige Maßnahmen,
genauso ist es in der Elektronikentwicklung auch.
In der
Änderung der Dimensionierung der Schaltung ist sicherlich in
einigen Fällen noch was zu verbessern. Doch auch hier gilt,
man sollte ganz genau wissen was man da tut. Ein geänderter
Wert kann leicht bei Parameter A Vorteile bringen, an einer anderen
Stelle Parameter B aber wieder verschlechtern, nach Murphy's Law genau
den Parameter, den man nicht beobachtet.
Allgemein
wäre ich bei der Umdimensionierung von Bauteilen kritisch. Man
sollte sich immer die Frage stellen: warum hat der Entwickler jetzt
4,7k gewählt und nicht 10k, die der Beobachter hier
für besser hält. Ein 4,7k Widerstand kostet genauso
viel wie ein 10k Widerstand, der Entwickler hatte einen Grund,
hätten die 10k Vorteile, so hätte er auch dahin
gehend gewählt, gleicher Kostenfaktor. Manchmal meint man
einen Vorteil zu erkennen, ist sich aber über alle
Hintergründe noch nicht ganz im klaren, der Entwickler hat da
einen Vorteil: er hat es sich ausgdacht und bereits viel Erfahrung
gewonnen. Bei manchen Bauteilen ist es aber auch klar, hier musste
gespart werden - dann läßt sich leichter aufbessern.
Bevor darin Änderungen vorgenommen werden, sollte man sich
sicher sein - "Warum hat er wahrscheinlich genau diesen Wertebereich
gewählt und welche Vor- und Nachteile bekomme ich mit einer
Änderung?" Oft sieht der erste Eindruck nur den Vorteil, die
Nachteile kommen dann später.
Änderungen
in der Dimensionierung des Verstärkerkerns können
aber auch ruck zuck zur Katastrophe führen, als typische
Beispiele seien genannt:
unbewußt
verstellte oder zu hoch eingestellte Ruheströme durch
Umdimensionierung an einer anderen Stelle im Verstärker. Die
ursprüngliche Steuerung oder Regelung des Ruhestroms kann wenn
du Pech hast einen dummerweise vergrößerten Strom
nicht mehr fangen, insbesondere bei bipolaren Endstufen kann dann eine
thermische Mitkopplung der Endstufe die Folge sein, die Transistoren
werden immer heißer, und irgendwann steigt der
erhöhte Strom nochmals schlagartig an - thermischer Durchbruch
-, Defekte sind möglich ohne vorhandene
Schutzmaßnahmen.
Das
Ändern der Frequenzgang Korrektur ist sozusagen das Chip
Tuning, das Erhöhen des Ladedrucks, das Erhöhen der
Einspritzmenge - die Bandbreite steigt an, der Verstärker kann
so oft schneller gemacht werden, gewinnt er aber auch an
Stabilität? kommt halt drauf an was im Orginal
geboten war, da läßt sich nichts verallgemeinern.
Änderungen an der Kompensation sind so ziemlich das
heißeste was man tun kann, das Resultat ist nach sehr langem
Probieren entweder ein verbesserte Verstärker, ein
verschlechterter oder ein defekter. Eine Oszillation kann sich rasch
aufbauen und die Endstufe zerstören. Wer daran fummelt braucht
gute Nerven, das nötige Equipment und
Schutzmaßnahmen gegen Zerstörung und sollte erneut
wissen was er tut.
Noch fieser ist es, der Verstärker läuft im Probebetrieb problemslos, dann aber
an der Box oder an einer anderen fängt er an zu spinnen oder geht gar unter
diesen veränderten Lastimpedanzen in die Oszillation mit Gefahr für die
Lautsprecher. Auch das Ändern des festeingestellten internen Verstärkungsfaktors
kann leicht zu Oszillation führen.
auch
recht interessantes Thema, das Bauteil muß nicht "das
allgemein betracht" das scheinbar Beste sein, es muß
für die jeweilige Funktion das geeigneste sein. Ein Beispiel:
was nützt dir z.B. ein gewendelter Präzisions
Metallschichtwiderstand mit 0,01% 5ppm/°C in einer
Hochfrequenzschaltung - wahrscheinlich deutlich weniger als ein
dafür besser geeigneter Kohlemassewiderstand mit besseren
parasitären Hochfrequenzeigenschaften.
Es ist
immer eine Frage der Eignung, nicht des Preises, wobei Preis und
Eignung oft eng miteinander verknüpft sind - jedoch nicht
immer - daher in Elektroniken nicht gleich schimpfen warum da so was
scheinbar kostengünstiges eingebaut worden ist? Vielleicht hat
es seinen Grund, meistens ist es der Preis - nur nicht immer. Das gilt
auch für Transistoren und Röhren, eine geeignete ist
die Beste.
-
Warum können
Verstärker
unterschiedlich klingen wenn sie Meßtechnisch doch sehr
ähnlich sind?
Ist es
wirklich so? nehmen wir es der Höflichkeit halber einfach mal
so an. Persönlich habe ich bisher immer nur die Erfahrung
gemacht: ein Verstärker, der umfangreiche messtechnisch
ordentliche Ergebnisse lieferte hat nach meinem Empfinden noch nie
schlecht ausgesehen in Hörprüfungen.
Meßtechnisch schlechte Verstärker lassen sich gut
heraushören.
Was
ich nicht leicht nachvollziehen kann sind Behauptungen wie: "der
Verstärker hat zwar meßtechnisch schlechte Daten,
hohen Klirrfaktor, rauscht, wenig Bandbreite und und und - er klingt
aber sehr gut", mag sein für den Besitzer, sein gutes Recht.
Aus elektrotechnischer Sicht ist es aber kritisch so zu denken.
Am
Beispiel des Klirrfaktor läßt es sich verdeutlichen.
Der Klirrfaktor wird üblicherweise damit gemessen, in dem am
Eingang eine fast klirrfreie Sinusquelle mit konstanter Amplitude
angelegt wird. Es ist das denkbar einfachste in der Natur vorkommende
Wechselsignal, das man an einen Verstärker anlegen kann. Mit
welcher Begründung soll es nun legitim sein, daß der
Verstärker neue eigenproduzierte Singalanteile (Harmonsiche)
hinzuaddiert? - dies widerspricht ganz klar der mathematisch
eindeutigen Forderung nach einem idealen Verstärker.
Das
ist die Forderung an einen idealen Spannungsverstärker: Ausgangsspannung(t) =
Eingangsspannung(t) * Verstärkungsfaktor
alle anderen Forderungen sind Unsinn, die sich mit Elektrotechnik nicht
erklären lassen.
Werden
nun zusätzliche Dinge gefordert wie veränderte
Amplituden- und Phasengänge oder hinzufügen von
harmonischen Anteilen dann fällt das unter die Kategorie
"Musikinstrument oder Klangverschönerung nach
persönlichen Vorstellungen".
Die Einzigen dessen legitime
Aufgabe dies sein sollte, sind die Musiker zusammen mit dem Tonmeister.
Das Entzerren von Fehlern anderer Komponenten in der Wiedergabekette
kann auch Teil der Verstärkeraufgabe sein, das ist aber ein
Spezialfall, eine Abweichung vom Ideal, mit dem Ziel die
Frequenzganglinearität der gesamten Wiedergabekette inklusive
dem Raum zu verbessern - ein Equalizer.
Klirrfaktormessungen
gehen davon aus, daß ein ideales, konstantes Sinussignal am
Eingang anliegt. Die Klirrfaktormessung geschieht über
verstimmbare Bandpassfilter und Mischer (analoge Spektrumanalyzer) und
auch in der digitalen Welt mittels Analog-Digital-Wandler und Fourier
Transformation, beide Verfahren gehen davon aus, das Signal sei
konstant, die Mathematik beider Verfahren basiert auf der Annahme der
Konstantheit, der sturen Periodizität.
Haben
die Ausgangssingale z.B. zufällige Amplituden- oder
Frequenzschwankungen, so liegt z.B. eine rauschmodulierte Frequenz-
und/oder eine Amplitudenmodulation vor, beide Messverfahren liefern
für diese Störungen nur schwer interpretierbare
Ergebnisse. Auch eine Modulation mit einer schwebenden Frequenz, die
mal da ist und mal nicht und keiner erkennbaren
Gesetzmäßigkeit gehorcht verkompliziert die Messung
enorm . Mathematik, die für diese Form der Signale geeignet
ist sind z.B. die:
-
Short
Time Fourier Transformation
-
Gabor
Expansion
-
Wavelett
Transformation
-
Ville
Wagner Transformation
-
sie
alle und noch weitere gehören zu den Time-Frequency und
Wavelet Transformationen
mit
diesen Verfahren, die sich ähnlich sind können neue
Erkenntnisse gewonnen werden. Bei der klassischen FFT und der analogen
Spektral Analyse wird felsenfest davon ausgegangen die gemessenen
Signale seien konstant, wenn sich nun aber doch ein Signal zeitlich
ändert, so kann dieses nicht richtig intepretiert werden - man
weiß weder wann es sich geändert hat und oder was
sich geändert hat, Frequenz oder Amplitude? Je länger
nun z.B. eine FFT gemessen wurde, desto mehr werden einmalige
Ausreißer im sonst periodischen Sinussignal
unterdrückt im Messergebnis. Wird die FFT nun verkleinert in
immer kleinere Zeiteinheiten so steigt die Wahrscheinlichkeit diesen
Ausreißer direkt zu erfassen immer mehr an, der Trick ist
dann innerhalb dieser verkleinerten FFT Meßzeit wird der
Ausreißer übergeführt in ein "quasi
stationäres Signal", die FFT liefert in diesem Zeitblock dann
eine immer brauchbarere Messung.
Der Übergang von der
unendlich langen FFT in immer kleinere Blöcke ist der Wechsel
zur STFT, die Short Time Fourier Transformation. Ist doch ideal, oder?
Die
Sache hat nur leider einen kleinen Haken, lasst mich dazu folgendes in
Worten postulieren (kein Anspruch auf korrekte Einheiten):
konstantes
erreichbares maximales Genauigkeitsprodukt = Ortsauflösung *
Frequenzauflösung
Eine
klassische FFT dauert je länger desto besser, die Orts
(Zeit)auflösung geht damit gegen Null, die
Frequenzauflösung steigt aber mit steigender Messzeit an, das
Produkt aus beidem bleibt konstant. Angenommen man zeichnet die Daten
für zehn Minuten mit hoher Abtastrate lang auf, so ist die
Frequenzauflösung unter praktischen Aspekten bereits gewaltig,
die Unterscheidung auf z.B. 10,001 kHz oder 10,002 kHz ist keine
Schwierigkeit mehr aber wenn sich während der Messung was
geändert hat - unmöglich zu interpretieren
wann es geschah und wie stark die Änderung gewesen ist. Auch
die Unterdrückung von zufälligen Signalanteilen
(Rauschen, alle nicht periodischen Signale) wird sehr hoch, nur die
periodischen Anteile bleiben gut sichtbar - das ist auch so gewollt.
Die in der Praxis begrenzenden Faktoren sind dann schon
Effekte wie nicht mehr ausreichende Rechengenauigkeiten. Es ist auch
verständlich, es gilt der Grundsatz: je länger man
mißt, desto genauer kann gemessen werden.
Die
Fourier Transformation ist eine der häufigsten angewandten
Meßmethoden, sie ist aber auch eine der häufigsten
mißverstandenen Methoden, besonders die Forderung nach
konstanten Signalen wird gern außer Acht gelassen.
Erfolgt
nun der Übergang in eine STFT so gilt weiterhin:
konstantes
erreichbares maximales Genauigkeitsprodukt = Ortsauflösung *
Frequenzauflösung
bei
der STFT steigt die Ortsauflösung an, man weiß nun
wann eine Störung aufgetreten ist und in etwa wie sie
ausgesehen hat (wenn sie stark genung war), im Gegenzug dazu sinkt aber
die Frequenzauflösung dementsprechend, die
Übergänge sind gleitend. In der STFT
läßt sich dann nicht mehr zwischen 10,001 kHz und
10,002 kHz unterscheiden, beides erscheint im selben Kurvenzug und
nicht als einzelne "Nadeln" wie bei der Langzeit FFT. Das Dumme daran
ist nun aber auch, durch die verkürzte Meßzeit
verringert sich der gemessene Signalabstand aus Rauschen und Signal, da
ja nicht so lange gemessen werden kann und sich nichtperiodische
Anteile weniger stark ausmitteln, dadurch bleiben leider auch
harmonische Anteile meist nicht mehr sichtbar, da diese ohnehin bereits
nahe am Rauschteppich liegen (bei einem guten Verstärker
zumindest).
Der Zusammenhang ist hoffentlich verständlich, man
kann nicht mehr so lange messen, man weiß dadurch zwar besser
wann es geschah, aber die Genauigkeit sinkt.
Die
anderen genannten mathematischen Verfahren sind mit der FFT
artverwandt, mit dem Versuch, die zeitlichen Änderungen der
Signale zu erfassen und darzustellen. Diese Mathematik
existiert teilweise schon seit Jahrzehnten, die praktische Anwendung
kam in vielen Fällen praktisch aber meist erst im Zuge mit den
modernen ADC's und leistungsfähiger Rechner Hardware.
Mit
solchen Verfahren lassen sich z.B. Löcher oder
Öldiebe an langen Pipelines auf gute Genauigkeit hin
örtlich lokalisieren, anhand Messungen von Durchfluß
und zeitlicher Änderungen von Druckwellen im Öl mit
anschließender Verarbeitung mit geeigneter Transformation.
Die Anwendungen sind vielfältig von Radarsignalverarbeitung,
Fingerabdrücken, Sprachforschung und Phonetik,
Motorprüfungen, Erdbebenerkundung, Messung von ionisierten
Impulsen bis zu Vibrationsmessungen.
Letztere habe ich umfangreich an
äußerst schnell drehenden Wellen und Lagern betreut,
damit lassen sich beispielsweise Präzisionskugellager
beurteilen, wann sind sie eingelaufen, wurden sie gut gefertigt und
montiert, wie verhalten sie sich über Temperatur, wie
verschlechtern sie sich, wie lassen sich ankündigender
Kugellagerverschleiß bereits im Vorfeld erkennen. Welches
Lager erzeugt welches Spektrum und und und. Mit solchen Formen der
Mathematik ist vieles erkennbar geworden, da im Gegensatz zur FFT auch
der zeitliche Zusammenhang erkennbar ist.
Genau
da besteht bei den klassischen Audiomessungen noch eine Lücke,
der Einzug dieser Mathematik hat in die Audiomeßtechnik noch
nicht in dem breiten Maße stattgefunden, wie er heute schon
könnte, weil ein Problem leider dieses ist: manche Messungen
an allgemeiner Technik haben den Vorteil ihre
Störgrößen sind verglichen mit sehr guten
Audioverstärkern noch relativ hoch und besser ausmachbar. Ein
bereits sehr guter Verstärker prodziert nur sehr niedrige
Störpegel, diese zu messen ist schwierig, besonders dann wenn
nur wenig Messzeit zur Verfügung steht um die Methoden zu
nutzen, die Ausreisser und Anomalien erkennen sollen.
Bei
der Audio Messung steht man grundsätzlich immer vor dem
gleichen Problem, ein Verstärker der Spitzenklasse und
besonders viele Operationsverstärker sind bereits so gut,
daß die gewünschten Messungen in allen Feinheiten zu
einem Akt an Aufwand und Meßtechnik werden können.
Im Prinzip wäre Spezial Meßtechnik erforderlich, die
es wenig gibt, oder oft mühsehlig selbst konstruiert werden
muss - ein Problem, daher ist es eine nur verständliche
Methode sich mit Standard Messmethoden zu begnügen, diese sind
bereits sehr aussagekräftig.
Die
oft geäußerten Forderungen: "Warum man denn das,
dieses und jenes nicht mal mißt?" Da sage ich nur als
Antwort: "Gut, dann mach doch mal, viel Spaß dabei, mal sehen
wie lange Du das durchziehst".
Die
Krux dabei, an einem wirklich weniger guten Verstärker oder OP
interessiert es niemanden, aber genau da besteht noch eine bessere
Chance Unterschiede zu erkennen, an Spitzenteilen wird es sehr schwer
ganz tief hineinzuschauen, die sind gut.
Nun
der Übergang zum menschlichen Gehör - kann es sein,
daß dieses ähnlich funktioniert mittels spektraler
zeitauflösender Analyse und auf Dinge achtet, die nur selten
gemessen oder noch gar nicht gemessen werden können? Ich
weiß es nicht, lasse ich mal so im Raum stehen, wäre
eine mögliche Erklärung dafür, daß
es eine Unzahl von Menschen gibt, die felsenfest behaupten sie
hören Unterschiede und wissen vor Verzweiflung nicht warum.
Nur warnen möchte ich davor diese Aussagen auszureizen, zu
verfälschen, falsch zu verstehen und aufzublasen mit der
Behauptung, die bisherigen Messungen gehen am Ziel vorbei -
wäre völliger Quatsch auch nur ansatzweise so zu
denken - ein Verstärker der bereits in der Disziplin
klassische Klirrfaktormessung versagt, wird in anderen bisher nicht
messbaren Disziplinen vielleicht auch nicht gerade eine tolle Figur
abliefern, vielleicht irre ich mich auch - ich hoffe nicht.
Welche Messungen für den Vergleich mit dem menschlichen Ohr
besonders interessant sind hat mich schon immer interessiert, nur
nachvollziehbare Antworten darauf kenne ich nicht. Dies ist eine
Aufforderungen an Akustiker und Mediziner - sagt es mir. die
Meßtechnik läßt sich dann zielgerechter
darauf hin konzentrieren, aber sich selbst noch Jahre mit akustischer
Funktionsweise des menschlichen Hörens und Empfindens zu
beschäftigen, das Leben ist kurz alles selbst zu tun - Ran ans
Forum oder die email - wie hört das Ohr? - worauf
hört es? Interessiert andere bestimmt auch.

Impressum und Haftungsausschluss