Frage eines Lesers über Ursache von Klangunterschieden in Verstärker:

Guten Tag,
Anlass meines Schreibens: Ich habe von Ihrer HP in einer der HiFi-Zeitschriften gelesen und bei passender Gelegenheit einen Link in einem thread gesetzt. Es ging dabei um den Einfluss von elektronischen Bauteilen auf den Klang. Ich möchte lieber darüber diskutieren, warum Verstärker unterschiedlich klingen (Konzept, Schaltung, Dimensionierung, Qualtität der Bauelemente) und wie sich das in den Meßwerten abbildet. Auch gibt es Verstärker, die, zumindest nach den üblichen Meßverfahren, identische Werte aufweisen und trotzdem unterschiedlich klingen. Woran liegt das, wo sind die Unterschiede begründet, kann man das meßtechnisch herleiten? Halten sie so eine Diskussion für sinnvoll und machbar oder ist das Utopie? freundliche Grüße, XX Die email wurde in gekürzter Form wiedergegeben, blieb inhaltlich unverändert.

Antwort:

Hallo XX, vielen Dank für Ihre Zuschrift.
Verstärker nutzen unterschiedliche Schaltungen aus unterschiedlichen Bauteilen betrieben in unterschiedlichen Mikro-Umweltbedingungen. Für den größten Einflußfaktor halte ich die Schaltungstechnik, gefolgt von der Dimensionierung der angewandten Schaltungstechnik, gefolgt von der Eignung der Bauteile für die jeweilige Funktion innerhalb der Schaltung. Die andere Frage wäre, warum "klingen" sie überhaupt? hauptsächlich durch Nichtlinearitäten der Bauteile und Modulation der Bauteileparameter durch beliebige Größen.

Zur Schaltungstechnik, Dimensionierung und Eignung der Bauteile sind vielleicht diese Punkte interessant:

die perfekte Schaltungstechnik gibt es nicht, immer nur die den Wünschen scheinbar am besten gerecht werdende. Selten wird es gelingen alle Parameter zu vereinen in einer Schaltung. Ich schweife ab in die Operationsverstärkertechnik. Ein reiner DC-Präzisions-Operationsverstärker mit sehr niedriger DC-Offset-Ausgangsspannung und Drift über Temperatur erreicht nicht die Bandbreiten und Anstiegsgeschwindigkeiten wie einer für den Videobetrieb. Umgekehrt, der Video OP ohne ettliche Zusatzmaßnahmen auch nicht die Präzision bei sehr niedrigen Frequenzen wie der DC OP. Die Vergleiche lassen sich endlos fortführen. Schon mal einen Rennwagen gesehen mit einer Zuladung von 5 Tonnen? Bestimmt könnte ein LKW so umgebaut werden, daß er auch 250 km/h fährt mit der Ladung hintendrauf, bei der Straßenlage wird es dann aber schon recht schwierig. Das ist der unmögliche Punkt, auch bei der Elektronik alles zu vereinen: Um in der Elektronikentwicklung möglichst viele elektrische Parameter zu optimieren steigt der Aufwand irgendwann ins GIGANTISCHE bezogen auf Kosten, der Entwicklungszeit und dem Meß- sowie Beweisführungsaufwand. Daher müssen Abstriche gemacht werden um die Schaltungstechnik nicht ausufern zu lassen.

Die Kunst liegt nun darin den richtigen Kompromiss aus Ziel und Aufwand zu finden, die Schaltungstechnik ist das Mittel um den Kompromiss zu erfüllen. Das manche gute Verstärker teuer sind, hat seine Berechtigung begründet in den geringen Stückzahlen, dem geleisteten Aufwand an Entwicklungsarbeit und der Fertigungsqualität. Hätte nun aber die Schaltungstechnik einen bestimmten gravierenden Haken an nur einer Stelle, die nicht beachtet worden wäre, was nützt dann noch aller erdenklicher Aufwand und Tam Tam darum herum: nichts, aber auch rein gar nichts mehr. Es ist nur die Linderung der Schmerzen eines bereits totkranken Patienten, zuerst sollte ihm bei seiner Krankheit geholfen werden, bevor ihm die Haare neu gestylt oder ihm ein Selbstfindungskurs mit Wassertreten empfohlen wird.

Genauso ist es in der Elektronik, finde lieber die Stelle in der Schaltung wo beispielsweise eine Zenerdiode, Stromquelle günstiger wäre als ein Widerstand, wo ändert man die Masseführung oder wo wäre eine Kaskode angebracht oder wo stört sie nur. Das sind jetzt Veränderungen, die innerhalb von Geräten noch halbwegs realisierbar sind. Materialkosten ein paar Euro, Aufwand leicht das komplette Wochenende. Es läßt sich auch noch steigern, z.B. hier: Verstärker Umbau Aufwand etwa 200 Euro Materialkosten und drei Wochen verbrachter Rest-Jahresurlaub, Ärger zu Hause, ein chaotisch aussehender Arbeitsplatz und viele andere liegengelassene Dinge des alltäglichen Lebens. Mit welchem Gewinn?  minus 200 Euro und verlorener Lebensqualität aus der Sicht des Betriebswirtschaftlers und dem Lebemann. Einziger Beweggrund: "Erfahrungen, diese kann man nicht kaufen, die muß man machen". Bitte nicht die Änderungen anfragen. Der aufällige Beobachter einer Schaltung wird sich z.B. fragen: " warum regelt er hier die Spannung nicht? - stimmt du hast Recht - nur das weiß der Entwickler aber auch - er darf nur manchmal nicht, gelegentlich weiß er es aber auch nicht, sind auch nur Menschen.

Der Kostendruck und Fertigbarkeit ist eine Hauptursache für fehlende Schaltungsteile andererseits aber auch der Grund für äußerst trickreiche Schaltungstechnik, billig und sehr beachtlich. Schraubt doch mal moderne Massenware auseinander, wie konstruktiv einfach da so viel erreicht worden ist. Oder kürzlich gab es bei MAC D. für 3,20 Euro vier Chicken Nuggets, Pommes, Salat und Coke. Als Zusatz noch eine kleine Musikbox, man drückt einen Knopf und es spielt ein Lautsprecher aus einem Speicher ein erkennbares Poplied - unglaublich - für wenig Geld. Auch wie beispielsweise in der Vergangenheit mit nur wenigen Röhren so viele Funktionen gleichzeitig ausgeführt worden sind, Klangregler, Mischer usw. - einfach nur beachtlich. Der größte Änderung der Schaltungstechnik, wäre dann ein komplett anderes Schaltungsprinzip - eine Neukonstruktion. die perfekte Dimensionierung gibt es nicht, immer nur die den Wünschen scheinbar am besten gerecht werdende. Ist nun endlich die angewandte Schaltungstechnik gefunden gilt es diese zu dimensionieren, 2k2 Ohm oder doch 3k3 Ohm, 10 Picofarad oder 6.8 Picofarad, reichen die 22µF an der Stelle? Die Fülle der Möglichkeiten erstreckt sich lang. "Oh! mit den 6.8pF hab ich jetzt zwar mehr Bandbreite aber warum hab ich jetzt andere Überschwinger auf dem Oszilloskop?" An vielen Stellen ist man sich nicht sicher welcher Wert gewählt werden soll - trotz vieler Berechnungen und Messungen entscheidet an manchen Stellen oft nur das Bauchgefühl aus den Erfahrungswerten heraus wie dimensioniert wird. Warum?, man könnte auch sicherlich dieses noch meßtechnisch und rechnerisch erschlagen - Problem, man will/muss auch endlich mal fertig werden !! Vergleichbar dazu, wer von Euch guckt bei jedem Abbiegen so wie in der Fahrschule gelernt, Innenspiegel, Außenspiegel, Schulterblick nachts um halb vier?

Jeder entscheidet auf Basis von Erfahrungswerten in der jeweiligen Situation über notwendige Maßnahmen, genauso ist es in der Elektronikentwicklung auch. In der Änderung der Dimensionierung der Schaltung ist sicherlich in einigen Fällen noch was zu verbessern. Doch auch hier gilt, man sollte ganz genau wissen was man da tut. Ein geänderter Wert kann leicht bei Parameter A Vorteile bringen, an einer anderen Stelle Parameter B aber wieder verschlechtern, nach Murphy's Law genau den Parameter, den man nicht beobachtet. Allgemein wäre ich bei der Umdimensionierung von Bauteilen kritisch. Man sollte sich immer die Frage stellen: warum hat der Entwickler jetzt 4,7k gewählt und nicht 10k, die der Beobachter hier für besser hält. Ein 4,7k Widerstand kostet genauso viel wie ein 10k Widerstand, der Entwickler hatte einen Grund, hätten die 10k Vorteile, so hätte er auch dahin gehend gewählt, gleicher Kostenfaktor. Manchmal meint man einen Vorteil zu erkennen, ist sich aber über alle Hintergründe noch nicht ganz im klaren, der Entwickler hat da einen Vorteil: er hat es sich ausgdacht und bereits viel Erfahrung gewonnen. Bei manchen Bauteilen ist es aber auch klar, hier musste gespart werden - dann läßt sich leichter aufbessern.

Bevor darin Änderungen vorgenommen werden, sollte man sich sicher sein - "Warum hat er wahrscheinlich genau diesen Wertebereich gewählt und welche Vor- und Nachteile bekomme ich mit einer Änderung?" Oft sieht der erste Eindruck nur den Vorteil, die Nachteile kommen dann später. Änderungen in der Dimensionierung des Verstärkerkerns können aber auch ruck zuck zur Katastrophe führen, als typische Beispiele seien genannt: unbewußt verstellte oder zu hoch eingestellte Ruheströme durch Umdimensionierung an einer anderen Stelle im Verstärker. Die ursprüngliche Steuerung oder Regelung des Ruhestroms kann wenn du Pech hast einen dummerweise vergrößerten Strom nicht mehr fangen, insbesondere bei bipolaren Endstufen kann dann eine thermische Mitkopplung der Endstufe die Folge sein, die Transistoren werden immer heißer, und irgendwann steigt der erhöhte Strom nochmals schlagartig an - thermischer Durchbruch -, Defekte sind möglich ohne vorhandene Schutzmaßnahmen. Das Ändern der Frequenzgang Korrektur ist sozusagen das Chip Tuning, das Erhöhen des Ladedrucks, das Erhöhen der Einspritzmenge - die Bandbreite steigt an, der Verstärker kann so oft schneller gemacht werden, gewinnt er aber auch an Stabilität?  kommt halt drauf an was im Orginal geboten war, da läßt sich nichts verallgemeinern. Änderungen an der Kompensation sind so ziemlich das heißeste was man tun kann, das Resultat ist nach sehr langem Probieren entweder ein verbesserte Verstärker, ein verschlechterter oder ein defekter. Eine Oszillation kann sich rasch aufbauen und die Endstufe zerstören. Wer daran fummelt braucht gute Nerven, das nötige Equipment und Schutzmaßnahmen gegen Zerstörung und sollte erneut wissen was er tut.

Noch fieser ist es, der Verstärker läuft im Probebetrieb problemslos, dann aber an der Box oder an einer anderen fängt er an zu spinnen oder geht gar unter diesen veränderten Lastimpedanzen in die Oszillation mit Gefahr für die Lautsprecher. Auch das Ändern des festeingestellten internen Verstärkungsfaktors kann leicht zu Oszillation führen.  auch recht interessantes Thema, das Bauteil muß nicht "das allgemein betracht" das scheinbar Beste sein, es muß für die jeweilige Funktion das geeigneste sein. Ein Beispiel: was nützt dir z.B. ein gewendelter Präzisions Metallschichtwiderstand mit 0,01% 5ppm/°C in einer Hochfrequenzschaltung - wahrscheinlich deutlich weniger als ein dafür besser geeigneter Kohlemassewiderstand mit besseren parasitären Hochfrequenzeigenschaften. Es ist immer eine Frage der Eignung, nicht des Preises, wobei Preis und Eignung oft eng miteinander verknüpft sind - jedoch nicht immer - daher in Elektroniken nicht gleich schimpfen warum da so was scheinbar kostengünstiges eingebaut worden ist? Vielleicht hat es seinen Grund, meistens ist es der Preis - nur nicht immer. Das gilt auch für Transistoren und Röhren, eine geeignete ist die Beste. Ist es wirklich so? nehmen wir es der Höflichkeit halber einfach mal so an. Persönlich habe ich bisher immer nur die Erfahrung gemacht: ein Verstärker, der umfangreiche messtechnisch ordentliche Ergebnisse lieferte hat nach meinem Empfinden noch nie schlecht ausgesehen in Hörprüfungen. Meßtechnisch schlechte Verstärker lassen sich gut heraushören. Was ich nicht leicht nachvollziehen kann sind Behauptungen wie: "der Verstärker hat zwar meßtechnisch schlechte Daten, hohen Klirrfaktor, rauscht, wenig Bandbreite und und und - er klingt aber sehr gut", mag sein für den Besitzer, sein gutes Recht. Aus elektrotechnischer Sicht ist es aber kritisch so zu denken. Am Beispiel des Klirrfaktor läßt es sich verdeutlichen. Der Klirrfaktor wird üblicherweise damit gemessen, in dem am Eingang eine fast klirrfreie Sinusquelle mit konstanter Amplitude angelegt wird. Es ist das denkbar einfachste in der Natur vorkommende Wechselsignal, das man an einen Verstärker anlegen kann. Mit welcher Begründung soll es nun legitim sein, daß der Verstärker neue eigenproduzierte Singalanteile (Harmonsiche) hinzuaddiert? - dies widerspricht ganz klar der mathematisch eindeutigen Forderung nach einem idealen Verstärker. Das ist die Forderung an einen idealen Spannungsverstärker: Ausgangsspannung(t) = Eingangsspannung(t) * Verstärkungsfaktor alle anderen Forderungen sind Unsinn, die sich mit Elektrotechnik nicht erklären lassen. Werden nun zusätzliche Dinge gefordert wie veränderte Amplituden- und Phasengänge oder hinzufügen von harmonischen Anteilen dann fällt das unter die Kategorie "Musikinstrument oder Klangverschönerung nach persönlichen Vorstellungen".

Die Einzigen dessen legitime Aufgabe dies sein sollte, sind die Musiker zusammen mit dem Tonmeister. Das Entzerren von Fehlern anderer Komponenten in der Wiedergabekette kann auch Teil der Verstärkeraufgabe sein, das ist aber ein Spezialfall, eine Abweichung vom Ideal, mit dem Ziel die Frequenzganglinearität der gesamten Wiedergabekette inklusive dem Raum zu verbessern - ein Equalizer. Klirrfaktormessungen gehen davon aus, daß ein ideales, konstantes Sinussignal am Eingang anliegt. Die Klirrfaktormessung geschieht über verstimmbare Bandpassfilter und Mischer (analoge Spektrumanalyzer) und auch in der digitalen Welt mittels Analog-Digital-Wandler und Fourier Transformation, beide Verfahren gehen davon aus, das Signal sei konstant, die Mathematik beider Verfahren basiert auf der Annahme der Konstantheit, der sturen Periodizität. Haben die Ausgangssingale z.B. zufällige Amplituden- oder Frequenzschwankungen, so liegt z.B. eine rauschmodulierte Frequenz- und/oder eine Amplitudenmodulation vor, beide Messverfahren liefern für diese Störungen nur schwer interpretierbare Ergebnisse. Auch eine Modulation mit einer schwebenden Frequenz, die mal da ist und mal nicht und keiner erkennbaren Gesetzmäßigkeit gehorcht verkompliziert die Messung enorm . Mathematik, die für diese Form der Signale geeignet ist sind z.B. die: mit diesen Verfahren, die sich ähnlich sind können neue Erkenntnisse gewonnen werden. Bei der klassischen FFT und der analogen Spektral Analyse wird felsenfest davon ausgegangen die gemessenen Signale seien konstant, wenn sich nun aber doch ein Signal zeitlich ändert, so kann dieses nicht richtig intepretiert werden - man weiß weder wann es sich geändert hat und oder was sich geändert hat, Frequenz oder Amplitude? Je länger nun z.B. eine FFT gemessen wurde, desto mehr werden einmalige Ausreißer im sonst periodischen Sinussignal unterdrückt im Messergebnis. Wird die FFT nun verkleinert in immer kleinere Zeiteinheiten so steigt die Wahrscheinlichkeit diesen Ausreißer direkt zu erfassen immer mehr an, der Trick ist dann innerhalb dieser verkleinerten FFT Meßzeit wird der Ausreißer übergeführt in ein "quasi stationäres Signal", die FFT liefert in diesem Zeitblock dann eine immer brauchbarere Messung.

Der Übergang von der unendlich langen FFT in immer kleinere Blöcke ist der Wechsel zur STFT, die Short Time Fourier Transformation. Ist doch ideal, oder? Die Sache hat nur leider einen kleinen Haken, lasst mich dazu folgendes in Worten postulieren (kein Anspruch auf korrekte Einheiten): konstantes erreichbares maximales Genauigkeitsprodukt = Ortsauflösung * Frequenzauflösung Eine klassische FFT dauert je länger desto besser, die Orts (Zeit)auflösung geht damit gegen Null, die Frequenzauflösung steigt aber mit steigender Messzeit an, das Produkt aus beidem bleibt konstant. Angenommen man zeichnet die Daten für zehn Minuten mit hoher Abtastrate lang auf, so ist die Frequenzauflösung unter praktischen Aspekten bereits gewaltig, die Unterscheidung auf z.B. 10,001 kHz oder 10,002 kHz ist keine Schwierigkeit mehr aber wenn sich während der Messung was geändert hat  - unmöglich zu interpretieren wann es geschah und wie stark die Änderung gewesen ist. Auch die Unterdrückung von zufälligen Signalanteilen (Rauschen, alle nicht periodischen Signale) wird sehr hoch, nur die periodischen Anteile bleiben gut sichtbar - das ist auch so gewollt.

Die in der Praxis  begrenzenden Faktoren sind dann schon Effekte wie nicht mehr ausreichende Rechengenauigkeiten. Es ist auch verständlich, es gilt der Grundsatz: je länger man mißt, desto genauer kann gemessen werden. Die Fourier Transformation ist eine der häufigsten angewandten Meßmethoden, sie ist aber auch eine der häufigsten mißverstandenen Methoden, besonders die Forderung nach konstanten Signalen wird gern außer Acht gelassen. Erfolgt nun der Übergang in eine STFT so gilt weiterhin: konstantes erreichbares maximales Genauigkeitsprodukt = Ortsauflösung * Frequenzauflösung bei der STFT steigt die Ortsauflösung an, man weiß nun wann eine Störung aufgetreten ist und in etwa wie sie ausgesehen hat (wenn sie stark genung war), im Gegenzug dazu sinkt aber die Frequenzauflösung dementsprechend, die Übergänge sind gleitend. In der STFT läßt sich dann nicht mehr zwischen 10,001 kHz und 10,002 kHz unterscheiden, beides erscheint im selben Kurvenzug und nicht als einzelne "Nadeln" wie bei der Langzeit FFT. Das Dumme daran ist nun aber auch, durch die verkürzte Meßzeit verringert sich der gemessene Signalabstand aus Rauschen und Signal, da ja nicht so lange gemessen werden kann und sich nichtperiodische Anteile weniger stark ausmitteln, dadurch bleiben leider auch harmonische Anteile meist nicht mehr sichtbar, da diese ohnehin bereits nahe am Rauschteppich liegen (bei einem guten Verstärker zumindest).

Der Zusammenhang ist hoffentlich verständlich, man kann nicht mehr so lange messen, man weiß dadurch zwar besser wann es geschah, aber die Genauigkeit sinkt. Die anderen genannten mathematischen Verfahren sind mit der FFT artverwandt, mit dem Versuch, die zeitlichen Änderungen der Signale zu erfassen und darzustellen. Diese Mathematik  existiert teilweise schon seit Jahrzehnten, die praktische Anwendung kam in vielen Fällen praktisch aber meist erst im Zuge mit den modernen ADC's und leistungsfähiger Rechner Hardware. Mit solchen Verfahren lassen sich z.B. Löcher oder Öldiebe an langen Pipelines auf gute Genauigkeit hin örtlich lokalisieren, anhand Messungen von Durchfluß und zeitlicher Änderungen von Druckwellen im Öl mit anschließender Verarbeitung mit geeigneter Transformation. Die Anwendungen sind vielfältig von Radarsignalverarbeitung, Fingerabdrücken, Sprachforschung und Phonetik, Motorprüfungen, Erdbebenerkundung, Messung von ionisierten Impulsen bis zu Vibrationsmessungen.

Letztere habe ich umfangreich an äußerst schnell drehenden Wellen und Lagern betreut, damit lassen sich beispielsweise Präzisionskugellager beurteilen, wann sind sie eingelaufen, wurden sie gut gefertigt und montiert, wie verhalten sie sich über Temperatur, wie verschlechtern sie sich, wie lassen sich ankündigender Kugellagerverschleiß bereits im Vorfeld erkennen. Welches Lager erzeugt welches Spektrum und und und. Mit solchen Formen der Mathematik ist vieles erkennbar geworden, da im Gegensatz zur FFT auch der zeitliche Zusammenhang erkennbar ist. Genau da besteht bei den klassischen Audiomessungen noch eine Lücke, der Einzug dieser Mathematik hat in die Audiomeßtechnik noch nicht in dem breiten Maße stattgefunden, wie er heute schon könnte, weil ein Problem leider dieses ist: manche Messungen an allgemeiner Technik haben den Vorteil ihre Störgrößen sind verglichen mit sehr guten Audioverstärkern noch relativ hoch und besser ausmachbar. Ein bereits sehr guter Verstärker prodziert nur sehr niedrige Störpegel, diese zu messen ist schwierig, besonders dann wenn nur wenig Messzeit zur Verfügung steht um die Methoden zu nutzen, die Ausreisser und Anomalien erkennen sollen.

Bei der Audio Messung steht man grundsätzlich immer vor dem gleichen Problem, ein Verstärker der Spitzenklasse und besonders viele Operationsverstärker sind bereits so gut, daß die gewünschten Messungen in allen Feinheiten zu einem Akt an Aufwand und Meßtechnik werden können. Im Prinzip wäre Spezial Meßtechnik erforderlich, die es wenig gibt, oder oft mühsehlig selbst konstruiert werden muss - ein Problem, daher ist es eine nur verständliche Methode sich mit Standard Messmethoden zu begnügen, diese sind bereits sehr aussagekräftig. Die oft geäußerten Forderungen: "Warum man denn das, dieses und jenes nicht mal mißt?" Da sage ich nur als Antwort: "Gut, dann mach doch mal, viel Spaß dabei, mal sehen wie lange Du das durchziehst". Die Krux dabei, an einem wirklich weniger guten Verstärker oder OP interessiert es niemanden, aber genau da besteht noch eine bessere Chance Unterschiede zu erkennen, an Spitzenteilen wird es sehr schwer ganz tief hineinzuschauen, die sind gut. Nun der Übergang zum menschlichen Gehör - kann es sein, daß dieses ähnlich funktioniert mittels spektraler zeitauflösender Analyse und auf Dinge achtet, die nur selten gemessen oder noch gar nicht gemessen werden können? Ich weiß es nicht, lasse ich mal so im Raum stehen, wäre eine mögliche Erklärung dafür, daß es eine Unzahl von Menschen gibt, die felsenfest behaupten sie hören Unterschiede und wissen vor Verzweiflung nicht warum.

Nur warnen möchte ich davor diese Aussagen auszureizen, zu verfälschen, falsch zu verstehen und aufzublasen mit der Behauptung, die bisherigen Messungen gehen am Ziel vorbei - wäre völliger Quatsch auch nur ansatzweise so zu denken - ein Verstärker der bereits in der Disziplin klassische Klirrfaktormessung versagt, wird in anderen bisher nicht messbaren Disziplinen vielleicht auch nicht gerade eine tolle Figur abliefern, vielleicht irre ich mich auch - ich hoffe nicht. Welche Messungen für den Vergleich mit dem menschlichen Ohr besonders interessant sind hat mich schon immer interessiert, nur nachvollziehbare Antworten darauf kenne ich nicht. Dies ist eine Aufforderungen an Akustiker und Mediziner - sagt es mir. die Meßtechnik läßt sich dann zielgerechter darauf hin konzentrieren, aber sich selbst noch Jahre mit akustischer Funktionsweise des menschlichen Hörens und Empfindens zu beschäftigen, das Leben ist kurz alles selbst zu tun - Ran ans Forum oder die email - wie hört das Ohr? - worauf hört es? Interessiert andere bestimmt auch.

www.amplifier.cd

Impressum und Haftungsausschluss