Jakob
Mitglieder-
Gesamte Inhalte
625 -
Benutzer seit
-
Letzter Besuch
Inhaltstyp
Profile
Forum
Kalender
Galerie
Downloads
Blogs
Member Map
Alle erstellten Inhalte von Jakob
-
Es ist nicht so, daß die Ausgangsimpedanz für höhere Frequenzen plötzlich größer würde, sondern die Ausgangsimpedanz wird nicht bei Überlastung gemessen. Analog zur Angabe auch bei Endverstärkern; die Angabe des Ausgangswiderstandes ist eine Angabe, die (maximale) Stromlieferfähigkeit kann man daraus nicht ablesen. Soll heißen, aus der Angabe des Ausgangswiderstandes (sei es im Test ermittelt oder aus den technischen Daten entnommen) kann man noch nicht auf die Stromlieferfähigkeit des Ausgangs schließen, auch nicht auf das Verzerrungsverhalten. Nur weil die Tiefpassbetrachtung Entwarnung signalisiert, darf man sich die gesonderte Lastbetrachtung nicht sparen. Grüsse
-
Andi, ich muß gestehen, ich meine eigentlich all dies, was Du anmerkst, in meiner obigen Anwort bereits berücksichtigt zu haben. Wir können es gerne so betrachten, daß die Ausgangsimpedanz in dem Moment hochgeht, wenn der Strom der Ausgangsstufe nicht mehr ausreicht. Nur üblicherweise hat man eben als Anwender keinen Meßwert zur Hand, der einem sagt, bei welchem Wert dies geschehen wird. Der einzige Wert, der normalerweise angegeben wird, ist der Ausgangswiderstand. Dieser kann durchaus mit der Realität übereinstimmen, siehe das Beispiel mit den Geräten mit gleichem angegebenen Ausgangswiderstand und trotzdem sehr unterschiedlichen Ausgangsströmen. Diese angegebenen Ausgangswiderstände stimmen mit der Realität überein. Nun sollte der Anwender trotzdem bedenken, daß die sich ergebene Gesamtkapazität bei höheren Frequenzen zu relativ kleinen Werten für Xc führt, und somit in Verbindung mit den hinzukommenden Lastwiderständen angeschlossener Geräte die Stromlieferfähigkeit überfordert werden kann. Die übliche Rechnung zur Grenzfrequenz wird ihn hier nicht warnen, da die sich ergebene Eckfrequenz relativ hoch liegt. In der Formel stecken keine weiteren Parameter drin, aber dies liegt nur an der stillschweigenden Annahme, daß die speisende Quelle eben allen Anforderungen genügen kann. Nochmals, ich hatte doch bereits zugestimmt, daß man für den Fall nicht mehr ausreichender Stromlieferfähigkeit sicher dann auch eine hohe Ausgangsimpedanz konstatieren würde; nur der Anwender sieht zunächst nur die Angabe für den Normalfall und deswegen scheint es mir berechtigt, darauf hinzuweisen, daß man bei den Überlegungen die Stromlieferfähigkeit nicht außer Acht lassen sollte. Die Brauchbarkeit ist im Einzelfall sicher manchmal schwerer zu definieren, grundsätzlich halte ich es für sinnvoller, möglichst viele Eventualitäten zu berücksichtigen, als hinterher sagen zu müssen, daß alles selbstverständlich nur für einen noch zu definierenden Idealfall galt. Grüsse
-
"Warum tust Du es dann nicht?" ?? (mache ich es nicht?) "Gut, dann spricht man eben explizit vom Ausgangs"widerstand". Im Falle von Wechselsignalen geht man zur Ausgangsimpedanz über....letztlich nur ein Begriffswechsel (Widerstand in Abhängigkeit der Frequenz)." Natürlich, nur üblicherweise findet man keine Messkurven mit Betrachtung über alle Anwendungsfälle, sondern (sofern überhaupt angegeben) einen einzigen Wert, bezeichnet als Ausgangswiderstand. Daraus folgend, wird die beschränkte Stromlieferfähigkeit häufig vernachlässigt. (siehe in der obigen Antwort, das genannte Beispiel mit der Frage nach dem "langen" Kabel) "Ich verstehe immer nochnicht, wie Du hier differenzierst? Erkläre es mir bitte." Die Differenzierung ergibt sich aus der Ermittlungsmethode. Der Ausgangswiderstand wird üblicherweise unter recht optimalen Bedingungen ermittelt. Deswegen kann es sein, daß 3 verschiedene Geräte eine Stromlieferfähigkeit von jeweils 3mA, 25mA und 45mA haben, aber trotzdem bei allen die Angabe in den technischen Daten lautet: Ausgangswiderstand=100 Ohm . "Woran erkennt man einen "überlasteten" Ausgang? Es bricht die Spannung ein. Richtig? DAS bedeutet, daß die verlustgegangene Spannung am ->Innenwiderstand abfällt." Hatte ich Dir nicht in der obigen Antwort in diesem Punkt schon zugestimmt? Es geht nur um die Tatsache, daß man aus der Prospektangabe für den Ausgangswiderstand noch nicht direkt auf die Stromlieferfähigkeit schließen kann. Selbst wenn der Ausgangswiderstand mit sehr niedrigen 0.1 Ohm angegeben ist, kann man nicht annehmen, die Quelle könne quasi beliebig viel Ausgangsstrom zur Verfügung stellen. "Ja eben, das sag ich ja.....die Impedanz liegt zu hoch." Deswegen stimmte ich Dir ja auch zu. (Allerdings wird eben kein Ausgangswiderstand für diesen speziellen Fall angegeben) "das ist wieder was anderes." Du hattest ganz allgemein davon gesprochen, daß man in der Elektrotechnik nicht zwischen Ausgangswiderstand und Stromlieferfahigkeit trennen könne. Im allgemeinen Fall, sind Stromquellen nichts "anderes" sondern ein gutes Beispiel dafür, daß man trennen kann und muß. Auch wenn sie zugegebenermaßen hier für unseren Bereich nur bedingt eine Rolle spielen. Grüsse
-
""Stromlieferfähigkeit", wie Du es nennen willst, und "Ausgangswiderstand" sind unmittelbar voneinander abhängig. Man kann es im elektrotechnischen Sinn nicht trennen." Kann man schon, sollte man in manchen Fällen auch. "Wenn ein Ausgang den Strom begrenzt, wie auch immer, aktiv oder passiv, dann zeigt sich dieses Verhalten als steigender (bzw von vorneherein hoher) Ausgangswiderstand." Bezogen auf eine Spannungsquelle, was Audioverstärker üblicherweise näherungsweise sind, hast Du im Endeffekt recht. Aber, üblicherweise wird bei Geräten (falls überhaupt) ein Ausgangswiderstand im statischen Fall angegeben. Ein m.E. sinnvoller Ausgangswiderstand liegt im Bereich 20 - 100 Ohm; die Stromlieferfähigkeit wird bei Kleinsignalgeräten sehr häufig überhaupt nicht angegeben. Man kann es sowohl im Handel, als auch in den Foren mitverfolgen, fragt jemand danach, ob er 10 - 20m von diesem oder jenem Kabel anschließen kann, ist die Gegenfrage die nach dem (statischen) Ausgangswiderstand, gefolgt von einer Beurteilung der Frage, ob dieser Ausgangswiderstand in Verbindung mit der Kabelkapazität zu einem Tiefpassverhalten führt, welches die Audiobandbreite (d.h. bis vor kurzem 20 - 30 kHz ) berührt; falls nein, wird häufig ohne weiteres einer derartigen Lösung zugestimmt. Nur, es kann eben sein, daß trotzdem der Ausgang des Gerätes überlastet wird, weil die Stromlieferfähigkeit nicht ausreicht. Deswegen erscheint es mir sinnvoll, auf die Stromlieferfähigkeitsproblematik separat hinzuweisen, auch wenn man, bei dynamischer Messung des Ausgangswiderstandes im beschriebenen Fall sicher feststellen würde, daß dieser nicht mehr im Bereich von 20 - 100 Ohm läge. "Das verstehe ich nicht :-) . Als Elektronikentwickler kannst Du mir das sicher erklären, nicht?" Gibt es hier etwa einen spöttischen Unterton? Ein gutes Beispiel sind Stromquellen; unabhängig von der tatsächlich entnehmbaren maximalen Stromstärke sollte der Ausgangswiderstand möglichst hoch sein. Grüsse
-
Hi Andi, "Was Du hier beschreibst, ist beide male ein und dasselbe ;-) Und Schuld daran hat die besagte hohe Ausgangsimpedanz, nicht das Kabel... So eine hohe Ausgangsimpedanz ist schlicht ein Konstruktionsmangel." Man sollte das Tiefpassverhalten und die Strombeschränkung in der Betrachtung voneinander trennen. Auch bei eigentlich recht niedrigem Ausgangswiderstand kann die Stromlieferfähigkeit z.B. eines Operationsverstärkers der begrenzende Faktor sein, was man bei der Kabelwahl berücksichtigen sollte. Hohe Ausgangsimpedanz kann in Verbindung mit ausreichender oder nicht ausreichender Stromlieferfähigkeit auftreten. Sicher hast Du Recht, derartige Ausgangswiderstände in gewisser Weise als Mangel zu bezeichnen, aber dies hilft dem Besitzer eines derartigen Gerätes ja nicht unbedingt weiter. Grüsse
-
Hi Holli, ich hoffe mit einigen Beispielen ist Dir schon gedient, ansonsten wird es sehr aufwendig. Nur damit kein Mißverständnis aufkommt, die Seite hat ihre Meriten, aber an vielen Stellen hätte sie entweder ausführlicher sein müssen, oder es wäre besser gewesen, nichts zu schreiben. Die Frage des menschlichen Hörbereichs ist immer noch umstritten. Vorliegende Studien kranken meist an methodischen Mängeln, die eindeutige Schlüsse nicht zulassen. Trotzdem war die Studie von Ohashi interessant, denn die simultane Beobachtung der Hirnaktivität war ein neuer Ansatz und die Änderungen der Aktivität sind mit den bekannten Interferenzerklärungen nicht unbedingt in Einklang zu bringen. Davon abgesehen ist es ein Fortschritt, wenn die nutzbare Wortbreite auf 24 Bit steigt, und unzweifelhaft wird der Digitalfilterung das Leben deutlich erleichtert, wenn die Restriktionen des CD-Formats aufgehoben sind. Es ist nicht richtig, daß Musikinstrumente in ihrem Frequenzumfang so eingeschränkt sind wie behauptet. Ein Blick auf die entsprechende Untersuchung von Boyk lohnt immer. Es liegt in der Natur der S/P-Dif-Schnittstelle, anfällig für klangbeeinflussende Absonderlichkeiten zu sein. Es ohne weiteres möglich, Kabel zu konstruieren, die für Klangveränderungen bei D/A-Wandlern sorgen. Es sind bei Kabeln auch schon unterschiedliche Jitterwerte gemessen worden in Abhängigkeit von der Anschlußrichtung. A pro pro Kabel; m.E. war der Anfang der Kabelgeschichte ein Artikel von Jean Hiraga in der L´Audiophile Anfang der 70iger; die ersten spezielleren Kupfersorten (LC=Long Crystal Copper) sind Mitte der 70iger entwickelt worden. Man mag sich über Netzkabel lustig machen, trotzdem gibt es keinen Grund, langerworbene Grundkenntnisse der sauberen Netzversorgung, die in anderen Bereichen der Elektronik ganz selbstverständlich berücksichtigt werden, außer Acht zu lassen, weil es für Audiotechnik aus wundersamen Gründen nicht wichtig sei. Vergleiche hierzu eines der Standardwerke von Ott "Noise Reduction Techniques in Electronic Systems" Es ist unsinnig zu behaupten, die üblichen Kabelparameter wären im Niederfrequenzbereich (nahezu) unwichtig. Bei den heute (wieder) vorkommenden recht hohen Ausgangsimpedanzen spielt beispielsweise die Kapazität nicht nur wegen möglicher Tiefpässe eine Rolle, sondern auch bezüglich der Stromlieferfähigkeit der Ausgänge, die diese Kapazitäten bei schnellen Signalen erst umladen müssen. Die Annahmen zu Impedanzen bei Lautsprechern mögen plausibel erscheinen, lassen aber Phasendrehungen völlig außer Acht. Entsprechende Untersuchungen (nachzulesen im JAES) an populären Lautsprechermodellen führten deutlich höheren Strombedarf auf. Natürlich ist dies u.a. auch von Modeerscheinungen bei Lautsprechern abhängig. Vom komplexen Zusammenspiel von Endstufenausgang/Kabel/Lautsprecher mal abgesehen. Das auf Schallplatten keine Frequenzen oberhalb von 18kHz aufgezeichnet werden können, ist ein Märchen. Die frühe Quadrophonie wäre sonst nicht denkbar gewesen. Auf speziellen Schallplatten (Sheffield Lab Direktschnitt) sind beim "Cymbal Crash" bis zu 50 kHz gemessen worden. Die Angaben zum Vergleich des Dynamikumfangs von Schallplatte und CD-Spielern sind so unsinnig. Grüsse
-
"Huch! Was'n hier los! Ist das Fachwissen so dünn gesäht, dass man die Diskussion glaubt mit kleinen Tricks gewinnen zu müssen, oder ist meine geschliffene Rhteorik so gewaltig, oder denkt jemand, der durchschnittliche Leser sei so blöd, dass das nicht auffalle?" Ich denke, man kann hier dem durchschnittlichen Leser wirklich vertrauen. Vorab; da Du die Frage nach dem ungeheueren Widerspruch zwischen Leventhal und mir so überaus elegant umschifftest, darf man wohl annehmen, es gab keinen solchen ? "2 Dinge: 1. Rob könnte auf die Idee kommen, es liegt ein Fehler 2. Art vor, dieser funktioniert ja auch in die andere Richtung." Rob kann auf die merkwürdigsten Ideen kommen (kommt er häufig auch ), aber _DU_ nicht. Zwischen uns war im anderen Thread die Frage der Hypothesenformulierung/Verwendung (üblicherweise und im Speziellen meine Art) geklärt, und überdies hast Du ja Leventhals Artikel gelesen und dort wurde es nochmals explizit ausgeführt. Damit gab es zwischen uns auch keine Unklarheit, was mit dem Fehlern 1. und 2.Art gemeint war. "2. Sind ja die Unterschiede allem Anschein nach doch so groß, dass man locker auf p=1/2 testen kann. Oder?" Ganz direkt, außer Dir ist keiner auf die Idee gekommen, man solle auf etwas anderes testen; weder die ursprünglichen Tester wie Krueger, Clark, Shanefield oder Nousaine, noch Leventhal und ich auch nicht. Außer Dir ist m.W.n. auch noch niemand auf die skurrile Idee gekommen, Leventhal wolle hier eine Änderung anregen. "Naja, die Frage war rhetorischer Natur, denn du hast auch schon mal folgendes von dir gegeben: (In Anführungszeichen ein Zitat von mir) "Das ist sicherlich schön zu berechnen, aber wie bereits erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5 auszugehen haben." Das ist kein zulässiger Schluß. Wie gesagt, wir haben keinerlei Kenntniss über das Erkennungsvermögen der Testperson. Wir wissen nur (aus allerlei menschlichen Erwägungen) daß es vermutlich nicht bei 100% liegen wird. (Zitat Ende)" "Also können wir jetzt doch auf 0,5 testen? (Das wird dann wohl an Popper liegen...)" Ja konnten wir und können wir noch immer. (Das man lieber auf 0,5 testet, könnte in der Tat an Popper liegen- oder besser durch Poppers theoretischen Ansatz erklärt werden) "Oder hat dann doch Leventhal mit dem zu hohen Fehler 2. Art recht?" Es gibt hier einfach keinen Widerspruch; wie können auf 0,5 testen und Leventhal hat trotzdem recht, deshalb sollten wir seiner Empfehlung folgen und die Versuchsanzahl erhöhen, da wir i.a.R über das Erkennungsvermögen der Testpersonen nur spekulieren können. Den anderen möglichen Weg, nämlich die Abschwächung des Entscheidungskriteriums (z.B. nur noch SL=0.1) wollen wir aus nachvollziehbaren Gründen nicht gehen. Zitat (aus Leventhals Artikel in der Stereophile): "The risk of Type 2 error increases, not only as you reduce Type 1 error risk, but also with reductions in the number of trials (N), and the listener's true ability to hear the differences under test (p). (All of this is explained in great detail in Leventhal, 1985.) Since one really never knows p, and one can only speculate on how to increase it (eg, by carefully selecting musical selections and ancillary equipment to be used in the listening test), one can reduce with certainty the risk of Type 2 error in a practical listening test only by increasing either N or the risk of Type 1 error. (Remember, Type 1 error risk can be deliberately increased by selecting a larger significance level for the significance test which simultaneously reduces Type 2 error risk.)" "Ich fürchte, ich bin fast noch verwirrter als du, wenn ich das hier verstehen muss..." Hier auf jegliches Wortspiel zu verzichten, fällt schwer. "....Also noch mal konkret die Frage: AUF WELCEHS P TESTEN WIR?" S.o. "Oder machen wir einfach 16 Durchgänge, bei mindestens 12 Richtigen gibt's Laufwerkklang, ansonsten hat Leventhal recht und es liegt ein Fehler 2. Art vor?" S.o., als kleine Ergänzung, Du hast es aus einem anderen Thread herübergezogen; wir als Beobachter haben i.a.R. gesicherte Erkenntnis über das Erkennungsvermögen der Testperson, JimSommer ist hier in der Beurteilung seines Erkennungsvermögens im Vorteil. Deswegen könnte es sein, daß tatsächlich 16 Durchgänge reichen, ansonsten lautet die Empfehlung immer noch, die Versuchsanzahl zu erhöhen. "Desweiteren sollte man schon auf die Teile des Textes antworten, die wichtig sind. Ich darf an dieser Stelle noch einmal: "Büning/Trenkler (die bereits erwähnte Quelle) geben an, der Test sei konsistent. Nochmal zur Erinnerung: Ein Folge von Tests heißt konsistent, wenn deren Güte mit zunehmendem Stichprobenumfang gegen 1 konvergiert. Wenn die Güte eines Tests nahe bei 1 liegt, ist die Wahrscheinlichkeit, sich zugunsten von H_1 zu entscheiden, wenn H_1 wahr ist, groß. Das bedeutet nichts anderes, als das der Fehler 2. Art kleiner wird (und asymptotisch gegen 0 geht). Dies kann man aber schon in der Tabelle in der Stereophile erkennen." Wahrscheinlich kommt jetzt der Kommentar, dass sei sowieso klar, und hast du schon immer gewußt oder so..." Nein, warum sollte ich es so kommentieren? Nur, wie Du sagst, im Endeffekt kann man dies auch schon in der Tabelle in der Stereophile erkennen. Die von Dir zitierte Begründung war neu für mich, allerdings scheint sie doch nur die Empfehlung von Leventhal zu bestätigen, oder siehst Du es anders? Nur zur Erinnerung, Du hattest eine "Zerlegung" von Leventhals Artikel angekündigt, aber es scheint, als würdest Du sie nur untermauern. BTW, nochmals die Frage, weswegen hätte Leventhal die von Dir im letzten Beitrag monierten Werte angeben müssen? "Dann hast du wieder einen Satz vergessen zu kopieren (ich will dir hier nicht unterstellen du hättest...)" Es war nicht Vergesslichkeit, der Satz scheint mir einfach nicht relevant. s.u. "Kein Mensch würde bei diesem grenzwertigem Testergebnis nicht noch ein paar weitere Tests machen, um H_0 zu unterstüzen oder zu verwerfen." Weder Leventhal noch ich haben bislang etwas zum weiteren schlauen Vorgehen bei grenzwertigen Testergebnissen gesagt; Leventhals Ansatz war, daß die gern genommenen Bedingungen mit 16 Durchgängen bei einem SL von 0.05 mit einem hohen Risiko verbunden sein könnten, einen Fehler 2.Art zu machen. Nicht mehr und nicht weniger. "Ergänzend möchte ich hinzufügen: Das hat jetzt noch nichts mit dem Fehler 2. Art zu tun, wir sind immer noch beim Fehler 1. Art, dass spielt sich alles VOR diesem wegweisenden Artikel ab. Immerhin ist hier ein Alpha von unter 10% im Spiel, das in manchen Fällen akzeptiert wird." Fürwahr eine spannende Wendung. So wird aus einer "Zerlegung" doch noch ein Aufbau. "Schöne Aussagen machst du ja. Gibt's die auch in Verbindlich?" Du verwechselst hier wirklich die Rollen. Grüsse
-
"Pausen solltet ihr einplanen; eine sinnvolle Zahl von Durchgängen hängt von der Größe der Unterschiede, resp. Deiner Fähigkeit zur Erkennung ab. Wenn Du gut in Form bist, und die Unterschiede relativ groß, reichen 16 Durchgänge von denen Du 12 richtige haben solltest (SL 0.05)" Nun zitierst du diesen komischen Artikel, um die Statistik in die größte Krise seit dem Axiomatischen Aufbau der Wahrscheinlichkeitsrechnung durch Kolmogorow zu stürzen. Der besagte Artikel rät aber von einem Versuch mit dem Umfang von n=16 ab. ("Accordingly, when true differences between components are subtle, it is not surprising that 16-trial listening tests with (or without) thc ABX comparator typically fail to find them.") Oberhessisches Fragewort mit 2 Buchstaben? Hä?" Ausnahmsweise würde ich mich dem "HÄ" anschließen. Woraus leitest Du hier einen Widerspruch ab? Ich schreibe, wenn er gut in Form sei _und_ die Unterschiede relativ groß, würde ein Test mit 16 Durchgängen reichen, wobei er mindestens 12 richtige Antworten bräuchte. Dies bedeutet gleichzeitig, wenn die Unterschiede nicht so groß _oder_ er nicht so gut in Form, _dann_ reicht ein Test mit 16 Durchgängen nicht. Leventhal schreibt, "wenn tatsächliche Unterschiede fein (subtle=fein oder auch fast unmerklich) .... würden sie in einem Test mit 16 Durchgängen typischerweise nicht entdeckt. Wiederum anders gesagt (wie auch bereits geschrieben, an seiner Tabelle für p=0.9 zu erkennen), wenn die Unterschiede nicht so "subtle" und/oder die Fähigkeit der Testperson diese zu erkennen groß, dann kann man sie auch in einem Test mit 16 Durchgängen erkennen. Nochmals die Frage- was ist an seiner und meiner Aussage so widersprüchlich, daß es ein "Hä" rechtfertigte? "Jetzt erklär' mir mal das mal bitte. Aber mach die Pointe nicht kaputt." Worin besteht die Pointe? Hier nochmals die entsprechende Passage aus meiner Antwort: "In der Zeile findest Du dann entsprechend für p=0.9 (was nach Leventhal bedeutet, daß in 90% der Zeit der Unterschied richtig erkannt wird) die Wahrscheinlichkeit für den Fehler 2. Art von 0.017. Du magst die von mir gewählte Formulierung nicht für ausreichend halten, aber "gut in Form" und "Unterschiede relativ groß" sind ein deutlicher Hinweis darauf, daß es hier genau um den Fall geht, in dem die Unterschiede sehr gut erkannt werden können. An dieser Stelle hättest Du die Sache elegant mit einer einfachen Nachfrage aus der Welt schaffen können, im Sinne einer gedeihlichen Diskussion; zu schwer? Noch unverständlicher wird die Sache für mich, da ich diese Problematik in einer Antwort an Dich in dem Thread tatsächlich beleuchtete ( Beitrag Nr.18141); ein kurzes Zitat: "Kurz gesagt, besteht der Ausweg in einer Erhöhung der Versuchsdurchgänge, um die Wahrscheinlichkeit für einen Fehler 2.Art auch in dem Fall klein zu halten, daß die Testperson den Unterschied nur z.B. in 60% der Zeit sicher erkennen kann."" Wieso ließ diese Passage bei Dir immer noch Unklarheit bestehen? Wenn wir schon bei den "Hä"-Klarstellungen sind, bitte erkläre doch, wie dieser Absatz sinnvoll wird: ">Leventhal wählte aufgrund dieser Problematik den >nachvollziehbaren Ansatz von verschiedenen >Erkennungsprozentsätzen auszugehen, und darauf basierend die >Auswirkungen auf die Wahrscheinlichkeit von Fehlern 2.Art zu >berechnen. (bis hierhin Zitat aus meinem Beitrag) Das ist sicherlich schön zu berechnen, aber wie bereits erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5 auszugehen haben. Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir aber mit dem Fehler der 1. Art abfangen) keinen Grund, anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5 oder 1, Ungenauigkeiten beim Test werden berücksichtigt, basta." "...Dies kann man aber schon in der Tabelle in der Stereophile erkennen. Was kann es besseres geben als einen Test mit besagten Eigenschaften? Das bei einer kleinen Stichprobe das Risiko höher ist als bei größeren Stichproben sollte eigentlich jedem klar sein." Ist vermutlich den meisten so halbwegs klar; Leventhals Verdienst besteht darin, aus statistischer Sicht herausgearbeitet zu haben, daß bei üblicher Vorgehensweise, das Risiko einen Fehler 2.Art zu machen, enorm erhöht wird. Verdienst deswegen, weil diese Tests üblicherweise von Audio-Ingenieuren gemacht werden, die aus ihrer Sicht ihr Hauptaugenmerk auf die Vermeidung des Fehlers 1.Art richten und die über keine gesteigerten Statistik- oder Testkenntnisse verfügen. "Wenn man dann noch davon ausgeht, dass Mittelwerte erwartungstreue Schätzer sind, und man in der Tabelle sehr schön sieht, wie der Fehler 2. Art kleiner wird. (Der Fehler 1. Art ist ja so gewählt, das er um 5% liegt. Genau 5% ist aufgrund der diskreten Verteilung teilweise nicht möglich.)" Vielleicht genauer, <= 5% liegt, denn so ist das Entscheidungskriterium gewählt; beliebig genaue Approximation ist wegen der angesprochenen diskreten Verteilung nicht möglich, was die Problematik bei kleinen Stichproben verschärft. "Und dann hat besagter Leventhal auch leider vergessen, die Wahrscheinlichkeit für ein Eintreffen von r bei N versuchen anzugeben: Bei einer Wahrscheinlichkeit von 0,5 gibt es eine W'keit von 0,027 / 0,016 für 31 / 32 aus 50 (0,0595 für mindestens / mehr als 31 aus 50) und eine von 0,0223 / 0,0159 für 58/59 aus 100 (0,0666 für mindestens / mehr als 58 aus 100)." Warum hätte er diese Wahrscheinlichkeiten an dieser Stelle angeben sollen? Nimms mir nicht übel, aber ist das eine Zerlegung von Leventhal? Mir will scheinen, Du bestätigst (wie erwartet) seine Schlußfolgerung, nämlich, bei unbekannter Fähigkeit der Testperson sinnvollerweise die Versuchsanzahl zu erhöhen. Grüsse
-
Sinn einer Diskussion sollte/kann gemeinsamer Erkenntnisfortschritt sein; Deine Auffassung scheint eher eine traurige Pervertierung dieser Idee, ist allerdings in diesem Forum en vogue. Etwas beim Überfliegen mißverstanden zu haben, ist nichts ehrenrühriges; dieses Mißverständnis unbedingt kaschieren zu wollen, ist nicht sinnvoll. ""Pausen solltet ihr einplanen; eine sinnvolle Zahl von Durchgängen hängt von der Größe der Unterschiede, resp. Deiner Fähigkeit zur Erkennung ab. Wenn Du gut in Form bist, und die Unterschiede relativ groß, reichen 16 Durchgänge von denen Du 12 richtige haben solltest (SL 0.05)" (Zitat Ende) Da ich jetzt den Artikel von Leventhal leider nur überflogen habe, kann ich leider nicht schreiben, dass dieses schöne Zahlenbeispiel gerade dazu gewählt wurde, das Problem mit dem Risiko bzw. dem Fehler 2. Art zu illustrieren, da besagtes Risiko (eigentlich ist es ja die Wahrscheinlichkeit) gerade bei diesem Zahlenbeispiel so hoch ist. Da ich auch den Text nicht gelesen habe, ist mir dort auch folgende Passage entgangen: (Zitat aus dem Artikel von Leventhal aus der Stereophile) But, with the selection of an r of 12, the table shows that the probability of Type 2 error (concluding that audible differences are inaudible) will be .8334, if audible differences between the two components are so slight that the listener can correctly identify the components only 60% of the time (p = .6). If audible differences were slightly larger and the listener can correctly identify the components 70% of the time (p = .7), then the probability of Type 2 error will be .5501, and so on. (The p values should be interpreted as the proportion of correct identifications the listener will provide when given an infinite number of trials under the conditions of the listening study, even if those conditions are not ideal for making correct identifications.) Thus, with a 16-trial listening test analyzed at the conventional .05 level of significance, the probability of the investigator overlooking differences so subtle that the listener can correctly identify them only 60% of the time is a whopping .8334! Accordingly, when true differences between components are subtle, it is not surprising that 16-trial listening tests with (or without) thc ABX comparator typically fail to find them. (Zitat Ende)" In der Zeile findest Du dann entsprechend für p=0.9 (was nach Leventhal bedeutet, daß in 90% der Zeit der Unterschied richtig erkannt wird) die Wahrscheinlichkeit für den Fehler 2. Art von 0.017. Du magst die von mir gewählte Formulierung nicht für ausreichend halten, aber "gut in Form" und "Unterschiede relativ groß" sind ein deutlicher Hinweis darauf, daß es hier genau um den Fall geht, in dem die Unterschiede sehr gut erkannt werden können. An dieser Stelle hättest Du die Sache elegant mit einer einfachen Nachfrage aus der Welt schaffen können, im Sinne einer gedeihlichen Diskussion; zu schwer? Noch unverständlicher wird die Sache für mich, da ich diese Problematik in einer Antwort an Dich in dem Thread tatsächlich beleuchtete ( Beitrag Nr.18141); ein kurzes Zitat: "Kurz gesagt, besteht der Ausweg in einer Erhöhung der Versuchsdurchgänge, um die Wahrscheinlichkeit für einen Fehler 2.Art auch in dem Fall klein zu halten, daß die Testperson den Unterschied nur z.B. in 60% der Zeit sicher erkennen kann." "Und wenn man das (so wie ich) leider nicht verstanden hat,.." was sich in mehrfacher Hinsicht bislang, so scheint es, auch nicht geändert hat ...kann man erst über solche Passagen lachen:" (Zitat J., der Text in den Anführungszeichen ist von mir) "Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir aber mit dem Fehler der 1. Art abfangen) keinen Grund, anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5 oder 1, Ungenauigkeiten beim Test werden berücksichtigt, basta." Basta funktioniert nur bedingt. Welche Art von Ungenauigkeiten können wir mit dem Fehler 1.Art abfangen? (Zitat Ende) (Kleiner Hinweis: Besagtes "SL 0.05" aus dem 1. Zitat ist der Fehler 1. Art mit Alpha = 5%.)" Immer noch nett, aber unsinnig. Du stellst in Deinem (immer noch so geschrieben einfach sinnlosen) Absatz einen Kausalzusammenhang her zwischen zu testenden Wahrscheinlichkeiten, die sich auf den Ausgang des Experiments beziehen (Wahrscheinlichkeiten 0.5 oder 1), die nun aber mit den von Leventhal eingeführten Erkennungswahrscheinlichkeiten in keinem Zusammenhang stehen, und Ungenauigkeiten des Tests, die man mit dem Fehler 1.Art abfangen könne. Wie Dir inzwischen aufgefallen ist, geht es Leventhal genau um die Ungenauigkeit des Tests, die zu einer großen Wahrscheinlichkeit für einen Fehler 2.Art führen können. Und nebenbei bemerkt, eine Ungenauigkeit, die sich gerade nicht mit dem Fehler 1.Art abfangen läßt. Auch wenn Dein Absatz so nicht sinnvoll war, gehe ich höflicherweise von einem Mißverständnis, ungeschickter Formulierung, Editresten o.ä. aus, und gebe Dir mittels einer Nachfrage Gelegenheit zur Aufklärung. Das Ergebnis war eine wiederum vollkommen sinnlose Antwort, gewürzt mit genau der Form überheblicher Aggressivität, die für dieses Forum leider inzwischen charakteristisch ist. "Das ist auch der Grund, warum ich nicht mehr auf Themen wie Güte, Macht oder Power des Tests oder Begriffe wie Konsistent eingehe (mit denen man übrigens den Artikel von Leventhal sehr schön zerlegen kann)." Wenn Du den Artikel von Leventhal zerlegen kannst, wäre es sicher interessant; BTW, wo habe ich behauptet, "Statistik aus dem FF" zu beherrschen? Grüsse
-
"ich habe echt keine Lust mehr auf diese sophistischen Spielchen, daher fasse ich mich kurz:" Ich sehe, in der ad hominem Frage bist Du ebenfalls ganz pragmatisch, betrifft es Dich, regst Du Dich auf, verwendest Du solche, ist es in Ordnung. "Selbst jemand mit Deiner "Unvoreingenommenheit" kann sich vielleicht dem allgemein akzeptiertem Ansatz ....." Methodisch zweifelhafte Tests, bei genehmem Ergebnis, schön zu reden, mag i.S. der Selbstimmunisierung eine notwendiger Vorgang sein, ansonsten ist es ganz sicher keine allgemein akzeptierte Verfahrensweise. "Methodisch besten" ist nun wahrhaft keine sinnvolle Beschreibung; im Reigen unsinniger Test, wovon es im Audiobereich nun wirklich zahllose gibt, genügte ja schon ein etwas weniger schlechter Test diesem Kriterium. Zu vielen hier diskutierten Fragen gibt es ganz sicher keine sinnvollen, oder gar wissenschaftlichen Tests, methodisch unangreifbare schon gar nicht. "Würden sie hingegen im Widerspruch zu durch methodisch optimale Tests gewonnenem Wissen stehen - wie die von Dir so gerne verteidigten HaiEnten-Tests ...." Du kannst sicher ein paar Beispiele nennen, wo ich HaiEnten-Tests verteidigte? Es gibt _keine_ methodisch optimalen Tests, die zur Ermittlung hier relevanten Wissens durchgeführt wurden. "Dass Dein zweiter Satz noch nicht einmal schöner Nonsens ist, muss ich Dir wohl nicht sagen, oder?" Doch, für eine Erläuterung wäre ich dankbar. "Naja, Deine Einstellung zu einem AB-X-Test ist bekannt, aber eben nur eine MEINUNG, und es wird letztlich nur etwas über UNS, nichts über die Sache aussagen, wenn wir diese sinnlosen Diskussionen weiterführten..." Wobei die besagten Tests nun anscheinend keine AB-X-Tests waren. "Mal rein interessehalber, falls nicht zu privat: Was ist Dein beruflicher Hintergrund, und mit was beschäftigst Du Dich privat?" Entwicklung von Elektronikgeräten, wobei die Entwicklung analoger und digitaler Audiotechnik einen Schwerpunkt darstellt. Gruß
-
"Ja, mögen gewisse Aspekte des Testdesigns auch suboptimal sein,....." War es nicht Deine hier häufig und intensiv gepostete Meinung, daß einfach blinde Tests ohne jegliche Aussagekraft seien, da man ja wüßte etc. etc. ? Oder hängt es nur vom Ausgang des Tests ab? Wenn genehm, dann aussagekräftiger Test, wenn nicht, dann ohne Aussagekraft? "... bestätigen sie zum x-ten Male, was induktiv wie deduktiv sinnstiftend ist -...." Ein kleines Zitat aus dem verlinkten Text: "...Um eine Regelmäßigkeit zu verhindern, wurde pro Durchgang etwa 5 Mal geblufft, also nicht umgeschaltet, obwohl es hätte sein sollen (das hat sich als absolut wichtig erwiesen!)" Wichtig warum? Konnten die Hörer sonst einen Unterschied feststellen? Grüsse
-
Ja, dieser Link wird, genau wie die überaus merkwürdigen Seiten von caspari, immer wieder gern gebracht. Wer es mit den technischen Grundlagen nicht so genau nimmt, wird auch die Ungenauigkeiten/Fehler dieser Betrachtungen nicht weiter schlimm finden; insofern stimmt sicher der Begriff "erhellend" . BTW, jeder Händler betreibt die Art von Marketing, die ihm am gewinnbringendsten erscheint. "Wieso" und nach Belegen fragst Du (oder auch nicht)- wer selbst schwierigen Fragen gern ausweicht, verwirkt irgendwann auch den Anspruch auf Antworten. Grüsse P.S. Wieso regst Du Dich eigentlich sonst immer so über "ad hominem" Anwürfe auf?
-
kurzweilig wegen zahlreicher Ungenauigkeiten/Fehler. Grüsse
-
Amin hatte ja zu dem "besser oder schlechter" seine Sichtweise beschrieben. Ich bezog mich auf diesen Satz: "" Was einmal nicht ausgelesen wurde kann bei der nächsten Generation nicht wieder dazu kommen, das wissen wir alle." Ach Amin, bitte nicht schonwieder.....das ist eben bis zu C1 Fehlern falsch. Wie soll ich es denn noch anders sagen?" Und hatte das Gefühl, es sei nicht eindeutig, daß hier Amin etwas falsch verstanden hat. Das war alles. Grüsse
-
Hi Andi, es besteht doch kein Grund für neuerliche Mißstimmung; warum immer gleich vom Schlimmsten ausgehen? So wie Amin es formuliert hat, kann es durchaus richtig sein, wenn man "Auslesen" bis zum endgültigen "Datenübergabepunkt" definiert; was hier nicht ankommt, wird auf der nächsten Generation auch nicht enthalten sein. Bezieht man "Auslesen" nur auf die analoge Laserabtastung der CD, wäre es falsch. Den Rest seines Beitrages berührt dies aber doch nicht. Grüsse
-
Hi Andi, daß ich es auf die Statistik schieben würde, speziell für diesen Fall, war nicht so gemeint. Ganz generell meine ich, daß die statistische Seite eine mathematischen Exaktheit eines Tests in der Gesamtheit vorspiegelt, die aber nur für die Auswertung gegeben ist. Das Ergebnis (und die Sinnhaftigkeit des Tests) hängt von sehr vielen Faktoren ab, die eben nicht mit naturwissenschaftlicher Exaktheit bestimmbar sind, sondern häufig nur mit dem "gesunden Menschenverstand" . Im vorliegenden Fall geht aus der Pressemitteilung nichts genaues hervor, aber selbst wenn eine statistische Auswertung gemacht wurde, sagt diese ja zunächst nur, daß das Ergebnis nicht zufälliger Natur ist; ob die Ursache wirklich in dem homöophatischen Mittel liegt, oder andere Faktoren eine Rolle spielen, kann man erst dann beurteilen, wenn man die genauen Versuchsberichte kennt, und derartige Testergebnisse z.B. von anderen reproduziert werden können. Du hast wohl Recht, beim Menschen hängen Körper und Geist meist untrennbar zusammen, und dies macht Tests in jeglicher Hinsicht schwieriger. Interessanterweise ist nach Hrjobartsson selbst der vielbeschworene Placeboeffekt in vielen Studien eigentlich nur eine Fehlauswertung. Soll heißen, der beobachtete Heilungseffekt wäre völlig unabhängig von der Placebogabe. Auch hier gibt es nun wieder, dadurch ausgelöst, neuere Studien, die seine Ergebnisse teilweise bestätigen, aber zumindest bei der Schmerztherapie doch wieder einen Zusammenhang mit einer Placebogabe feststellen. Insgesamt ist dies alles sehr widersprüchlich und zeigt nur, daß man jeglicher Art von Test, egal ob DBT oder anderer, skeptisch gegenüberstehen sollte. @ Rob, mich überrascht Deine Haltung zu meiner Kritik an möglicher Testbeeinflussung immer wieder. Mache ich denn im Endeffekt etwas anderes als der von Dir gerne angesprochene Randi? Ich prüfe Testabläufe auf mögliche Schwachstellen, nichts weiter. Der Unterschied? Randis Bemühungen stimmen mit Deiner Erwartungshaltung überein, meine anscheinend nicht. Grüsse
-
Hi Andi, es ging wahrscheinlich um dieses: http://www.uni-leipzig.de/presse2003/homoeopathie.html Es bleibt nach wie vor die spannende Frage, was mittels der üblichen Tests tatsächlich geschlußfolgert werden kann. Speziell die von Rob erwähnten Metaanalysen kommen immer wieder zu erstaunlichen Ergebnissen gerade in der medizinischen Forschung. Für unseren Bereich z.B. interessant war die Studie zum Placebo-Effekt, nach der selbst dieser in einem völlig anderen Licht erscheint. M.E. liegt der Grund nach wie vor darin, daß die der statistischen Auswertung zugrunde liegende Mathematik eine Exaktheit des Gesamttests "vortäuscht", die aber nur bei der Auswertung vorliegt. Im Testdesign und Testdurchführung liegen so viele Fallstricke begraben, daß man grundsätzlich skeptisch bleiben muß. Die Ablehnung der Nullhypothese mag im Einzelfall durchaus richtig sein, aber ob deswegen die formulierte Alternativhypothese stimmen muß, ist immer fraglich. Grüsse
-
Ein Standardwerk zu zitieren, ist eine feine Sache, aber mit Verstand und Verständnis sinnvolle Tests zu entwickeln, erfordert mehr. Polemisch? Eigentlich nicht. Grüsse BTW, falls es Dich beruhigen sollte, Dr.Les Leventhal ist Professor, und hat den Vorteil, in genau dem Fachbereich zu arbeiten, welcher üblicherweise mit der Ausarbeitung von Tests zur Wahrnehmungsforschung beschäftigt ist.
-
""Welche Art von Ungenauigkeiten können wir mit dem Fehler 1.Art abfangen?"" "Fehler 1. Art: Entscheidung, die Alternativhypothese anzunehmen, obwohl die Nullhypothese zutritt. Tritt mit der Wahrscheinlichkeit Alpha ein. In der Regel wird Alpha vor dem Testbeginn so gewählt, dass es eine bestimmte Schranke (10%, 5%, 1%) nicht überschreitet." Nett. Ich kopiere Dir nochmals den Teil Deines Beitrages, der mich zu der obigen Frage verleitete: ">Leventhal wählte aufgrund dieser Problematik den >nachvollziehbaren Ansatz von verschiedenen >Erkennungsprozentsätzen auszugehen, und darauf basierend die >Auswirkungen auf die Wahrscheinlichkeit von Fehlern 2.Art zu >berechnen. Das ist sicherlich schön zu berechnen, aber wie bereits erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5 auszugehen haben. Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir aber mit dem Fehler der 1. Art abfangen) keinen Grund, anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5 oder 1, Ungenauigkeiten beim Test werden berücksichtigt, basta." Das, was Du dazu schreibst, ist bemerkenswert unsinnig, wie Dir inzwischen aufgefallen sein könnte, oder spätestens auffallen wird, wenn Du Leventhals Beiträge nicht nur überfliegst. Anstatt die Gelegenheit zum Überdenken und Klarstellen zu nutzen, erscheint es Dir sinnvoller, Deinen Diskussionspartner in Mißkredit zu bringen. Erstaunlich. Grüsse
-
Applaus hättest Du verdient, wärest Du nicht ungefähr zwei Jahre zu spät dran. Daß bei Bernoulli-Versuchen die Bernoulli-Verteilung eine Rolle spielt, ist keine ganz neue Erkenntnis, aber trotzdem Glückwunsch zu Deinem Vorschlag. Bitte überflieg die Stereophile-Texte nicht nur, sie sind sehr aufschlußreich, obwohl natürlich der JAES-Artikel noch mehr zu bieten hat. Das Tests mit methodischen Mängeln trotzdem zu reellen Resultaten führen, so man sie nur häufig wiederholt, erscheint überaus zweifelhaft. Grüsse
-
"Nun, worauf wir H_0 testen, ist in diesem Fall völlig egal." Wie gesagt, üblicherweise wird in derartigen Tests die Nullhypothese so gewählt, daß sie die Zufälligkeit des Ergebnisses ausdrückt. Das mag an Popper liegen. "Oh, ganz falsch. Das Beispiel ist auch in dem Buch 'Nichtparametrische statistische Methoden' von Büning/Trenkler enthalten, was ich vorliegen habe, d.h. ich habe auch die zugrunde liegenden Tabellen vorliegen (aus denen man auf den 1. Blick auch nicht viel erkennt). Im weiteren Verlauf des Buches aber gehen die Autoren auch auf große Stichproben ein, in deren Vorgehensweise die Binomialverteilung (logischerweise) erst mit der Poison- und bei noch größerer Anzahl mit der Normalverteilung approximiert wird. Zitat: 'Für beliebiges p ist aufgrund des Satzes von De Moivre-Laplace eine Approximation der Binomialverteilung durch die (stetige) Normalverteilung möglich, wenn n "hinreichend groß" ist.'" Geht es hier nicht um etwas anderes, nämlich um die Approximation? "Das ist sicherlich schön zu berechnen, aber wie bereits erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5 auszugehen haben." Das ist kein zulässiger Schluß. Wie gesagt, wir haben keinerlei Kenntniss über das Erkennungsvermögen der Testperson. Wir wissen nur (aus allerlei menschlichen Erwägungen ) daß es vermutlich nicht bei 100% liegen wird. Ganz profan ergibt sich nur die Schlussfolgerung, daß wir bei nicht ganz so stark ausgeprägtem Erkennungsvermögen der Testperson (aus welchem Grund auch immer) die Versuchsanzahl erhöhen müssen, um die Wahrscheinlichkeit eines Fehlers 2.Art zu verringern. "Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir aber mit dem Fehler der 1. Art abfangen) keinen Grund, anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5 oder 1, Ungenauigkeiten beim Test werden berücksichtigt, basta." Basta funktioniert nur bedingt. Welche Art von Ungenauigkeiten können wir mit dem Fehler 1.Art abfangen? "Wenn ich hier ein Goldohr sehe/höre, das behauptet, er könne in 75% aller Fälle CD-LW voneinander unterscheiden, sollte er sich besser selbst einweisen." Es behauptet es vielleicht nicht, aber wir wissen, daß es nicht mit 100% Treffsicherheit unterscheiden kann. Ansonsten könnte man sich einen Großteil der Statistik sparen und grundsätzlich auf 100% iger Trefferquote bestehen. Der passende Artikel dazu ist: Les Leventhal "Type 1 and Type 2 Errors in the Statistical Analysis of Listening Tests" (JAES, Vol.34 No.6) da es meist etwas schwierig ist, die AES Papers über das Netz zu erhalten- es gibt einen guten Abriß der Diskussion in der Stereophile: http://www.stereophile.com/features/141/index1.html Grüsse
-
"Die Wahrscheinlichkeit für einen Fehler der 1. Art könnte man locker gegen 0 drücken, wenn man den Test nur oft genug macht. (Na gut, wäre schlimm für die Betroffenen.) Wobei hier noch nicht gesagt ist, dass auf die Wahrscheinlichkeit 0,5 (Zufall) oder 1 (es gibt Unterschiede) getestet wird!" Üblicherweise testet man bei dieser Art von Test die Nullhypothese Zufälligkeit. Daraus erklärt sich auch die beschriebene Zuordnung der Fehler 1. und 2.Art. Die Anzahl der Versuche hat keine Auswirkungen auf den Fehler 1.Art sondern auf den Fehler 2.Art. Schließlich geben wir das Kriterium vor, ab welchem wir die Zufälligkeitsannahme verwerfen wollen. Die Erhöhung der Versuchsanzahl sorgt nur dafür, daß bei gegebenem Kriterium (SL) der notwendige prozentuale Anteil richtiger Antworten sinkt. Es ist häufig ein Problem der Tests, das Hauptaugenmerk auf die Vermeidung Fehler 1.Art zu richten. "Für den Fehler der 2. Art gibt es ebenfalls keinen Grund zur Sorge: Es geht ja nicht um die Behauptung, man könne in 90% der Fälle einen Unterschied erkennen, es geht hier ja nicht einmal um Unterschiede der Wahrscheinlichkeiten (es ist ja egal, ob jemand zu 80% oder zu 90% erraten kann, welches CD-LW dranhängt), da wir hier nicht auf Unterschiede der Wahrscheinlichkeit testen, sondern auf 0,5 oder 1. (Ein Beispiel ist im Link angegeben (2.2.4 Beispiel I (Vorlesung)), da macht es Sinn, zu testen, ob wirklich 5% vorliegen oder nicht.)" Es besteht Grund zur Sorge, da wir zunächst nichts über das Vermögen der Testperson wissen, eventuell vorhandene Unterschiede zu erkennen. Es leuchtet zunächst ein, daß man aufgrund menschlicher Schwächen davon ausgehen kann, daß eine 100%ige Erkennung nicht möglich ist. Leventhal wählte aufgrund dieser Problematik den nachvollziehbaren Ansatz von verschiedenen Erkennungsprozentsätzen auszugehen, und darauf basierend die Auswirkungen auf die Wahrscheinlichkeit von Fehlern 2.Art zu berechnen. Kurz gesagt, besteht der Ausweg in einer Erhöhung der Versuchsdurchgänge, um die Wahrscheinlichkeit für einen Fehler 2.Art auch in dem Fall klein zu halten, daß die Testperson den Unterschied nur z.B. in 60% der Zeit sicher erkennen kann. "Was bedeutet, man kann den Fehler der 2. Art berechnen, da die Wahrscheinlichkeit entweder 0,5 oder 1 sein muß. Oder behauptet hier jemand, man würde CD-LW in 60, 70 oder 82,2323% der Fälle voneinander Unterscheiden können?" Ich würde behaupten, man wisse es einfach nicht. "Und selbst dann wäre das Risiko bei den 'Technikern', es gibt ja in unserem Fall nur 2 mögliche Fehler der 2. Art: 1. Wenn ein Goldohr die Dinger mit einer Wahrscheinlichkeit von etwas mehr als 50% Unterscheiden kann, aber die Wahrscheinlichkeit von 50% angenommen wird, ist das zwar ein Fehler der 2. Art, für unsere Fragestellung aber uninteressant. (Oder gibt's Widerspruch?) 2. Wenn ein Goldohr die Dinger 'nur' zu 95% Unterscheiden kann, aber H_0: p=1 angenommen wird (=ein Goldohr kann die Dinger mit einer Wahrscheinlichkeit von 100% unterscheiden; d.h. es existiert ein erkennbarer Unterschied zwischen den CD-LW); dann werden eindeutig die Techniker benachteiligt." S.o. Grüsse
-
"Hm, Jitter ist ja als Rauschen des Zeitgebers definiert, und Rauschen ist in der Physik bzw. Elektrotechnik doch grundsätzlich zufälliger Natur (laut Definition)." Die Wörterbuchdefinition stellt auf Zufälligkeit ab, aber in der Elektrotechnik bezeichnet der Oberbegriff Jitter zeitliche Ungenauigkeit allgemein. Aus Exaktheitsgründen sollte man wohl direkt mit dem entsprechenden Adjektiv arbeiten, um klarzustellen, welche Art von Jitter gemeint ist, aber es ist für den normalen Sprachgebrauch etwas zu umständlich. Bezogen auf CD-Spieler/Laufwerke ist es der Oberbegriff für alle Jitterfunktionen; zufällig, periodisch, dateninduziert. "Was ja kein Widerspruch ist, wenn die Werte identisch wären, wäre das ja ein Anhaltspunkt, dass es systematisch (=konstruktionsbedingt) wäre. Womit ich nicht sagen will, dass man ihn durch eine bessere Konstruktion nicht weiter vermindern kann." Ist im Allgemeinen eine Gemeinsamkeit menschlicher Erzeugnisse- sie lassen sich meist konstruktiv verbessern. "Ja, natürlich. Immerhin gibt es sogar Labels (gerade im HaiEnt-Bereich) die sich damit rühmen, ein Orchester mit nur 2 Mikros, und das ohne Limiter oder ähnliche Effekte aufzunehmen (und bei Limiter an Limitierung des Klangs denken, d.h. entweder Schxxx labern, oder keine Ahnung haben. Achtung! Kein Exklusiv-Oder!)" Bevor wir uns jetzt thematisch weiter ausmehren; zurück zum Argument; während das "Nichtgoldohr" aus der Bypass-Anekdote (u.a. natürlich) den Schluß zieht, ohne DBT könne man per Gehör nichts entscheiden, entscheidet der "Verursacher" der Bypass-Anekdote munter weiter per Gehör. Das ist für sich genommen doch ein interessanter Unterschied. Grüsse
-
Hi JimSommer, tatsächlich sind alle Varianten denkbar; Kopien können besser oder schlechter sein, Laufwerke können aus einer Audio-CD identische Daten auslesen oder oder auch nicht, es hängt von vielen Faktoren ab. Genau deswegen muß man vorsichtig sein mit pauschalen Aussagen zur Hörbarkeit, denn es kann von Mal zu Mal unterschiedliche sein. Grüsse
-
...eine zusätzliche Hürde einzuziehen. Grüsse