Jump to content
HiFi Heimkino Forum

Jakob

Mitglieder
  • Gesamte Inhalte

    625
  • Benutzer seit

  • Letzter Besuch

Alle erstellten Inhalte von Jakob

  1. Jakob

    SACD

    "Und ansonsten _generell_ kein sinnvoller Test möglich ist?< Warum muss ich auf deine dummen Fragen, die du an dich selbst stellst, eingehen?" Als Antwort hätte doch ein wahrheitsgetreues " Ich weiß es auch nicht, aber glaube es halt" vollkommen gereicht. "Übrigens kann ich mich nicht daran erinnern, dass ich die Grundsätze von Levethals Artikel in Zweifel gezogen habe.. Tja, Lesen ist hilfreich." Hier begann die unsägliche Geschichte; vielleicht liest Du nochmals nach? http://www.audiomap.de/forum/index.php/az/...id/17930/page/6 "Ich hatte mir sogar mal die Mühe gemacht, seine Werte zu verifizieren. Was ich übrigens konnte, nur mal so am Rande, und du leider nicht. Schlecht für'n Mathegenie wie dich." Immer noch putzig. "Was ich allerdings schrieb, war, dass er (natürlich aus Versehen) die interessanten Zahlen und Fakten weggelassen hat; die du natürlich kennst und verstanden hast,...." Ist die Vermutung gerechtfertigt, Du habest Dir Leventhals Artikel immer noch nicht durchgelesen, wüßtest mithin auch nicht, was er weggelassen hat? "Immerhin warst du im letzten oder vorletzten Beitrag noch der Meinung, Güte und Gütefunktion sind das Gleiche.... Lächerlich!" Das offenbart ein interessantes Sprachverständnis. Zur Einfachheit sind hier die entsprechenden Sätze aus den Beiträgen einkopiert: Welcher der Sätze verleitete Dich zu Deiner Vermutung? "Und: Welche 'Zentrale Behauptung' von mir? Und vor allem: Welcher 'Spagat'? Oder hast du immer noch nicht verstanden, was die Gütefunktion macht? (Die Frage war Rhetorisch.)" Einfach nachlesen. "Du hast immer noch nicht verstanden, was ich überhaupt will, bzw. was Leventhal geschrieben bzw. nicht geschrieben hat." Wie gesagt, um beurteilen zu können, was jemand geschrieben hat, muß man die Artikel gelesen haben. Du hinkst hier etwas hinterher. Gruß
  2. Jakob

    SACD

    "Und was willst du jetzt damit sagen? Der einfachste Weg ist ja wohl der, Veränderungen einfach nicht zuzulassen, dann muß man nämlich nicht testen, ob sie am Ergebnis was ändern oder nicht..." Nichts dagegen einzuwenden, wenn es ohne zusätzlichen Aufwand machbar ist. Aber, was ist mit den skizzierten Fällen, in denen die verwendeten Geräte keinen Pegelausgleich zwischen den Eingängen ermöglichen? Bedeutet dies zwingend, das man zu der erwähnten Krücke mit Meßgerät und Nachregeln der Lautstärke greifen _muß_ ? Und ansonsten _generell_ kein sinnvoller Test möglich ist? "Also ich hätte gerne von dir eine wissenschaftliche Quelle, dass eine sich ändernde Lautstärke einen Test NICHT im Ergebnis verändert (bzw. verändern kann)." Na, das hat aber gedauert. Sicher _kann_ eine veränderte Lautstärke das Testergebnis verändern, aber wird sie es auch, wenn man sich dessen bewußt ist? Beispielsweise auch dann, wenn man jeweils vor dem Umschalten die Lautstärke runterdreht und nach dem Umschalten wieder aufzieht? "Du hast doch noch nie gewusst, was 'ne Gütefunktion ist... Man könnte an der Stelle doch auch 'Leberwurst' schreiben, dann würden wir beide wengstens nicht wissen, um was es geht, aber so?" Aah, SVK is still alive. "Ansonsten hatte ich alles zum Binomialtest gesagt, u.a. hatte ich auf die Konsistenz hingewiesen...." Ich hatte mE auch nie behauptet, Du habest nur Unsinn geschrieben. Ganz im Gegenteil wies ich auf den erstaunlichen Spagat hin, den Du hinlegen mußtest, weil Dir irgendwann auffiel, daß Leventhal genau dasselbe schrieb, wie Du auch. Was ja nicht weiter verwundert, da Leventhal eben nur durchaus bekannte Grundlagen auf die beschriebenen Audiotests anwandte und auf sich daraus ergebende Konsequenzen für die Testabläufe hinwies. Leider war Dein Wunsch übermächtig, Leventhal hilfsweise aber mindestens mir Ahnungslosigkeit nachweisen zu können. "(bzw. falls man die Binomialverteilung durch die Normalverteilung ersetzt, was aber kein Problem ist, wenn man den zentralen Grenzwertsatz kennt), was einfach nur bedeutet, dass für eine Folge von Tests die Güte bei zunehmenden Stichprobenumfang gegen 1 konvergiert... Und häufig läßt sich ein Test als konsistente Folge von Test auffassen. Aber ich muss dir ja sicher nicht erklären, was das für die Tests bzw. den Artikel von Leventhal bedeutet, oder?" Wir hätten durchaus sinnvoll über eine Menge verschiedener Punkte sprechen können, u.A. auch darüber, unter welchen Bedingungen man die angesprochenen Tests als Folge zusammenfassen kann. Oder auch, ob aus der Nichtexistenz positiver ABX-Tests der beteiligten Autoren Rückschlüsse auf die Zahl durchgeführter Tests möglich gewesen wäre. Es ändert aber nichts daran, daß durch die Definition von Güte und Gütefunktion eine Deiner zentralen Behauptungen widerlegt wurde, was dann zum neuerlichen Spagat führte. Wie gesagt, notwendig wär all dieses nicht gewesen. Gruß
  3. Jakob

    SACD

    "Jo... Nun, wenn man testen will, ob zwischen 2 Dingen Unterschiede bestehen, macht es doch Sinn, den Test so anzuordnen, dass alles, bis auf eben die 2 Dinge, auf die man testen will, identisch ist, oder?" Man will wissen, ob zwei Dinge hörbare Klangunterschiede aufweisen, und versucht, alle Einflußfaktoren zu eliminieren, die eben Einfluß auf das Ergebnis haben könnten. Wenn die Eliminierung von vermuteten Einflußfaktoren zu Veränderungen gegenüber dem normalen Hörablauf der Testperson führt, dann sagt die Logik, daß man anhand von Tests feststellen muß, welche dieser Veränderungen ergebnisneutral sind und welche nicht. "Du denkst immer noch, dass die einzige Aussage ist, dass die Güte nicht kleiner werden kann, da der Fehler 1. und 2. Art zusammenhängen..." Ich beziehe mich nur auf Deine recht abenteurlichen Kommentare zu Leventhals Artikel; eine der dabei von Dir aufgestellten Behauptungen wird durch die Definition sowohl von Güte als auch der Gütefunktion widerlegt. "Tja, es gibt aber nicht nur die Güte, sondern die Gütefunktion, auf die ich meine Aussagen stütze (naja, eigentlich nicht ich, sondern das sind Ergebnisse der Statistik)." S.o. es hilft Dir leider an dieser Stelle nicht. Gruß
  4. Jakob

    SACD

    "Es kommt darauf an, was man testen will..." Bist Du der Ansicht, daß Pegelunterschiede grundsätzlich nicht vorkommen dürfen, da sie das Testergebnis immer verfälschen? Wäre so gut wie jede andere Hypothese, aber gibt es Studien, die diese Ansicht belegen? Vielleicht in Abhängigkeit vom Testverfahren, ob ABX, A-B-Präferenz etc. etc., Langzeit- im Vergleich zu Kurzzeittest? "P.S.: Und Jakob, mal nachgelesen, dass es eine Güte UND eine Gütefunktion gibt, und es Unterschiede zwischen beiden gibt?" Der springende Punkt war, daß sowohl Güte als auch Gütefunktion Deine Ansicht widerlegten. Gruß P.S. Wenn der Gaul tot ist, sollte man absteigen.
  5. Jakob

    SACD

    Lautheitsunterschiede können eine Falle sein, in die man hineintappt, aber sie müssen es nicht zwingend sein. Es wird wohl von der Testmethode abhängen; wer A-B-Vergleiche mit schnellem Hin- und Herschalten bevorzugt, dürfte eher empfänglich für LS-Unterschiede sein, allerdings sollten Sie ihm auch schneller auffallen. Wer mehr auf seiner Erinnerung aufbaut und gemächlich hin- und herstöpselt, vielleicht noch die Lautstärke zwischendurch runterdreht und nachher wieder "ungefähr" auf gleiche Lautstärke einstellt, wird auch ohne exakten Pegelausgleich zu sinnvollen Ergebnissen kommen können, zumindest wenn er sich ein bißchen trainiert hat. Pegelausgleich ist bei sehr vielen Anlagen meist doch nicht so einfach zu realisieren, da Vorregler oder andere ausreichend genaue Stellwerke häufig fehlen. Ein Multimeter an einem passenden Ausgang mitlaufen zu lassen, und per Hand auf relativ gleichen Pegel regeln, geht, dürfte aber den vielleicht gewünschten/so angesehenen Vorteil des schnellen Umschaltens zunichte machen. Wie gesagt, geeignete Testprozeduren vorausgesetzt, ist Pegelausgleich keine zwingende Forderung. Gruß
  6. Jakob

    Nyquist/Shannon

    Wie auch die frühere Ausgabe des Artikels von Manni Baier in Teilen durchaus bedenkenswert bzw. nachvollziehbar. Allerdings scheint die Trennung zwischen dem theoretischen Ansatz der Abtastung und der praktischen Umsetzung (sowie daraus resultierender Probleme) nicht ganz gelungen. Gruß
  7. >Kann es ein, dass du einfach keine Ahnung von Statistik hast? >Aber davon ganz schön viel... > >Es gibt die Güte und die Gütefunktion. >Das sind 2 Dinge, die zwar was miteinander zu tun haben, aber >doch 2 verschiedene Dinge. Auch wenn sie (da sie sehr viel >miteinander zu tun haben; da man von der Gütefunktion auf die >Güte schliessen kann, was ja auch logisch ist, da die >Gütefunktion aus Werten für die Güte berechnet wird) synonym >verwendet werden. Welch überaus originelle Idee (Angriff ist die beste Verteidigung)- aber im verständlichen, verzweifelten Bemühen, einen Rettungsanker zu finden muß man gesteigerte Ansprüche an gehaltvolle Beiträge sicher zurückstellen. Da Dir auffiel, daß der Unterschied zwischen Güte und Gütefunktion Dir in der Erklärungsnot bezüglich des Beta-Phänomens nun gar nicht weiterhilft, stellt sich aber schon die Frage, wem damit geholfen sein soll. Du hast explizit den Begriff Trennschärfe (= Güte) benutzt, hattest aber sicher nur "vergessen" aufzuklären, wieso Deiner Ansicht nach Beta unabhängig vom Stichprobenumfang ist, aber die Trennschärfe nicht. Klär es nicht für mich, sondern für die Mitleser, die Dir am Herz liegen. >Du hast nicht verstanden, was ich meine? Macht nix, hast du ja >noch nie so wirklich. Wie gesagt, bei Deinen hoffnungslosen Spagatübungen fehlte mir wirklich das Verständnis, aber ist es Zufall, daß die kurze Zusammenfassung Deiner Kritik an Leventhal auch an dieser Stelle wieder fehlt?? >Leider kann ich 'meine' 'Definition' für die Gütefunktion >nicht posten, da ich auf der Tastatur kein Theta finde, zum >anderen werde ich meinem Goldfisch das Apportieren von >Stöckchen beibringen, aber wie bereits erwähnt: Kauf dir >einfach mal 'n gutes Statistikbuch. Da steht viel drin, was du >nicht weißt, und vielleicht auch lernen kannst. Das ist ja das Schöne an diesem grotesken Spiel; Du weißt, es hilft Dir nicht, ich weiß es, also für wen führst Du es eigentlich auf? Für Mitleser, die man nicht auf den Arm nehmen soll? >Desweiteren ist in bereits erwähntem Artikel über Holm in den >nächsten paar Sätzen erklärt, was eine globale Testhypothese >ist, und man hätte durch stumpfsinniges Abschreiben und >(sinngemäße) Negation der dortigen Aussagen (und das Ersetzen >von 'Varianzanalyse' durch 'Binomialtest') genau eine globale >Testhypothese für unser (nein: dein) Problem aufstellen >können, nur so als Tipp. Es ist Dir also weiterhin entgangen, weshalb Dies in unserem Fall doch nur eine ebenfalls groteske Beschäftigung wäre. Hättest Du ein explizites Beispiel formuliert, hätte es anders sein können. >Ansonsten habe ich keine Lust, mit Leuten zu diskutieren, die >mit Schippe und Besen rumrennen, um den Spannungsabfall >aufzukehren. Und zu dem von Dir so ausführlich zitierten Unsinn von David Clark wolltest Du auch nichts mehr schreiben? Verständlich. Grüsse
  8. >Also das ist mir jetzt echt zu blöd. In auswegloser Lage sind solche Reaktionen durchaus üblich, aber deswegen nicht weniger durchsichtig. >Da ich mir aber ungern falsche Zitate unterschieben lasse, >würde ich gerne wissen, wo ich was von "Teststärkefunktion >(1-Beta)" geschrieben habe... Quelle! Wie wärs mit der Trennschärfe bei großem n , wobei die Trennschärfe dann ausreicht, um auch Erkennungswahrscheinlichkeiten beim Test zu bemerken, die nahe an p=0.5 liegen? Ansonsten poste bitte Deine Definition der Gütefunktion. Grüsse
  9. >>.... Bonferronis Ansatz bedeutet in diesem >>Fall, >>daß wir den akzeptierten Alpha-Fehler für jeden Einzeltest >>absenken, um über die Gesamtheit der Tests wieder auf 0.05 >>Niveau zu kommen. >Mannmannmann, muß ich hier alles erklären? Wo wollen wir >anfangen? Bei Adam und Eva? Vielleicht würde es helfen etwas Klarheit in Deine Gedankengänge zu bringen? >Du schreibst doch hier ständig, "ständig" statistisch gesehen?? >du >wärst in der Entwicklung tätig, und hättest Ahnung von >Hörtests... Eben deswegen; im übrigen kannst Du in eben diesem Artikel nachlesen, daß dies tatsächlich der Ansatz von Bonferroni war. >In dem Artikel über Holm, den du gepostet hast, S. 6, 1. >Absatz: >"Glücklicherweise kann man die besprochenen Verfahren mit >einem vorgesetzten Test der globalen Testhypothese >kombinieren." >Und? Was macht dann die Gütefunktion? Na? >Ist es wirklich so schwer? Und, das ist die Frage. Vielleicht schreibst Du einfach explizit, wie in unserem Falle (sprich mit der gleichen Nullhypothese und Alternativhypothese in mehreren Tests) die globale Testhypothese eines vorgelagerten Tests aussieht. Und worin sich der vorgelagerte Test dann unterscheiden würde/sollte. > >Der Rest ist wieder mal Scheissendreck. Und versuch' doch >nicht ständig, die Leute mit 'nem Stichprobenumfang von 10 zu >ver... Das macht kein Statistiker, und nicht mal ein >Nicht-Statistiker mit gesundem Menschenverstand. Aber >hauptsache, die Alu-Magnete halten. Kobe, dieses Beispiel fand nicht so harte Worte, als Du einen Punkt machen wolltest; also muß man jetzt auch nicht so darüber meckern. Du weißt so gut wie ich, daß die Berechnung korrekt ist, also hilft eine weitere Nebelkerze doch nicht wirklich. Übrigens mögen n=10 Tests merkwürdig erscheinen, aber, wenn man _nur_ auf der Suche nach großen Unterschieden (und großen Erkennungswahrscheinlichkeiten) ist, dann können derartige Tests durchaus ausreichen. Dir müßte dies doch sehr sympatisch erscheinen, und da Du Leventhal nicht nur gelesen hast, kannst Du leicht nachrechnen, daß es stimmt. Ansonsten können wir es gerne auch für die üblichen Tests mit n=16 durchrechnen. >Desweiteren hab' ich Leventhal gelesen (und verstanden!; wie >man sehen kann, besitze ich auch die Fähigkeiten dazu), ich >hatte meine Kritik ja schon gepostet,... Die Kritik könntest Du hier einfach nochmals stichpunktartig einstellen, irgendwo zwischen "Suppenkasper", "angeblicher Statistikrevolution" und "stimmt, aber hätte einfach auf die Gütefunktion verweisen können (oder auf ein Statistikbuch)" ist mir Deine tatsächliche Kritik verloren gegangen. >allerdings bist du bis >jetzt noch nicht so richtig in der Lage, das, was ich so >schreibe, auch zu verstehen... siehe oben. Der Grund dafür könnte ja auch in Deinen Spagatübungen liegen. >Im übrigen: >" What Leventhal fails to acknowledge is that our tests do use >a very large number of trials, we simply do not report each of >them individually. Many changeovers between sound A and sound >B are made by the listeners before arriving at a decision >which is then reported as a single trial. This is done to >accommodate the natures of music and of the human >decision-making process. It also relieves the listeners of the >distraction of recording each and every comparison. A single >listener may make over 1000 comparisons in the course of >arriving at the 16 decisions we call "trials." I suspect that >Professor Leventhal's insistence on tests that conform to his >statistical rigor is a result of his never having personally >organized or participated in a blind listening test." >David Clark >Aber ich wollte eigentlich nicht auf diese Diskussion >eingehen. Ich glaube kaum, daß Du Dir obigen Unsinn wirklich zu eigen machen willst; sonst stellt hier doch noch jemand einen ultimativen Test mit n=1 vor, was ja vollkommen reiche, da er vor der Entscheidung ca. 22000 mal umgeschaltet habe. >Erstens ist meine Kritik bekannt, zweitens ist sie >für manche hier zuviel, und drittens wüßte ich nicht, warum >ich so einen lächerlichen Kram nicht mit dem Hinweis auf die >bessere Gütefunktion bei steigender Stichprobenanzahl bzw. mit >dem erwartungstreuen Schätzer für p selbst erledigen könnte. Es ist halt schwer die Linie durchzuhalten, wenn man einerseits erst behauptet, es sei alles Unsinn, u.a. behauptet Beta würde sich mit steigendem n nicht ändern, die Teststärkefunktion (1-Beta) hingegen schon, um dann im Endeffekt dabei zu landen, eigentlich sei alles schon längst bekannt. Ansonsten s.o., Deine Kritik ist nicht bekannt. >Und mit der besseren Güte sind wir uns ja mal einig, oder? Schon immer; allerdings auf die Erklärung zu dem Beta-Phänomen wäre ich schon gespannt. Grüsse
  10. >>Wobei dies in diesem Zusammenhang keine notwendige >>Voraussetzung ist, denn es geht ja gerade um die Vermeidung >>irrtümlich angenommener Alternativhypothesen. >>Dass man z.B. mittels Bonferroni letztlich (natürlich) die >>Wahrscheinlichkeit für Fehler 2.Art extrem erhöht, sei nur >>am Rande erwähnt. > >Nein, sie sinkt wegen der besseren Gütefunktion bei steigendem >Stichprobenumfang. Wir diskutieren hier über die Auswertung multipler Tests. Wie angedeutet, scheint es tatsächlich so zu sein, daß die Auswertung über die Ergebnisse der Einzeltests erfolgt und nicht über einen neuen statistischen Test über die Gesamtstichproben. Bonferronis Ansatz bedeutet in diesem Fall, daß wir den akzeptierten Alpha-Fehler für jeden Einzeltest absenken, um über die Gesamtheit der Tests wieder auf 0.05 Niveau zu kommen. Dies bedeutet zwangsläufig, daß wir bei sonst unverändertem Testdesign die Wahrscheinlichkeit für einen Fehler 2.Art drastisch erhöhen. Deine Annahme würde absolut zutreffen, wenn wir anstelle der Einzeltests einen einzigen neuen Test mit summiertem Stichprobenumfang annähmen. >Es geht ja bei dem Verfahren darum, einen Fehler 1. Art zu >verhindern, bei einer sehr großen Stichprobe würde man eine >falsche Annahme H_0 mit bestimmten p schon verwerfen >(ebenfalls ein Ergebnis der Gütefunktion; die Gütefunktion >greift ja nach beiden Seiten). Wenn wir bei unserem hypothetischen Beispiel, mit n=10, SL=0.05 bleiben- die Annahme der Alternativhypothese gilt für r>=9; für r gleich 9, liegt der Alpha-Fehler bei 0.0107. Nehmen wir an, alle 10 Einzeltests würden so zur Annahme der Alternativhypothese führen, dann wäre die Wahrscheinlichkeit, daß bei mindestens einem Einzeltest fälschlicherweise die Alternativhypothese angenommen wird: 1 - (1-0.0107)^10 = 0.10199 Hier setzt Bonferroni an, um diese Wahrscheinlichkeit zu verringern. BTW, bei dem von Dir angenommenen p=0.7 wäre die Wahrscheinlichkeit, daß _alle_ 10 Tests einen Fehler 2.Art aufweisen: 0.8507^10 = 0.1985 >Du fällst auf den gleichen Kram >rein, mit dem du hier versuchst die Leute zu ver... Nein. >Bei einem >Stichprobenumfang von 16 sieht man halt nicht viel, man sollte >sich mal ein paar mehr Werte als die paar von Leventhal >anschauen. >Tja... Man sollte Leventhals Artikel gelesen haben, um beurteilen zu können, was er geschrieben hat. Alles andere ist reine Vermutung. Grüsse
  11. >>Wobei der Begriff multiples Testen eigentlich ein anderes >>Testszenario zu meinen scheint, als im unserem Falle. > >Nein. Du vermutest wieder mal (und wie üblich...) Ich hab's >noch mal nachgelesen, in dem angegebenem Link steht's auf >Seite 7, letzter Absatz, dass Verfahren ist (bzw. wäre) auch >für das hier diskutierte (naja, eigentlich zu Tode gelaberte) >Testverfahren geeignet. Eigentlich hebt gerade dieser letzte Absatz auf den vom Verfasser unterstellten Regelfall des multiplen Testens, bei dem Hypothesenfamilien getestet werden, ab. Aber Du hast Recht, derartige Testverfahren ließen sich auch auf die Analyse vieler Tests mit einer Hypothese anwenden. >Wenn's doch mal sowas gäbe, dass >jemand mal was hören würde. Wobei dies in diesem Zusammenhang keine notwendige Voraussetzung ist, denn es geht ja gerade um die Vermeidung irrtümlich angenommener Alternativhypothesen. Dass man z.B. mittels Bonferroni letztlich (natürlich) die Wahrscheinlichkeit für Fehler 2.Art extrem erhöht, sei nur am Rande erwähnt. >Aber der CIA hat da wahrscheinlich >was gegen... Oder waren's doch die Illuminaten? Die Alliens? >Oder die böse Wissenschaft? Für mich ist immer noch unverständlich, worauf Deine Annahme einer konstruierten Verschwörungstheorie eigentlich basiert. Grüsse
  12. >Das hat auch niemand geleugnet. Ist dies denn nicht eigentlich Dein Argument gewesen? Das man aus dem Vorhandensein funktionsfähiger CD-Spieler schließen könne, daß es keinen Raum mehr für Optimierungen gäbe? Denn um eine Form der Optimierung geht es ja, es hat, wie bereits geschrieben, niemand behauptet, ein CD-Spieler könne ohne vorherige "Magnetanwendung" keine CD verarbeiten. >Aber diese Verbesserungen sind >IMMER, technisch physikalisch nachvollziehbar, reproduzierbar >zu messen, belegbar. Das macht die Verbesserung aus! > >Gibt es das beim Clarifier? Entschuldige, aber dies ist genau die Frage. M.W.n. hat es bislang keine wirklich kompetente Untersuchung von Wirkung/Nichtwirkung gegeben. >Welcher Teil der CD-Abtastung ist nicht verstanden? Der Teil, der sich mit der Abtastung von CDs nach vorheriger Behandlung mit Magnetfeldern beschäftigt. Es wird Dir natürlich auch nicht reichen, aber- Der Versuch eine Nichtwirkung von Magnetfeldern auf dem versuchten argumentativen Weg zu begründen, erscheint mir unmöglich. Denn dies würde irgendwo einen Widerspruch zu einem Naturgesetz (bzw. daraus folgenden Ableitungen) bedingen. Alles andere mag plausibel erscheinen oder auch nicht. >Das habe ich nicht unterstellt! Dann habe ich Dein Argument nicht verstanden. >Optimierungen müssen als solche erkennbar sein. >Daß der Clarifier eine Optimierung der CD-Abtastung vornimmt, >bleibt weiterhin eine unbelegte Behauptung. Absolut. Ich habe nichts Gegenteiliges behauptet. >Die Existenzberechtigung für den Clarifier läßt sich, wie Du >es stetig versuchst, aus keiner technischen Verbesserung >irgendeines Gerätes/Wirkprinzips in der Vergangenheit >ableiten. Alles bisherige war belegbar und erst dadurch als >Verbesserung bestätigt! Ist wie immer eine Frage des zu treibenden Aufwandes und des damit verbundenen Nutzens. Wenn sich nicht aus reinem Wissensdurst eine Einrichtung dieses Themas annimmt, sieht es wohl schlecht aus, denn für den Rest wäre auch bei Nachweis ein Nutzen fraglich. >"Verstehen" und auf der Basis technischer Möglichkeiten >optimieren sind zwei Paar Schuhe. Bestimmt. >Genau! Was wurde erst nachher verstanden, was zu einer realen >Verbesserung geführt hat? >Diese Frage hab ich schon mehrfach gestellt und ich werde >vergeblich weiter auf eine Antwort warten. Dagegen wirst Du >nicht zögern, weiter Beispiel auf Beispiel folgen zu lassen, >wie es doch in der Geschichte bisher war. Hab ich recht? >Das nenne ich zB biegeweich. Diese Frage läßt sich doch auch nicht so ohne weiteres beantworten, nicht wahr? Es hat einfach eine Vielzahl an Veränderungen an der verwendeten Technik sowie dem Tonträgerformat gegeben; welche davon auf einem zum jeweiligen Zeitpunkt besseren Verständnis oder nur verbesserten Herstellungsverfahren beruhen, läßt sich für mich nicht klären. >Das hat mit dem Thema nichts zu tun. > >Man kann eine Abtasteinheit technisch auf verschiedene Weisen >realisieren. Das beweist aber eher, daß das >Prinzip< >verstanden ist...... >(wen wunderts?!) Du unterstellst aber zumindest, daß jegliche Wirkung eines Magnetfeldes auf eine CD direkt im Widerspruch zum bekannten Abtastvorgang stehen muß- ist das wirklich zwingend so? >Beispiele? Was sind "Optimalwerte"? Ändert das etwas am >grundlegenden Verständnis der CD-Abtastung? >Alles sehr diffus..... Gute Frage, auch hier meine ich, daß man nur darüber spekulieren kann, was die Entwickler wirklich wußten, es sei denn, man spräche mit ihnen. >Das ist schon klar. *kopfschüttel* Gerne akzeptiert! >An dieser Stelle ist es aber Wortglauberei. >Also: Gleichheit in allen messbaren Parametern, die den Jitter >beschreiben. (....wenn Dich das zufriedenstellt) Ja. Keine Wortklauberei sondern notwendig. >>Folgte ich Deiner Argumentation, würde dies alles nichts >>bedeuten, und ich müßte offenbar jede meiner Entscheidungen >>durch DBTs absichern. > >Nein, das habe ich nicht behauptet. >Egal, welchen C Du in einen Verstärker baust, es ist Deine >Entscheidung. Vollkommen egal, wie Du zu dieser gelangst. Ob >Du es für Dich oder andere noch blind "absegnen" willst oder >nicht, ändert letztlich nichts an dieser, deiner Entscheidung. Klar bliebe es meine Entscheidung, aber Deiner Ansicht wäre sie immer nur zufällig richtig, da offene Tests nichts bringen können. >Angenommen, dieser Blindtest wäre negativ. Folge: kein >Forschungsprojekt. >aber: der Clarifier bleibt natürlich weiter in Betrieb, oder? Komische Annahme. >Warum hier an dieser Stelle plötzlich ein Blindtest, wenn man >doch schon jahrelang auch ohne diesen von der Wirksamkeit >überzeugt ist? War das Argument bezüglich der Tragweite von Entscheidungen nicht überzeugend? Du sicherst Deine Entscheidungen, welches Restaurant (welche Pizza etc.) Du bevorzugst doch auch nicht über DBTs ab. Weswegen nicht? Vermutlich weil die Tragweite der Entscheidung den Aufwand in keinster Weise rechtfertigt. >Hab ich das nicht verstanden jetzt? Du sprachst von >"daß es durchaus aussagekräftige Blindtests gab, die zu >anderen Ergebnissen kommen, als die so gerne in Foren >zitierten" >Ich will ja nur wissen, welche das sind. Na eben jene, über die wir damals diskutierten, z.B. die Detmolder Tests, sowie die damals verlinkte Seite mit einem schwedischen Blindtest zum Thema CD-Spieler. Grüsse
  13. ...Wahrnehmungsprobleme. Grüsse
  14. >Das ist einfach nur Müll. Ich mache mir doch Sorgen um den Stil. >Du vermutest doch nur. Vielleicht >existieren diese Tests nicht, weil man das Ergebnis einfach >verifiziert, und dann zum Ergebnis kommt, es war doch Zufall Dann existierten diese Tests doch, man "vergaß" nur darüber zu berichten??? Dies wäre eine überaus fragwürdige Veröffentlichungspraxis. >(analog zu dem Test mit den Wünschelrutengängern)? Und hier beschreibst Du auch die richtige Vorgehensweise, man verschweigt keine unpassendenen Testergebnisse sondern bemüht sich um Klärung. BTW, die Vorgehensweise beim Wünschelrutentest ergibt eben nicht Deine Schlußfolgerung, daß damit gezeigt wurde, das erste Ergebnis war "doch Zufall". Gezeigt wurde, daß bei einem zweiten Test die Nullhypothese nicht verworfen wurde. >Komisch, daß alle Leute, die jemals getestet haben, doof >sind... Nur du hast den Durchblick. Doof nicht, vielleicht nur zu optimistisch, daß es ohne weitere Beschäftigung mit Testtheorie schon irgendwie klappen würde. Eine gewisse Voreingenommenheit, die bei Ausarbeitung der Testabläufe, Pate stand, ist allerdings unverkennbar, und in den Reaktionen auf den (wie wir wissen vollkommen richigen und berechtigten) Artikel von Leventhal durchaus zu erkennen. Das eine derartige Voreingenommenheit bei der Gewinnung objektiver Testergebnisse nicht hilft, liegt auf der Hand. >Wieder mal bei der Revolution der Statistik? Ich dachte, die >Medizin wäre jetzt dran? S-V-K at work Grüsse
  15. >Naja, nur weil's hier vielleicht keine Mitleser mehr gibt (was >ich aber nicht vermute; im übrigen ist der blöde Kommentar mit >dem 'Meister im Vermuten' oder so ähnlich bei mir wohl eher >falsch angebracht) kann man sich immer noch beim Lernen Mühe >geben, aber es war ja auch nicht anders zu Vermuten: Du wirst zugeben, die Formulierung konterkariert das inhaltliche Bemühen. >Wie ich bereits etliche Male schrieb, hätten manchmal einfach >ein paar Begriffe Fachchinesich genügt... Güte-, Test- und >Schätzfunktion z. Bsp., aber woher nehmen? Solange Du den Standpunkt vertratst, eine größerer Stichprobenumfang hätte keine Auswirkung auf den Beta-Fehler wohl aber auf die Teststärkefunktion (1-Beta), konnte dies nicht genügen. >Und wenn wir uns mal die Mühe machen, ein wenig >zurückzublättern, werden wir feststellen, dass besagte Werte >für p von dir gepostet wurden. Mach Dir bitte die Mühe zurückzublättern; ich hatte kein p=0.7 angenommen, im Beispiel enthalten war nur jeweils eine Anzahl richtiger Antworten von r=7. >Ich habe mit deinem >Zahlenbeispiel mal einfach so weitergerechnet. Klar, die >Zahlen, jajaja, schon klar. Insofern war das vorher so stark kritisierte Rechnen mit fiktivem p überraschend. >Und das schöne: Wieder mal einfach so ein paar Aussagen in den >Raum geworfen ('Wobei der Ablehungsbereich erst bei >=9 >richtigen beginnt...'), blödes Gelaber, hauptsache mal was >geschrieben, sag' doch einfach mal, was du willst, wenn meine >Zahlen falsch sind, dann rechne sie doch einfach mal nach >(Mach doch einfach mal!), oder wasweißich (es ist jetzt >nämlich nicht so (wie der Eindruck erweckt wird), dass meine >Zahlen falsch wären (nehme ich mal an, ich hab' sie nicht mehr >verifziert), nein, es geht einfach 'auf die nächste Ebene', >lockeres Gespringe, ja keine Aussagen machen. Wirkt es nicht komisch, erst eine Aussage zu zitieren, um Dich dann zu beklagen, es gäbe keine Aussagen? Dazu die Klage über angebliches (vermutetes ) Springen, wo es doch immer noch um das gleiche Beispiel geht; (doch Wahrnehmungsprobleme?) Bei einem Test mit n=10, SL=0.05, wird die Nullhypothese erst bei 9 oder 10 richtigen Antworten abgelehnt. Nicht mehr und nicht weniger bedeutet die zitierte Aussage- alles andere ist......Vermutung. >>Bei idealen Tests wäre vermutlich eine Summation der >Einzeltestergebnisse mit anschließender Neuauswertung >statthaft, in der Realität ist es wohl nicht zulässig.< >Glaubst du wirklich, dass nie mal jemand auf die Idee kam, das >Verhältnis der richtigen Antworten zum Stichprobenumfang zu >rechnen? Die Frage ist, ob es zulässig wäre. >Du windest dich wie ein Wurm, dem jemand mit dem Stiefelabsatz >auf den Schwanz steht. Die Formulierung kann gefallen, wenn sie auch inhaltlich von Realitätsferne zeugt. >Das mit Nobelpreis Physik scheint ja nicht zu klappen, die >Revolution der Statistik ist ja auch ausgeblieben bzw. >verschoben worden, Es war ja ausschließlich Deine _Vermutung_ eine Revolution der Statistik sei beabsichtigt (der freundliche Hinweise, dieser Vermutung läge ein Verständnisproblem zugrunde, fand keine Resonanz) deswegen liegt es mir fern, ein Ausbleiben zu beklagen. Grüsse
  16. >Und schon wieder kämpft Super-Kobe gegen das dumme Gelaber: Super-Vermutungs-Kobe?! >>>Da allerdings bisher H0 (p=0,5) nicht verworfen wurde (oder >>>kennt jemand eine Quelle?) kann man sich die Prozedur auch >>>sparen. >> >>Aus statistischer Sicht ist auch dies interessant, nicht >>wahr? > >Ja, genau. Oder willst du auf p<>0,5 testen, wenn es KEINEN >Hinweis darauf gibt? Es ist ein statistisches Argument. Gäbe es eine große Anzahl durchgeführter Tests, müßte es eine gewisse Anzahl Tests geben, bei der die Nullhypothese verworfen wurde. (Wobei man hier auch innerhalb der verschiedenen Testverfahren untersuchen müßte; ABX, A-B etc.) > >>Es stützt die auch hier schon postulierte These, daß es >>bislang eher wenige DBTs gab. > >Wieder mal ohne Quellenangabe... Und ich denke, die Jungs aus >Amiland testen ständig, deswegen gibt es die große Debatte? >Ist der Artikel von Leventhal etwa total sinnlos? Die große Debatte gibt es (immer noch); es wird vermutlich nicht so häufig getestet, wie vermutet und der Artikel von Leventhal war berechtigt, weil die Vermeidung eines unfairen statistischen Tests in jedem Fall sinnvoll ist. Ansonsten, würden die "Jungs im Amiland" ständig testen, müßte es auch ... s.o. >Oh, DU vermutest??? Dann begründe mal! Ein Link war angegeben. >>Aber, wie Du schon sagst, da wir _überhaupt keine_ >>angenommenen Alternativhypothesen haben, erübrigt sich >weitere >>Testverfahren zur Absicherung niedriger Alpha-Fehler. >Das ist so lächerlich wachsweich formuliert, dass nicht mal >das absolute Gegenteil davon falsch oder wahr ist. >H1 existiert, und ist auch bekannt, aber H0 wurde bis jetzt >nicht verworfen, oder was meinst du? Wenn die Nullhypothese verworfen wird, nimmt man die Alternativhypothese an. Gibt es keine angenommenen Alternativhypothesen, kann es auch keine verworfenen Nullhypothesen gegeben haben; ergo gibt es auch keine irrtümlich verworfenen Nullhypothesen, also erübrigt sich auch das Bonferroni/Holm-Verfahren, bei dem es gerade um dieses Problem ging. Du siehst, gemeint war, was geschrieben wurde. Grüsse
  17. >Wie bereits erwähnt, kenne ich den Ausgangspunkt der Debatte >immer noch recht gut, und hatte auch 2 (glaub' ich) Einträge >weiter oben entsprechende Antwort von dir an Trancemeister >gepostet... >Damals warst du noch der Meinung, 16 Versuche reichen. Und >jetzt willst du Argumentieren, besagte 16 sind zu wenig? Nun, die gleiche Frage stelltest Du bereits wesentlich früher, und sie wurde auch erschöpfend beantwortet. Vielleicht zu diesem Zeitpunkt für Dich aufgrund der Zuordnungsschwierigkeiten noch nicht ausreichend?! Bei "relativ großen Unterschieden" und "guter Form" , was der geneigte Leser, der Leventhal nicht nur überflog, sondern las, mit hoher Erkennungswahrscheinlichkeit unschwer übersetzen kann, reichen 16 Versuche. Falls man einen Test macht ohne jegliche Ahnung bezüglich der Erkennungwahrscheinlichkeiten _muß_ man den Stichprobenumfang erhöhen, um, bei Test auf 0.05-Niveau, mögliche sehr hohe Beta-Fehler zu vermeiden. >Ich >überlasse jetzt dem geneigten (Mit-)Leser die Interpretation. Du kannst hier nur darauf hoffen, daß nicht mehr viele übrig sind. >Desweiteren habe ich mich schon damals in der Hinsicht >geoutet, dass ich was von Statistik verstehe... Deine Behauptung stieß auf einen großen Vertrauensbonus, umso größer die Überraschung ob zahlreicher merwürdiger Beiträge. Und Leventhal schrieb einen guten Artikel, den Du hättest einfach lesen sollen. > >Aber bevor du hier weiter geiferst,.... Holla, ein gewisses Bemühen in Sachen Stil ist unverkennbar, allein an der Originalität sollte noch gearbeitet werden. >würde ich gerne wissen, >was an besagtem Testdesign falsch war, zudem das Ergebnis >eindeutig war, weshalb man auf eine Verifizierung verzichten >kann... Du wirst zugeben, dass ein generelles: 'Das ist >falsch' nicht besonder produktiv ist, und sogar den Verdacht >weckt, man hätte keine Ahnung und spielt hier den Troll. Und >ich möchte doch nicht, dass du besagten Eindruck erweckst. Was andere Vermutungskünstler mit ähnlich gelagerten Wahrnehmungproblemen an Schlüssen ziehen, kann und muß nicht immer meine Sorge sein. Besagter Test war bereits Gegenstand ausufernder Debatten, so scheint mir eine Wiederholung an dieser Stelle nicht zielführend. Zwei Punkte seien genannt- um die Unabhängigkeit der einzelnen Ergebnisse ist es nicht gut bestellt, und eine völlige Vernachlässigung der individuellen Hörgewohnheiten (bzw. des Trainingszustandes unter Testbedingungen) kann nur zu zweifelhaften Testergebnissen führen. Schon aus rein formalen Gründen kann man nur schwerlich weitergehende Schlüsse aus derartigen Tests ziehen, aber für Hinweise taugt er schon. >Das Alpha beträgt für 7 von 10 bei p=0,5 0,1718..., bei 8 von >10 0,0546... >Aber folgendes ist interessant: Die Wahrscheinlichkeit bei >p=0,7 0-7 von 10 zu treffen (also ist das hier die >'Dichtefunktion') ist 0,6172... Für 10 Testreihen (ohne >Fehler) ist sie 0,6172...^10 = 0,0082 ; also geringer als 1%, >während das bei p=0,5 0,9453... und entsprechend 0,5698... >Bei p=0,7 ist also die Wahrscheinlichkeit, 10 mal nicht mehr >als 7 Treffer bei 10 Versuchen zu haben unter 1%, während sie >bei p=0,5 bei knapp 57% liegt. Nanu, solltest Du hier am Ende gar dem "blödsinngerechne" mit fiktiven p gefrönt haben?? Wobei der Ablehungsbereich erst bei >=9 richtigen beginnt; es war nur ein hypothetisches Beispiel zur leichteren Nachrechenbarkeit; vermutlich könnte man für die genannten 10 Tests auch unterschiedliche Einzelergebnisse mit höherer Gesamterzielungswahrscheinlichkeit konstruieren, die in der Summe immer noch für 59 oder 62 richtige reichen. Bei idealen Tests wäre vermutlich eine Summation der Einzeltestergebnisse mit anschließender Neuauswertung statthaft, in der Realität ist es wohl nicht zulässig. >Man sieht also ganz gut, was ich meine. Und wenn man jetzt >eine ganze Menge Tests mit n=16 hat, kann man da schon was >machen. Zur "ganzen Menge" s.a. den Kommentar zu Bonferroni. >>Es hängt halt von den Annahmen ab; liegt die >Erkennungswahrscheinlichkeit bei 0.9 sind 16 Versuche fast >schon übertrieben.< >Nach eigenen Aussagen ist der Unterschied gewaltig. Hängt halt davon ab, was man testen möchte; ist es "es kann mindestens ein Mensch einen Unterschied hören" oder ist es " der Unterschied ist galaktisch" Grüsse
  18. >Auch wenn hier wirklich niemand an Ergebnissen interessiert >ist: Der Vermutungsdrang scheint unkontrollierbar. >Das oben erwähnte Verfahren ist das Holm- bzw. >Bonferroni-Holm-Verfahren. > >Es geht darum: Macht man viele Tests, so wird bei einigen >irrtümlich H1 angenommen. Holm vermeidet diesen Effekt durch >eine 'multiple Irrtumswahrscheinlichkeit' alpha. >Allerdings ist das ein konservativer Test, er begünstigt H0. Eine Quelle zum Nachlesen: http://www.forst.tu-muenchen.de/EXT/PUBL/q.../hipotez.de.pdf >Da allerdings bisher H0 (p=0,5) nicht verworfen wurde (oder >kennt jemand eine Quelle?) kann man sich die Prozedur auch >sparen. Aus statistischer Sicht ist auch dies interessant, nicht wahr? Es stützt die auch hier schon postulierte These, daß es bislang eher wenige DBTs gab. >Leider kann ich dazu keine gute Quelle im www finden (ich >besitze (mit Ausnahme meines Statistik-Skripts) auch keine >Literatur dazu), ich muß den interessierten Mitleser leider >bitten, selbst mal Google anzuwerfen. Es geht hier generell um >multiples Testen. Wobei der Begriff multiples Testen eigentlich ein anderes Testszenario zu meinen scheint, als im unserem Falle. Aber, wie Du schon sagst, da wir _überhaupt keine_ angenommenen Alternativhypothesen haben, erübrigt sich weitere Testverfahren zur Absicherung niedriger Alpha-Fehler. >Der ursprüngliche Artikel war: >Holm S. A Simple Sequentially Rejective Multiple Test >Procedure. Scand. J. Statist.1979; 6: 65-70 > >Sorry, aber hier wird's langsam zu speziell für vernünftige >Quellen. Diese und weitere findet man im genannten Link. Grüsse
  19. >Soll ich nach Deinen eigenen Quellen für die "2-6 Sekunden" >suchen? Es wäre absolut förderlich, ich garantiere für viele interessante Informationen darüber, wie der moderne Stand der Wahrnehmungspsychologie und damit der Vorstellung des (auch akustischen) Gedächtnisses aussieht. Aus der Existenz des (allgemeinen) Kurzzeitgedächtnisses kann man nicht schließen, daß Menschen ein schlechtes Gedächtnis hätten. Aus der Existenz des echoischen Gedächtnisses kann man nicht schließen, daß Menschen ein schlechtes akustisches Gedächtnis haben. An das echoische Gedächtnis schließt sich das (akustische) Kurzzeitgedächtnis an (Größenordnung max. 10-15 s, mit ähnlicher Unsicherheit wie die Zeitangaben zum echoischen Gedächtnis), danach kommt das Langzeitgedächtnis, bei dem eine Fülle verschiedener Faktoren bei der Kategorisierung und Speicherung mitwirken. Interessant war ein Ansatz zur Testpraxis von Audiocodecs nach ITU. Die Autorinnen schlugen vor, die Testsamples in der Länge auf die Zeitdauer des echoischen Gedächtnisses zu beschränken und mit Sampleschleifen zu arbeiten, um Trainingsunterschiede und Fertigkeitsunterschiede in der Kategorisierung und Langzeitspeicherung von der Beurteilung auszuschließen. (arg verkürzte Darstellung) Kristin Precoda, Theresa H. Meng; Subjective audio testing methodology and human performance factors; AES Preprint, 103rd Convention, 1997 Was der Umkehrschluß für unsere Diskussion bedeutet, kann man sich ausmalen. >Man kann Dir wahrlich nicht mangelne Flexibilität >unterstellen..... Wäre es zur Abwechslung nicht auch mal ganz spannend anzunehmen, es sei nicht so, wie es Dir im ersten Augenblick erscheint? Grüsse
  20. >Diese gängige Praxis stand hier nie zur Debatte, und wurde >auch nie in diesem Zusammenhang erwähnt. Diese Ansicht ist überraschend und hat ihre Ursache vielleicht eher im Überfliegen? >Ein Hinweis auf die Gütefunktion für verschiedene n hätte auch >gereicht. Grafiken gibt's in jedem besserem Statistikbuch. Die meisten Diskussionspartner reagieren auf ein charmantes "Guck in ein Statistikbuch Dummbart" in einer wissenschaftlichen Debatte nicht gut. Die These, daß die überwiegende Zahl von Blindtests in der Audiotechnik von Menschen entwickelt und durchgeführt wurden, die über keine ausreichende Erfahrung mit statistischen Tests verfügen, scheint berechtigt. >Es gibt die schöne Aussage: "Sei x eine Variable, beliebig, >aber fest." Findet man in der Mathematik öfter. >In welchem Forum war es, wo auf Kabel getestet wurde? Und halt >wieder mal 0,5 rauskamm? Das waren (ich glaube so 15-20 Leute, >ich kann mich aber auch irren...), oder der c't-Test mit MP3s? >Oder der Test, der mal in der Klang&Ton erwähnt wurde? Gibt's >eigentlich andere Ergebnisse? Bei dem Kabeltest lohnt eine kurze Analyse, um festzustellen, daß es durchaus lohnt in der Operationalisierungsphase und Designphase einmal länger nachzudenken. Der eigentlich notwendige Bestätigungstest unterblieb. Was alles nicht so schlimm ist, allerdings dafür sorgt, daß auch dieser Test für allgemeine Aussagen nicht taugt; von ganz grundsätzlichen Logikerwägungen einmal abgesehen. Bei den vielen Tests zu Kompressionsverfahren lohnt vermutlich auch eine Metaanalyse; ich will es nicht beschwören, aber es entstand der Eindruck, daß zwischen Original und reduziertem Material jeweils kein Unterschied detektierbar war, aber zwischen den einzelnen Kompressionsverfahren schon, was zunächst überrascht. >Nein, leider nicht. Wenn viele Test (auch mit dem >Stichprobenumfang 16) gemacht wurden, greift auch das Beta >nicht mehr, dann kann man den Zufall schon annehmen. Das >machen schon alleine die Alphas. Ist übrigens ein beliebtes >Mittel. Gilt dies wirklich bei Betrachtung der Endergebnisse der einzelnen Tests? Oder muß man dann nicht eine neue Auswertung über den vergrößerten Gesamtstichprobenumfang machen? Als hypothetisches Beispiel; 10 Tests mit jeweils n=10, bei SL=0.05. Test der Nullhypothese P=0.5 ergibt Ablehnung der Alternativhypothese jeweils bei r=7. Eine Auswertung über die Gesamtstichprobe von n=100 würde bei r=70 die Annahme der Alternativhypothese bedeuten, sogar auf 0.01 Niveau. >> Allerdings schlug ich es vor mit dem Zusatz, daß 16 >>Durchgänge möglich wären, bei guter Form der Testperson und >>relativ großen Unterschieden. >Naja, was für die eine Seite gilt, gilt auch für die andere. >16 ist schon wenig. Es hängt halt von den Annahmen ab; liegt die Erkennungswahrscheinlichkeit bei 0.9 sind 16 Versuche fast schon übertrieben. Testet man eine Person hat man immer mit dem Überforderungsproblem zu kämpfen. Grüsse
  21. Naja, man könnts auch so schreiben; wir sind uns jetzt ganz offiziell einig, daß Leventhals Artikel berechtigt war und seine Ausführungen und die Schlußfolgerung korrekt. Woraus dann tatsächlich folgt, daß wir eine erschreckende Menge an Beiträgen völlig überflüssigerweise ausgetauscht haben; von einem gewissen Unterhaltungswert einmal abgesehen. >Du hattest meine Ansichten zu p* ungefähr 0,5 kritisiert, also >gehe ich davon aus, dass du weiterhin davon schreibst... Oder >kriegst du dein eigenes Springen nicht mehr gebacken? Trotz erkennbar kleinerer Brötchen- ganz ohne gehts nicht, oder? >Sowas wird übrigens empfohlen, und kein >blödsinngerechne mit fiktiven Betas. KOBE!!! BITTE!!! Die gängige Praxis (an der sich übrigens bis heute nicht viel geändert hat) war, ABX-Tests mit 16 Durchgängen anzuwenden. Leventhal wollte darauf hinweisen, daß diese geringe Durchgangszahl bei relativ geringen Erkennungswahrscheinlichkeiten nicht ausreicht. Dazu war das "blödsinngerechne" absolut sinnvoll. M.E. wird es auch heute noch empfohlen zur Abschätzung. Wobei es immer von der Fragestellung und Wichtigkeitserwägungen abhängt, ob man den Fehler 2.Art vernachlässigt oder nicht. Nur zur historischen Einordnung; es geht hier um die in den USA so genannte "Great debate"; auf der einen Seite die Unhörbarkeitsbehauptung, auf der anderen die Hörbarkeitsbehauptung und in dieser Debatte kann man beide Fehler nicht vernachlässigen. >Und Beta ist für mich einfach eine Variable, die nicht mal >fest ist (da nicht bekannt). Man kann einer Variablen das "Nichtfestsein" aber auch nur schwerlich übelnehmen, nicht wahr? >Und dann wird das Beta auch nur >unwesentlich kleiner, wenn p* nahe genug bei 0,5 liegt (was ja >oben angenommen wurde), auf jeden Fall nicht so klein, dass >ich es mal locker verwerfen könnte. Ja, wie berechnet (z.B. von Leventhal ) braucht man bei wirklich kleinen Erkennungswahrscheinlichkeiten _sehr_ große Stichproben. >Ich rede auch nicht von einem Stichprobenumfang von 16 oder >so, ich gehe von einer Stichprobe aus, mit der man arbeiten >kann (mindestens 50-100; das ist von einer Gruppe von Leuten >ja zu realisieren), Ist ja auch vernünftig, genau dies ist aber der Unterschied zu den meist durchgeführten Blindtests. BTW, Du hattest die Frage aufgeworfen, wieso denn trotz allem so viele negative Blindtests existieren; mir scheint in diesem Zusammenhang der Hinweis auf die übliche niedrige Versuchsanzahl von 16 relevant. >und: Ja ich habe Leventhals Zahlen auch >gelesen und verstanden, dass es mit 16 nix bis wenig bringt. >Übrigens hattest du mal 16 Stück in den Raum geworfen, ich >kann mich aber nicht daran erinnern, das gesagt zu haben: Ich kann mich auch nicht erinnern, etwas anderes behauptet zu haben. Allerdings schlug ich es vor mit dem Zusatz, daß 16 Durchgänge möglich wären, bei guter Form der Testperson und relativ großen Unterschieden. >Das ist deine Aussage, die mußt du schon selbst belegen. >Ich habe das Frauenhofer zitiert. Nicht nur, Du schriebst auch, daß außer Goldohren.... Insofern ersparen wir uns beide die Nachweise; falls ich falsch gelegen habe, wird Trancemeister mich korrigieren. Grüsse
  22. >Skepsis ist immer angebracht, mein Statement bezog sich nicht >nur auf "Voodoo-Zubehör". Glücklicherweise ist wohl fast jeder >mit durchschnittlichem Gehör in der Lage Lautsprecher auch >geblindet zu unterscheiden. Wobei dies nicht die Frage war, sondern wie er sich beim Hören (und wichtiger noch beim Kauf) von Lautsprechern vor seiner offenkundig übermächtigen Erwartungshaltung schützt. >Nochmals, der DBT dient >normalerweise nicht als Test auf besser oder schlechter, >sondern auf unterscheidbar! Ein Blindtest soll die Erwartungshaltung als Störgröße ausblenden. Wenn man also die Erwartungshaltung als Auslöser für falsche Entscheidungen ernstnimmt, ergeben sich daraus zwangsläufig weitreichende Auswirkungen auf die Entscheidungspraxis. >Dies wird von vielen HighEndern >bewußt nicht verstanden. Ich glaube, es ist müßig, über bewußte Fehlannahmen zu spekulieren. >Sobald es einen Grund gibt eine Wirkung anzunehmen kann man >versuchen sie zu beweisen oder zu verwerfen. Solange es keinen >physikalischen Grund gibt eine Wirkung zu vermuten und auch >niemand eine Wirkung feststellen kann (z.B. bei >Magnetisierern) sehe ich nicht, dass irgendwer erst die >Weltformel finden muß, ehe davon auszugehen ist, dass keine >Wirkung vorliegt. Marcel V. hat es richtigerweise beschrieben; in der Wissenschaftsgeschichte kann man nachlesen, daß experimentelle (sehr häufig auch rein zufällige) Beobachtungen Auslöser für weitere Untersuchungen sind. Woher weiß man z.B., daß keine Wirkung feststellbar ist? Ich würde sagen, bislang hat es noch keine tiefgreifenden Untersuchungen gegeben. M.E. gab es nur Messungen bezüglich der Magnetisierbarkeit von CDs und wundersamerweise stellte man fest, daß diese kein ferromagnetisches Verhalten aufwiesen. Eine neue Weltformel scheint also nicht nötig, aber für eine Unmöglichkeitsbehauptung bedarf es eines Nachweises. Wie häufiger gesagt, die Behauptung, es sei kein Effekt nachgewiesen, ist absolut legitim. Grüsse
  23. >Ach so, also die Aussagen von Teilsätze kann ich auch >umdrehen: ??? welche Aussage Deines Teilsatzes wurde umgedreht? M.E. ist es richtig, daß die Trennschärfe (mithin also die Teststärkefunktion) durch Erhöhung der Stichprobengröße verbessert wird. Ich gehe davon aus, daß Du dies auch so gemeint hast, also welche Aussage wurde umgedreht? >Hm, das ist eine allgemeine Aussage von (guten) >Gütefunktionen, aber gegen allgemeine Aussagen hast du ja was, >gell? ???? >Beta ist immer noch nicht bekannt, oder hab' ich hier was >verpasst? Du replizierst doch nur zum x-ten mal die Aussage >über die Gütefunktion. Wenn Beta nicht kleiner wird, wieso schreibst du dann, daß die Trennschärfe bei großem Stichprobenumfang besser ist? Und ja es stimmt, Beta ist nicht bekannt, aber wie hinlänglich beschrieben, und zur Not auch bei Leventhal (und vermutlich jedem anderen Text zu statistischen Tests nachlesbar) macht man in diesem Fall Annahmen für die Wahrscheinlichkeit und kann dann für jede dieser angenommenen Wahrscheinlichkeiten den Beta-Fehler berechnen. Leventhal tat dies für die Wahrscheinlichkeiten 0.6,0.7,0.8 und 0.9 und siehe da, bei gleichgehaltenem Alpha-Fehler sinkt der Beta-Fehler mit zunehmendem Stichprobenumfang. Wie gesagt, dies kann Dich nicht überraschen, denn woher sollte sonst die bessere Trennschärfe bei großem Stichprobenumfang kommen??? >Desweiteren verstehe ich deine Aussage meines Teilssatzes >nicht so wirklich... Ist ja Allgemeinwissen, und... s.o. Das >habe ich schon vor Äonen geschrieben (konsistent und so). Oder >hast du immer noch solche Probleme mit den Fachbegriffen? EBEN. Vielleicht verstehst Du langsam meine Verwunderung ob unserer wahrlich grotesken Diskussion. >Und wo bitte hab' ich folgendes geschrieben? >>Wieso Du darauf bestandest, die Stichprobengröße hätte auf >die >>Wahrscheinlichkeit des Beta-Fehlers keinen Einfluß, obwohl >Du >>selber das Gegenteil (im Umweg über die Gütefunktion) >>schreibst, bleibt überaus rätselhaft. >Quelle! Und bitte keine Teilsätze... Du hattest explizit geschrieben, daß die Fehler nicht direkt vom Stichprobenumfang abhängen, und ausgeführt, daß bei Deinen Quellen (Büning/Trenkler & Matheboard) in den zitierten Sätzen zu den Fehlerarten der Stichprobenumfang nicht erwähnt wird, und daß es mir doch einleuchten müsse, das daraus folge, dieser sei auch nicht von Belang, weil er sonst erwähnt worden wäre. >Was du aber immer noch nicht verstanden hast (was aber in >meinem Text steht): Ich gehe davon aus, dass p=0,5 nicht >verworfen wird. (Lustigerweise wäre mir ein Fehler 2. Art bei >p=1 egal; Erklärung siehe letzter Beitrag.) >Wenn wir jetzt wirklich ein p*>0,5 annehmen, was aber nicht >entdeckt wird, dann muß das (bei genügend großem n).... Kobe, lies Dir doch bitte Leventhals Exerpte durch. Der Ausgangspunkt war doch gerade, daß der so gern durchgeführte ABX-Test mit 16 Durchgängen bei dem üblichen SL=0.05 aufgrund des geringen Stichprobenumfanges Gefahr läuft, relativ geringe Erkennungswahrscheinlichkeiten zu übersehen. (Hohe Wahrscheinlichkeit für einen Fehler 2.Art). Die Wahrscheinlichkeit für einen Fehler 2.Art bei dieser Art von Test mit 16 Durchgängen ist selbst für Erkennungswahrscheinlichkeiten von 0.7 und 0.8 immer noch sehr (erschreckend) hoch. >Was aber die Goldöhrchen gerade nicht >behaupten, immerhin kann man das ja mit Mittelohrentzündung >noch unterscheiden... Na gut, wir können das Test-Spiel auch >mit Hunden machen. Es mag an mir liegen, aber ich finde, eine behauptete Unmöglichkeit mindestens ebenso großspurig wie Deine "Mittelohrentzündungsthese". >Aber Aussagen will hier ja niemand, gell? Eine der berüchtigten Vermutungen!? >>Der eine mag sie, wie Du, dann für unwichtig halten. >>Ein anderer mag vermuten, daß auch geringere Unterschiede >beim >>normalen (Langzeit)-Hören stärker ins Gewicht fallen. >> >>Meine Position wäre eher, bei vorher behaupteter >Unmöglichkeit >>eines Unterschiedes, auch kleinere >>Erkennungswahrscheinlichkeiten schon für wichtig zu halten. > >Erstens geht man davon aus, dass das 'Hörgedächtnis' eher ein >kurzlebiges ist (ich beziehe mich einfach mal auf andreasw),.... das ist an dieser Stelle gefährlich, denn andreasw sucht noch nach Quellen Auch die Wahrnehmungsforschung ist hier anderer Ansicht. >zweitens: Wenn du schon die Physik, Akustik und den Rest der >Welt revolutionieren willst, dann sollte man mal wenigstens >für 5 Pfennige einen Anhaltspunkt finden... Irgendwo, >irgendwann... >Und sich nicht mit schlechten Diskussionsstilen, dem >unzureichenden Umgang mit den verwendeten Methoden und einem >Grundlagenwissen, dass irgendwo gegen 0 geht, auszeichnen... Der Vermutungsgroßmeister ist unermüdlich. >Und ich werde jetzt Trancemeister nicht fragen, was er wann zu >MP3s gesagt hat... Selbstschutz ist ein nachvollziehbares Ansinnen. Grüsse
  24. ... bei MP3 gesellte sich, wenn mich meine Erinnerung nicht trügt, in diesem Falle auch Trancemeister, der hier zumindest in dieser allumfassenden Darstellung widersprach; wenn auch mit dem (?sinngemäßen?) Zusatz "falls man weiß, worauf man achten muß" . Eine Ansicht, die bei Betrachtung der verwendeten Technik, auch logisch erscheint; allerdings weiß ich nicht, wie sie zustande kam, soll heißen, ob Blindtest bewehrt oder nicht. Grüsse
  25. ...für welche Aussage? Grüsse
×
×
  • Neu erstellen...