Jump to content
HiFi Heimkino Forum

Kobe

Mitglieder
  • Gesamte Inhalte

    871
  • Benutzer seit

  • Letzter Besuch

Alle erstellten Inhalte von Kobe

  1. Und schon wieder kämpft Super-Kobe gegen das dumme Gelaber: >>Da allerdings bisher H0 (p=0,5) nicht verworfen wurde (oder >>kennt jemand eine Quelle?) kann man sich die Prozedur auch >>sparen. > >Aus statistischer Sicht ist auch dies interessant, nicht >wahr? Ja, genau. Oder willst du auf p<>0,5 testen, wenn es KEINEN Hinweis darauf gibt? >Es stützt die auch hier schon postulierte These, daß es >bislang eher wenige DBTs gab. Wieder mal ohne Quellenangabe... Und ich denke, die Jungs aus Amiland testen ständig, deswegen gibt es die große Debatte? Ist der Artikel von Leventhal etwa total sinnlos? >>Leider kann ich dazu keine gute Quelle im www finden (ich >>besitze (mit Ausnahme meines Statistik-Skripts) auch keine >>Literatur dazu), ich muß den interessierten Mitleser leider >>bitten, selbst mal Google anzuwerfen. Es geht hier generell >um >>multiples Testen. > >Wobei der Begriff multiples Testen eigentlich ein anderes >Testszenario zu meinen scheint, als im unserem Falle. Oh, DU vermutest??? Dann begründe mal! >Aber, wie Du schon sagst, da wir _überhaupt keine_ >angenommenen Alternativhypothesen haben, erübrigt sich weitere >Testverfahren zur Absicherung niedriger Alpha-Fehler. Das ist so lächerlich wachsweich formuliert, dass nicht mal das absolute Gegenteil davon falsch oder wahr ist. H1 existiert, und ist auch bekannt, aber H0 wurde bis jetzt nicht verworfen, oder was meinst du? Du kannst ja auf der nächsten Rede zu einem von deinen nächsten Nobelpreisen das Forum grüßen. Gruß Super-Kobe
  2. Gude! Naja, nur weil's hier vielleicht keine Mitleser mehr gibt (was ich aber nicht vermute; im übrigen ist der blöde Kommentar mit dem 'Meister im Vermuten' oder so ähnlich bei mir wohl eher falsch angebracht) kann man sich immer noch beim Lernen Mühe geben, aber es war ja auch nicht anders zu Vermuten: >Deine Behauptung stieß auf einen großen Vertrauensbonun, umso >größer die Überraschung ob zahlreicher merwürdiger Beiträge. > >Und Leventhal schrieb einen guten Artikel, den Du hättest >einfach lesen sollen. Wie ich bereits etliche Male schrieb, hätten manchmal einfach ein paar Begriffe Fachchinesich genügt... Güte-, Test- und Schätzfunktion z. Bsp., aber woher nehmen? >Was andere Vermutungskünstler mit ähnlich gelagerten >Wahrnehmungproblemen an Schlüssen ziehen, kann und muß nicht >immer meine Sorge sein. Nun ja, immerhin hab' ich insoweit ein Wahrnehmungproblem, dass ich keine gegenteilige Test kenne, Beta für was für ein p hin oder her... Fakt ist, dass du nicht in der Lage bist, die Quelle für einen gegenteiligen Test zu liefern... Aber ist klar, dass ich keine Ahnung habe, ist nur logisch. Und wenn wir uns mal die Mühe machen, ein wenig zurückzublättern, werden wir feststellen, dass besagte Werte für p von dir gepostet wurden. Ich habe mit deinem Zahlenbeispiel mal einfach so weitergerechnet. Klar, die Zahlen, jajaja, schon klar. Und das schöne: Wieder mal einfach so ein paar Aussagen in den Raum geworfen ('Wobei der Ablehungsbereich erst bei >=9 richtigen beginnt...'), blödes Gelaber, hauptsache mal was geschrieben, sag' doch einfach mal, was du willst, wenn meine Zahlen falsch sind, dann rechne sie doch einfach mal nach (Mach doch einfach mal!), oder wasweißich (es ist jetzt nämlich nicht so (wie der Eindruck erweckt wird), dass meine Zahlen falsch wären (nehme ich mal an, ich hab' sie nicht mehr verifziert), nein, es geht einfach 'auf die nächste Ebene', lockeres Gespringe, ja keine Aussagen machen. >Bei idealen Tests wäre vermutlich eine Summation der Einzeltestergebnisse mit anschließender Neuauswertung statthaft, in der Realität ist es wohl nicht zulässig.< Glaubst du wirklich, dass nie mal jemand auf die Idee kam, das Verhältnis der richtigen Antworten zum Stichprobenumfang zu rechnen? Du windest dich wie ein Wurm, dem jemand mit dem Stiefelabsatz auf den Schwanz steht (und mach' dir bitte an dieser Stelle keine Gedanken über meinen Stil; ich kenne genug Germanisten, die ich dazu fragen könnte). Oder gibt's demnächst für dich noch 'nen Nobelpreis Literatur? Das mit Nobelpreis Physik scheint ja nicht zu klappen, die Revolution der Statistik ist ja auch ausgeblieben bzw. verschoben worden, und jetzt kann ja nur die Revolution der Psychologie folgen. Ist schon klar... Wann kommt der Nobelpreis für Medizin (für die Revolution der Psychologie)? Nächstes oder übernächstes Jahr? Ist halt immer wieder arm von dir, aber solange es keinen Hinweis auf p<>0,5 gibt, tja, was soll ich noch sagen? Es wäre schön, wenn's mal Butter bei die Fisch gäbe. Ansonsten ist das hier wirklich erbärmlich. Gruß Kobe P.S.: Weil's einfach stimmt: Einfach mal bei Wikipedia.de den Suchbegriff Pseudowissenschaft eingeben. Oder: http://de.wikipedia.org/wiki/Pseudowissenschaft Ich darf zitieren: Einordnung von Pseudowissenschaften Pseudowissenschaften entsprechen nicht den Kriterien zeitgenössischer Wissenschaften und richten sich insbesondere nicht nach der wissenschaftlichen Methode. Folgende Merkmale sind starke Indikatoren für Pseudowissenschaftlichkeit: * Aufstellung von Behauptungen ohne deren Stützung durch experimentelle Resultate. * Aufstellung von Behauptungen, die im Widerspruch zu experimentell erwiesenen Resultaten stehen. * Selektive Auswahl von Daten zur Begründung einer Behauptung und systematische Unterdrückung solcher Daten die dieser Behauptung entgegenstehen. * Unklare, nicht nachvollziehbare Herkunft von Proben an denen Experimente zur Stützung einer Behauptung durchgeführt wurden. * Aufstellen von Behauptungen, die sich auf andere Referenzen und Quellen stützen die selbst wiederum nicht nachprüfbar oder unsicher sind, oder die falsch bzw. suggestiv zitiert werden. * Ungenaue oder ganz fehlende Beschreibung der experimentellen oder theoretischen Vorgehensweise zur Erlangung eines Resultates. * Fehlende Überprüfbarkeit durch reproduzierbare Experimente (siehe Falsifizierbarkeit).
  3. Gude! Zum einen: Nachobenschieb. Zum anderen: Ich finde es erschreckend, hier das letzte Wort zu haben. Und ich warte hier noch auf das übliche getrolle. Es gibt ja genug Ansatzpunkte, ich geb' mal ein paar an: Konservativer Test, Testverfahren bzw. -design, Stichprobenumfang, Gegeifer, (Hör-)Gedächtnis,...
  4. Gude! Auch wenn hier wirklich niemand an Ergebnissen interessiert ist: Das oben erwähnte Verfahren ist das Holm- bzw. Bonferroni-Holm-Verfahren. Es geht darum: Macht man viele Tests, so wird bei einigen irrtümlich H1 angenommen. Holm vermeidet diesen Effekt durch eine 'multiple Irrtumswahrscheinlichkeit' alpha. Allerdings ist das ein konservativer Test, er begünstigt H0. Da allerdings bisher H0 (p=0,5) nicht verworfen wurde (oder kennt jemand eine Quelle?) kann man sich die Prozedur auch sparen. Leider kann ich dazu keine gute Quelle im www finden (ich besitze (mit Ausnahme meines Statistik-Skripts) auch keine Literatur dazu), ich muß den interessierten Mitleser leider bitten, selbst mal Google anzuwerfen. Es geht hier generell um multiples Testen. Der ursprüngliche Artikel war: Holm S. A Simple Sequentially Rejective Multiple Test Procedure. Scand. J. Statist.1979; 6: 65-70 Sorry, aber hier wird's langsam zu speziell für vernünftige Quellen. Gruß Kobe Anmerkung: Einen Überblick über's Verfahren hab' ich doch gefunden (PostScript-Datei): www.stat.unibe.ch/~duembgen/EinfStat/Tests.ps
  5. Gude! Was mir persönlich auffällt ist die Weigerung, die eigenen Fähigkeiten anzuzweifeln... Bei dem Kabeltest in dem einen Forum war es ja ähnlich. Ich frage mich, wo wir heute wären, wenn das mal als wissenschaftliche Methode anerkannt worden wäre. Es tut mir irgendwo schon Leid für den Ausdruck, aber das sind echt Spinner unterwegs. (Na gut, ich versuche ja auch immer mal wieder, ein Verfahren für die Faktorisierung großer Zahlen zu entwickln/entdecken...) Gruß Kobe Quelle: http://www.zeit.de/2004/43/Skeptiker Gesellschaft Alles Hokuspokus Deutsche Skeptiker testeten die übersinnlichen Fähigkeiten von Psychokinetikern, Wasserbehandlern und Wünschelrutengängern Von Christoph Drösser Der Proband atmet tief ein, konzentriert sich und macht dann einige mutige Schritte auf den glühenden Kohlen. Dann schreit er auf und hüpft mit schmerzverzerrtem Gesicht von der heißen Bahn herunter. Die Physik mit Bewusstseinsenergie außer Kraft setzen? Von wegen – der Feuerlauf gehorcht simplen Regeln, und die schönste Meditation verhindert nicht, dass man sich nach ein paar Metern gehörig die Sohlen versengt. Schelmisch grinst der Skeptiker Richard Wiseman, der für die britische BBC die Feuerläufer vorgeführt hat. Besonders im angelsächsischen Raum haben die Verfechter eines wissenschaftlichen Weltbildes ihren Spaß daran. Am vergangenen Wochenende trafen sie sich zu ihrem fünften Weltkongress im italienischen Abano Terme und tauschten viele dieser Geschichten aus. Zu den prominentesten Investigatoren des Übersinnlichen gehört Joe Nickell vom Committee for the Scientific Investigation of Claims of the Paranormal (CSICOP) in den USA. Der berichtete genüsslich davon, wie er nach 50 Jahren den Fall des »Flatwood Monster« löste, eines furchterregenden Wesens angeblich außerirdischer Herkunft – es war wohl eine Eule. Das Häuflein der deutschen Skeptiker, zusammengeschlossen in der Gesellschaft zur wissenschaftlichen Untersuchung von Parawissenschaften (GWUP), hielt sich bisher zurück bei der Untersuchung konkreter Parabehauptungen und pflegte eher den theoretischen Diskurs. In diesem Sommer jedoch ließ man sich darauf ein, die Fähigkeiten von selbst ernannten Wünschelrutengängern, Psychokinetikern und Wasserbehandlern zu testen – als nationale Vorauswahl für den Preis von einer Million Dollar, den der amerikanische Zauberkünstler und Skeptiker James Randi für den Nachweis paranormaler Fähigkeiten ausgesetzt hat. Das Ergebnis der Tests war in dieser Woche in den Sendungen Quarks & Co. (WDR 3) und W wie Wissen (ARD) zu sehen: Keiner der Kandidaten konnte seine angeblichen Psi-Kräfte unter Beweis stellen. Die Rutengänger, die verborgene wassergefüllte Gefäße aufspüren sollten, waren nicht besser, als bei zufälligem Raten zu erwarten gewesen wäre. Am besten schnitt noch Peter Schick ab, der behauptet hatte, den Geschmack von Leitungswasser durch psychische Energie verändern zu können: In der ersten Versuchsreihe konnte er in 34 von 50 Blindtests behandeltes von unbehandeltem Wasser unterscheiden – statistisch zu erwarten gewesen wären nur 25. Allerdings konnte er dieses Ergebnis im zweiten Test nicht wiederholen, da gelang ihm die korrekte Identifizierung nur 22-mal. Der Magier Randi macht sich gern lustig über die Menschen, die sich um seinen auf einem Sperrkonto deponierten Millionenpreis bewerben – etwa die beiden Brüder aus Dubai, die behaupten, dass sie es sind, die jeden Morgen die Sonne aufgehen lassen. Die deutschen Skeptiker legen Wert darauf, die Zeitgenossen nicht vorzuführen, die in vollem Vertrauen auf ihre übernatürlichen Kräfte zum Test erscheinen und dann durchfallen. Das Protokoll wird bis ins Detail mit den Kandidaten abgesprochen, und ihnen wird mehrfach ans Herz gelegt, den Versuch vorher zu Hause auszuprobieren, um sich Enttäuschungen zu ersparen. Aber auch das negative Resultat kann den Wunderglauben der meisten nicht erschüttern: Lediglich einer der 15 Getesteten hegte nachher Zweifel an den eigenen Fähigkeiten, berichtet GWUP-Geschäftsführer Martin Mahner – die anderen suchten und fanden irgendeine Erklärung für ihr Versagen. Spektakuläre Herausforderungen wie der Randi-Preis ziehen natürlich vor allem die Spinner und Außenseiter an, die Vertreter der wissenschaftlichen Parapsychologie beteiligen sich an einem solchen Spektakel nicht. Aber auch sie können keine handgreiflichen Ergebnisse vorweisen. Gehen den Skeptikern die Gegner aus? Die deutsche Gruppe will sich in der Zukunft vor allem die allerorts sprießenden Methoden der Alternativmedizin vorknöpfen. So planen sie eine große Studie zur Homöopathie, die nach strengem wissenschaftlichen Protokoll gemeinsam mit den Anhängern der Verdünnungs-Lehre durchgeführt wird. Sie soll endlich klären, ob dahinter mehr steckt als eine Placebo-Wirkung.
  6. Gude! >dass es ihnen gar nicht (mehr) um die Sache geht, die doch eigentlich >schon interessant wäre. Na, dann kann ich ja wenigstens nicht gemeint sein. DAS nenne ich mal ein Lob! Dank & Gruß Kobe
  7. Gude! "Vielleicht isses nur eingebildet geiler, aber geiler is geiler...." Tja, vielleicht geht es uns allen mit irgendwas so... Wir waren vor einiger Zeit mal Ausrichter der Stadtmeisterschaft (Fußball), und zum Finale der 2. Mannschaften (wo ich selbst gespielt habe) lief beim Einlaufen volle Suppe Hells Bells (du als Hamburger kennst das ja sicher; äh, ich weiß jetzt nicht ganz so, warum, vielleicht, weil meine PA da rumstand...). Es hat sogar (nachher auch noch) den Verlierern gefallen... Hat schon Spaß gemacht, da hat erst mal jeder den Bauch eingezogen und die Brust rausgestreckt. Um mal vom OT wegzukommen: Mich ärgert halt nur, dass man m.E. keine Hifi-Zeitschrift mehr kaufen kann, weil sich ein großer Teil über so einen Mist dreht... Man könnte ja mal wirklich was machen (Raumakustik oder ein Elektronik-Workshop für'n Selbstbau bspw.), aber nein, wenn der Bass dröhnt, ist ja die Netzleiste dran schuld... Von kritischer Berichterstattung der Produkte mal abgesehen. Vor allem, wenn die Lieblinge der Redaktion getestet werden. Aber das ist m.E. ein generelles Problem des deutschen Zeitschriftenmarkts; es gibt bspw. kein vernünftiges Männermagazin für Politik, Wirtschaft, Wissenschaft & Technik, Kunst & Kultur usw. mit einem gehobenem Anspruch. (Ich meine jetzt nicht die Qualität der Wixvorlagen, die ist ok.) Gewürzt mit ein paar interessanten und witzigen Kolumnen, also so richtig mit Anspruch das Ganze. Naja, im nächsten Leben. Gruß Kobe
  8. Gude! Hm, könnte den Herstellern von CD-Magnetisieren oder ähnlichem Kram jetzt mulmig werden, da der Staatsanwalt vor der Tür steht? Oder geht das nur privatrechtlich? Man sollte weiterverfolgen, ob sich die Jungs jetzt vom Acker machen... Gruß Kobe
  9. Gude! Ich bekomme halt Magengeschwüre, Kopfschmerzen und so ein komisches Stechen in der Brust, so um die Herzgegend rum, wenn ich sehe, wie hier die Mathematik vergewaltigt wird. Vergleichbares ist/war bei meinen Studienkollegen auch zu bemerken... Scheint sich doch um Liebe zu handeln. Gruß Kobe
  10. Gude! Wie bereits erwähnt, kenne ich den Ausgangspunkt der Debatte immer noch recht gut, und hatte auch 2 (glaub' ich) Einträge weiter oben entsprechende Antwort von dir an Trancemeister gepostet... Damals warst du noch der Meinung, 16 Versuche reichen. Und jetzt willst du Argumentieren, besagte 16 sind zu wenig? Ich überlasse jetzt dem geneigten (Mit-)Leser die Interpretation. Desweiteren habe ich mich schon damals in der Hinsicht geoutet, dass ich was von Statistik verstehe... Und Leventhal hätte auch einfach besagte Grafik benutzen können... Aber bevor du hier weiter geiferst, würde ich gerne wissen, was an besagtem Testdesign falsch war, zudem das Ergebnis eindeutig war, weshalb man auf eine Verifizierung verzichten kann... Du wirst zugeben, dass ein generelles: 'Das ist falsch' nicht besonder produktiv ist, und sogar den Verdacht weckt, man hätte keine Ahnung und spielt hier den Troll. Und ich möchte doch nicht, dass du besagten Eindruck erweckst. Das mit dem weiterrechnen der alphas muß ich nochmal genau nachschlagen (mir fällt gerade das Testverfahren nicht ein, und ich komme gerade auch nicht an vernünftige Unterlagen; das wurde mal in einer Vorlesung kurz behandelt, dass muß ich erst im Skript suchen), aber das geht schon ganz gut. Um mal bei deinem Beispiel zu bleiben (wenn ich jetzt nicht gerade falsch rechne; ich war gerade Essen und brauch eigentlich erst mal Kaffee): Das Alpha beträgt für 7 von 10 bei p=0,5 0,1718..., bei 8 von 10 0,0546... Aber folgendes ist interessant: Die Wahrscheinlichkeit bei p=0,7 0-7 von 10 zu treffen (also ist das hier die 'Dichtefunktion') ist 0,6172... Für 10 Testreihen (ohne Fehler) ist sie 0,6172...^10 = 0,0082 ; also geringer als 1%, während das bei p=0,5 0,9453... und entsprechend 0,5698... Bei p=0,7 ist also die Wahrscheinlichkeit, 10 mal nicht mehr als 7 Treffer bei 10 Versuchen zu haben unter 1%, während sie bei p=0,5 bei knapp 57% liegt. Man sieht also ganz gut, was ich meine. Und wenn man jetzt eine ganze Menge Tests mit n=16 hat, kann man da schon was machen. >Es hängt halt von den Annahmen ab; liegt die Erkennungswahrscheinlichkeit bei 0.9 sind 16 Versuche fast schon übertrieben.< Nach eigenen Aussagen ist der Unterschied gewaltig. Gruß Kobe
  11. Gude! >>Sowas wird übrigens empfohlen, und kein >>blödsinngerechne mit fiktiven Betas. >KOBE!!! BITTE!!! >Die gängige Praxis (an der sich übrigens bis heute nicht viel >geändert hat) war, ABX-Tests mit 16 Durchgängen anzuwenden. Diese gängige Praxis stand hier nie zur Debatte, und wurde auch nie in diesem Zusammenhang erwähnt. Mit der Ausnahme, dass du 16 Durchgänge vorgeschlagen hast (siehe Link im letzten Beitrag von mir). >Dazu war das "blödsinngerechne" absolut sinnvoll. Ein Hinweis auf die Gütefunktion für verschiedene n hätte auch gereicht. Grafiken gibt's in jedem besserem Statistikbuch. >>Und Beta ist für mich einfach eine Variable, die nicht mal >>fest ist (da nicht bekannt). >Man kann einer Variablen das "Nichtfestsein" aber auch nur >schwerlich übelnehmen, nicht wahr? Es gibt die schöne Aussage: "Sei x eine Variable, beliebig, aber fest." Findet man in der Mathematik öfter. >>Ich rede auch nicht von einem Stichprobenumfang von 16 oder >>so, ich gehe von einer Stichprobe aus, mit der man arbeiten >>kann (mindestens 50-100; das ist von einer Gruppe von Leuten >>ja zu realisieren), > >Ist ja auch vernünftig, genau dies ist aber der Unterschied zu >den meist durchgeführten Blindtests. In welchem Forum war es, wo auf Kabel getestet wurde? Und halt wieder mal 0,5 rauskamm? Das waren (ich glaube so 15-20 Leute, ich kann mich aber auch irren...), oder der c't-Test mit MP3s? Oder der Test, der mal in der Klang&Ton erwähnt wurde? Gibt's eigentlich andere Ergebnisse? >BTW, Du hattest die Frage aufgeworfen, wieso denn trotz allem >so viele negative Blindtests existieren; mir scheint in diesem >Zusammenhang der Hinweis auf die übliche niedrige >Versuchsanzahl von 16 relevant. Nein, leider nicht. Wenn viele Test (auch mit dem Stichprobenumfang 16) gemacht wurden, greift auch das Beta nicht mehr, dann kann man den Zufall schon annehmen. Das machen schon alleine die Alphas. Ist übrigens ein beliebtes Mittel. > Allerdings schlug ich es vor mit dem Zusatz, daß 16 >Durchgänge möglich wären, bei guter Form der Testperson und >relativ großen Unterschieden. Naja, was für die eine Seite gilt, gilt auch für die andere. 16 ist schon wenig. >>Das ist deine Aussage, die mußt du schon selbst belegen. >>Ich habe das Frauenhofer zitiert. >Nicht nur, Du schriebst auch, daß außer Goldohren.... Wir können hier ja gern mal eine Umfrage zu dem Thema machen. Gruß Kobe
  12. Gude! Naja, ich will's mal so schreiben: Ich hatte mich dazu geäußert, dass der Fehler 2. Art m.E. egal ist, wenn wir auf p=0,5 oder p=1 testen und die Stichprobe genügend groß ist (genaueres weiter oben; Beitrag 193). Ich bezug mich im weiteren darauf, was dann der Fehler 2. Art bedeutet. Nämlich bei p=1, dass die Techniker benachteiligt werden, was aber egal ist, da dann p* nahe genug bei 1 liegt, die Unterscheidbarkeit (also p*>0,5) begründet ist. Und das, wenn bei einem Test auf p=0,5 und p* etwas größer als 0,5, zwar ein Fehler 2. Art vorliegt, dass aber dann der Aufwand der Mittel in keinem Verhältnis zum Nutzen liegt, zudem sich dies mit den Erkenntnissen der restlichen Wissenschaftswelt deckt, und auch im Gegensatz zu Aussagen der Testpersonen liegt (und die schreiben schon, man kann das mit einer Mittelohrentzündung unterscheiden; und vielleicht gibt's ja wirklich Goldöhrchen?). Du hattest meine Ansichten zu p* ungefähr 0,5 kritisiert, also gehe ich davon aus, dass du weiterhin davon schreibst... Oder kriegst du dein eigenes Springen nicht mehr gebacken? Fakt (und Banal) ist, dass ich zu jedem p bei beliebigem Beta ein p* berechnen kann, es liegt halt bei steigendem n immer näher an p... Ich schrieb was von 0,55 oder 0,6; dass sind Werte, bei denen der Fehler 1. Art schon greifen müsste (zudem man ja noch auf Runs testen kann), auf jeden Fall schreit das nach weiteren Tests. Sowas wird übrigens empfohlen, und kein blödsinngerechne mit fiktiven Betas. Und Beta ist für mich einfach eine Variable, die nicht mal fest ist (da nicht bekannt). Und dann wird das Beta auch nur unwesentlich kleiner, wenn p* nahe genug bei 0,5 liegt (was ja oben angenommen wurde), auf jeden Fall nicht so klein, dass ich es mal locker verwerfen könnte. Ich rede auch nicht von einem Stichprobenumfang von 16 oder so, ich gehe von einer Stichprobe aus, mit der man arbeiten kann (mindestens 50-100; das ist von einer Gruppe von Leuten ja zu realisieren), und: Ja ich habe Leventhals Zahlen auch gelesen und verstanden, dass es mit 16 nix bis wenig bringt. Übrigens hattest du mal 16 Stück in den Raum geworfen, ich kann mich aber nicht daran erinnern, das gesagt zu haben: http://www.audiomap.de/forum/index.php/az/...id/17930/page/2 >>Und ich werde jetzt Trancemeister nicht fragen, was er wann >zu >>MP3s gesagt hat... >Selbstschutz ist ein nachvollziehbares Ansinnen. Das ist deine Aussage, die mußt du schon selbst belegen. Ich habe das Frauenhofer zitiert. Kobe
  13. Kobe

    Wünschelruten versagen im Test

    Gude! Wieder mal völlig OT, aber Morgen (Mittwoch) läuft die Sendung. Gruß Kobe http://www.spiegel.de/wissenschaft/mensch/...,322722,00.html MILLIONEN-PREISGELD VERSPIELT Wünschelruten versagen im Test 13 Wünschelrutengänger und Geistheiler sind zu einem skurrilen Versuch angetreten: Im wissenschaftlichen Experiment sollten sie ihre übersinnlichen Fähigkeiten beweisen. Doch selbst ein Preisgeld von einer Million Dollar ließ Ruten und Geisteskräfte nicht funktionieren. Wünschelrutengänger: "Weniger Treffer als ein Zufallsgenerator" Das Experiment war bizarr, das Ergebnis profan: Die Wünschelrutengänger und Geistheiler aus Deutschland waren erwartungsgemäß nicht in der Lage, in wissenschaftlichen Tests ihre angeblichen Fähigkeiten nachzuweisen. Damit haben sie das Preisgeld von einer Million Dollar (800.000 Euro) verspielt. In den vergangenen Monaten hatte die Gesellschaft zur wissenschaftlichen Untersuchung von Parawissenschaften (GWUP) im südhessischen Roßdorf 13 Kandidaten geprüft, sagte GWUP-Vorsitzender Amardeo Sarma. "Keiner von ihnen hatte mehr Treffer als ein Zufallsgenerator." Das Preisgeld hatte der US-amerikanische Trick-Experte James Randi ausgeschrieben. Daraufhin hatten sich vor allem Wünschelrutengänger gemeldet. Sie mussten insgesamt 13 Mal einen Parcours mit zehn Eimern durchlaufen. Dabei war jeweils unter einem anderen Eimer das Material versteckt, das sie aufspüren sollten. "Nach dem Zufallprinzip würde man im Schnitt mit 1,3 Treffern rechnen", erklärte Sarma. "Die Quote bei den Versuchspersonen lag sogar noch darunter." Wein und Wasser blieben unbeeindruckt Mit einem ähnlichen Verfahren wurden Probanden getestet, die nach eigenen Angaben allein durch Geisteskraft den Geschmack von Wein und von Wasser verändern können. Bei den Versuchen waren sie allerdings nicht in der Lage, die von ihnen beeinflusste Flüssigkeit später wieder aus mehreren Angeboten eindeutig herauszuschmecken. "Nur einer von ihnen hatte im ersten Durchgang Werte über dem erwarteten Durchschnitt. Bei einem zweiten Durchlauf konnte er dieses Resultat aber nicht bestätigen", sagte Sarma. Die Tests seien kein Beweis dafür, dass es keine übersinnlichen Fähigkeiten gibt, stellte der GWUP-Vorsitzende klar. "Es steht nur fest, dass bislang noch kein wissenschaftlicher Beweis für ihre Existenz erbracht worden ist." Die Versuche will Sarma nicht als Blamage für die Probanden werten, sondern dankte ihnen für ihren Mut. Die Aktion diene vielmehr dazu, die Gesellschaft aufzuklären, dass paranormale Phänomene keine Glaubenssache, sondern wissenschaftlich überprüfbar seien. "Wir hoffen, dass unsere Tests von vielen nachgemacht werden." Die Versuche wurden von der ARD aufgezeichnet und sind am heutigen Dienstag ab 21 Uhr in der WDR-Sendung "Quarks & Co" sowie am Mittwoch am 21.45 Uhr in der ARD bei "W wie Wissen" zu sehen.
  14. Gude! Ach so, also die Aussagen von Teilsätze kann ich auch umdrehen: >Um es nochmals zu erwähnen, wir stritten hier die ganze Zeit >über Leventhals Artikel, der zum Ziel hatte, darauf >hinzuweisen, daß zur Verbesserung der Trennschärfe bei relativ >niedrigen Erkennungswahrscheinlichkeiten große Stichproben >notwendig sind. Hm, das ist eine allgemeine Aussage von (guten) Gütefunktionen, aber gegen allgemeine Aussagen hast du ja was, gell? >Warum ist die Trennschärfe bei großen Stichproben besser? Weil >der Beta-Fehler (bei gleichem Alpha-Fehler) bei großen >Stichproben kleiner wird, was naturgemäß nicht ohne Folgen für >die Teststärkefunktion (1-Beta) bleibt. Beta ist immer noch nicht bekannt, oder hab' ich hier was verpasst? Du replizierst doch nur zum x-ten mal die Aussage über die Gütefunktion. Desweiteren verstehe ich deine Aussage meines Teilssatzes nicht so wirklich... Ist ja Allgemeinwissen, und... s.o. Das habe ich schon vor Äonen geschrieben (konsistent und so). Oder hast du immer noch solche Probleme mit den Fachbegriffen? Und wo bitte hab' ich folgendes geschrieben? >Wieso Du darauf bestandest, die Stichprobengröße hätte auf die >Wahrscheinlichkeit des Beta-Fehlers keinen Einfluß, obwohl Du >selber das Gegenteil (im Umweg über die Gütefunktion) >schreibst, bleibt überaus rätselhaft. Quelle! Und bitte keine Teilsätze... Was du aber immer noch nicht verstanden hast (was aber in meinem Text steht): Ich gehe davon aus, dass p=0,5 nicht verworfen wird. (Lustigerweise wäre mir ein Fehler 2. Art bei p=1 egal; Erklärung siehe letzter Beitrag.) Wenn wir jetzt wirklich ein p*>0,5 annehmen, was aber nicht entdeckt wird, dann muß das (bei genügend großem n) schon sehr nahe bei 0,5 liegen. Was aber die Goldöhrchen gerade nicht behaupten, immerhin kann man das ja mit Mittelohrentzündung noch unterscheiden... Na gut, wir können das Test-Spiel auch mit Hunden machen. Aber irgendwann (Beta hin oder her) muß man ja wohl eine Aussage machen. Im Zweifel kann man noch auf 'Runs' testen (gleiche Stichprobe), dann kann man die beiden Alphas miteinander verknüpfen, und hat ruckzuck einen Fehler 1. Art <=1%. Oder man macht den gleichen Test nochmal, mit dem gleichen Ergebnis für's Alpha. Aber Aussagen will hier ja niemand, gell? >Der eine mag sie, wie Du, dann für unwichtig halten. >Ein anderer mag vermuten, daß auch geringere Unterschiede beim >normalen (Langzeit)-Hören stärker ins Gewicht fallen. > >Meine Position wäre eher, bei vorher behaupteter Unmöglichkeit >eines Unterschiedes, auch kleinere >Erkennungswahrscheinlichkeiten schon für wichtig zu halten. Erstens geht man davon aus, dass das 'Hörgedächtnis' eher ein kurzlebiges ist (ich beziehe mich einfach mal auf andreasw), zweitens: Wenn du schon die Physik, Akustik und den Rest der Welt revolutionieren willst, dann sollte man mal wenigstens für 5 Pfennige einen Anhaltspunkt finden... Irgendwo, irgendwann... Und sich nicht mit schlechten Diskussionsstilen, dem unzureichenden Umgang mit den verwendeten Methoden und einem Grundlagenwissen, dass irgendwo gegen 0 geht, auszeichnen... Als man das mit der Quantentheorie mal gemacht hatte, waren die Leute entprechend ausgebildet. Und ich werde jetzt Trancemeister nicht fragen, was er wann zu MP3s gesagt hat... Aber ein schönes Schlußwort hab' ich noch (Auszug): (http://de.wikipedia.org/wiki/Pseudowissenschaft) Pseudowissenschaften entsprechen nicht den Kriterien zeitgenössischer Wissenschaften und richten sich insbesondere nicht nach der wissenschaftlichen Methode. Folgende Merkmale sind starke Indikatoren für Pseudowissenschaftlichkeit: * Aufstellung von Behauptungen ohne deren Stützung durch experimentelle Resultate. * Aufstellung von Behauptungen, die im Widerspruch zu experimentell erwiesenen Resultaten stehen. Kobe
  15. Gude! >Tests sind immer eine schwierige Angelegenheit; im Endeffekt kann man den üblichen BT/DBTs auch nachweisen, daß sie ihre Aufgabe aus den verschiedensten Gründen nicht erfüllen. Einen statistischen Grund hat Leventhal vorgelegt, man kann in den Kommentaren nachlesen, daß die Tester überhaupt nicht begeistert waren, und aufs heftigste, wenn auch zwecklos, da es um in der Statistik lange bekannte Dinge ging, widersprachen, wobei auch allerlei persönliche Anfeindungen nicht zu kurz kamen. Was insbesondere deswegen merkwürdig war, da die Motivation der Tester nach eigenem Bekunden in der angezeigten wissenschaftlichen Objektivität lag.< Also, da ich mal annehme, du meintst damit mich, würde ich doch von dir an dieser Stelle mal die Begründung davon erfahren... Du kennst nicht mal den Unterschied zwischen Test- Schätz- und Gütefunktionen, aber dann eine solche Klappe... Also mal Butter bei die Fische! Kobe
  16. Gude! >Wir reden hier nicht von Beweisen für ein Phänomen, sondern >für die physikalische Unmöglichkeit eines Phänomens. Es wurde >behauptet, jemand, der eine tatsächliche, physikalische >Wirkung von CD-Entmagnetisierern für möglich halte, mache sich >lächerlich. Naja, die Beweiskette wäre schon lustig: Zum einen müsste die CD (bzw. das Alu) auf das magnetische Feld reagieren, bzw. nach der Behandlung immer noch ein Effekt nachweisbar sein und dann müsste dieser auch noch den Laser bzw. den Auslesevorgang verbessern (oder zumindest verändern). Da man aber schon ohne besagte Prozedur Daten auf eine CD brennen und danach bitidentisch wieder auslesen kann, bzw. das Auslesen bei behandelten CDs keinen Unterschied macht, naja, da wird die Decke schon dünner, oder? Und zumindest das mit den unbehandelten CDs kann ich bestätigen, das mache ich am PC schon seit Jahren so, und ich glaube schon, dass ein CRC usw. wesentlich besser Unterschiede beim Auslesevorgang feststellen kann, als mein Gehör, bzw. sich die Daten auf CDs bisher nicht verändert haben (fehlerhafte (zerstörte) CDs mal ausgenommen). OHNE Magnetkrams. Ebenfalls denke ich, wenn es funktionieren würde, dann hätten sich die großen der Branche (Sony, Philips, usw.) da schon draufgestürzt, es wäre ja auch in deren Intresse, die Qualität ihrer Produkte zu verbessern. Und ich glaube hier auch nicht an eine riesige Verschwörungstheorie oder so. Gruß Kobe
  17. Gude! Hm, abe die Psychoakustik sagt da doch etwas anderes aus... Die kommen doch zum einen zum Ergebnis, es reicht, sich auf physikalische Größen (bzw. auf Kombinationen) zu beschränken, zum anderen, daß es jede Menge akustische Täuschungen gibt (aber ich muß zugestehen, dass ich da nicht viel Ahnung (soll heißen: Schulbuchwissen) habe. Zum anderen kommen die doch zum Ergebnis, dass nur 'direkte' Hörtests (ein AB-Vergleich im Sekunden- oder Minutenbereich) überhaupt die Möglichkeit zum Vergleich bieten. Ich weiß nicht, ich bin ja auch jemand, der sich Sachen erst mal kritisch anschaut (wenn ich bedenke, wie lange ich schon gegen die Windmühlen bestimmter Performancemaße in der Kapitalmarkttheorie ankämpfe, und es mache Vorstandsmitglieder bis heute nicht packen, die Dinger korrekt zu verwenden bzw. zu interpretieren), aber generell würde ich einer Wissenschaft, die seit Jahren immer wieder zu Ergebnissen kommt, die sich gegenseitig bestätigen, und die sogar in der Lage ist, meine eigenen Fehler vorherzusagen, schon glauben... Immerhin sind die Jungs so gut, dass sie den MP3-Standard mal locker auf Basis ihrer eigenen Vorhersagen/Erkenntnisse auf dem Gebiet der akustischen Täuschung (bestimmte Verdeckungseffekte) entwickeln konnten, und es bis heute niemanden gibt, der in der Lage ist, diese (bestimmte Datenrate natürlich vorrausgesetzt) vom CD-Standard zu unterscheiden (bis auf jedes Goldöhrchen ohne Bezug zu Wissenschaft und Technik natürlich). Ich darf mal zitieren http://www.iis.fraunhofer.de/amm/techinf/layer3/: In all international listening tests, MPEG Layer-3 impressively proved its superior performance, maintaining the original sound quality at a data reduction of 1:12 (around 64 kbit/s per audio channel). If applications may tolerate a limited bandwidth of around 10 kHz, a reasonable sound quality for stereo signals can be achieved even at a reduction of 1:24. Und immerhin ist das Frauenhofer ein non-profit-Unternehmen (im Unterschied zu Händlern oder Herstellern; auch wenn es Lizenzgebühren gibt, aber aus diesem Grund sind sie ja an einem guten Produkt und nicht an Verarsche interessiert), und extrem Glaubwürdig. Sollte es wirklich mal was gegenteiliges Ergeben, steht das eher heute als morgen in der Presse. Gruß Kobe
  18. Gude! Naja, ich bezog mich im 1. Teil auf etwas anderes, ist in Ordnung, ich erklär's mal: Wenn wir auf p=0,5 testen und einen Fehler 2. Art machen, und die Testperson wirklich einen Unterschied (sagen wir mal mit 55% oder 60%; und die Trennschärfe ist bei einer großen Stichprobe so gut, dass diese Werte schon großzügig geschätzt sind) erkennen kann, so ist das für mich kein Beinbruch. Warum? Ganz einfach: Die (Hör-)Erfahrungen der Goldöhrchen sind ja recht plakativ beschrieben. Manchmal habe ich das Gefühl, selbst ein Tauber müßte das erkennen, und es gibt Leute, die behaupten, ein Hund würde das erkennen. Wenn ich dann den Geldeinsatz (ich meine die Kosten für den Kram) bedenke, dann bin ich der Meinung, dass das auch so sein müßte. Wenn ich jetzt wie ein Homo oeconomicus handele, dann komme ich (bei meiner persönlichen Nutzenfunktion) zu dem Ergebnis, dass es für mich ein unnötiger Einsatz von Mitteln ist, für eine Unterscheidungsrate von etwas mehr als Zufall für ein Kabel bspw. den 10- bis 20-fachen Geldeinsatz zu zahlen. Ich komme dann nämlich zu dem Ergebnis, dass es mehr bringt, in gute LS oder die Raumakustik oder auch in ein Psychoakustikeffektgerät oder... zu investieren, da hier wesentlich mehr Nutzen pro Geldeinheit zu erwarten ist. Zudem eine Erklärung durch die Physik (ok, bei Kabeln kann man wirklich Unterschiede messen; und sicher auch ab einer bestimmten Größe im DBT unterscheiden; aber solchen Schrott sollte man gleich in die Tonne treten, zudem ein EQ billiger und flexibler (und dadurch auch besser) ist) dann immer noch nicht vorliegt, es also immer noch keinen Beweis oder Hinweis für die Existenz eines Effektes gibt. Ich gebe zu, dass das etwas weiter gedacht ist, und hat direkt mit Statistik nichts mehr zu tun, aber man sollte bei jedem Testverfahren auch die Umstände bzw. Auswirkungen im Auge behalten. Man ist ja kein Fachidiot. Gruß Kobe
  19. Gude! Welcher Punkt mich immer wieder fasziniert, und was ich auch nicht nachvollziehen kann: Das den Ohren so absolut getraut wird. Ich meine, bei den Augen sind ja jede Menge Tricks bekannt (es gibt ja genug optische Täuschungen; besonders schön ist m.E. das Bild, auf dem schwarze Quadrate und weiße Kreise angeordnet sind, und man dann schwarze Kreise sieht; oder die ungleichmäßig angeordnetetn schwarzen und weißen Quadrate, und man sieht keine gerade, sondern gebogenen Linien, obwohl man ein Lineal anlegt und feststellt, dass sie gerade sind; besonders schön finde ich da mit den 2 Feldern, die die gleiche Farbe haben, oder auch nicht (ich kuck mir das Ding jetzt schon zum x-ten mal an, und krieg's nicht gebacken): http://www.panoptikum.net/optischetaeuschungen/ ; ungefähr in der Mitte; genau das Teil über den farbigen Kästchen mit Wörtern, die Farben beschreiben, drin); ich meine, klar, ich weiß, was ich da sehe, aber trotzdem lasse ich mich verarschen. Und daraus folgere ich für mich: Wenn das mit den Augen geht, wird es ja erst recht mit den Ohren gehen. (Da gibt's ja auch so Effekte; z. Bsp. eine leichte Erhöhung der Lautstärke.) Ist ja auch OK, ich bin ja schließlich kein geeichtes Messgerät. Gruß Kobe
  20. Gude! Same procedure as last sunday? Same procedure as every sunday. (Soll bedeuten: Kneipe.) Naja, der übliche Diskussionsstil des Springens. Eben noch das Maul aufgerissen, dann eines besseren belehrt worden; ja, ich weiß was das bedeutet, ja, ich erkenne sogar, dass du keine Ahnung hast: Erklär' mir doch bitte nochmal, was ich über den Fehler 2. Art geschrieben habe, und was (deiner Meinung nach) eben noch falsch war. Im letzten Post hast du mir Recht gegeben, und vorher geschrieben, es wäre falsch??? Ach, das verwirrt mich jetzt schon. "Beim "besten Test" geht es um die Minimierung des Beta-Fehlers bei festgelegtem Alpha-Fehler." Naja, hauptsache mal was geschrieben, bzw., gepostet: Erklär' mir mal, wie du das machen willst, wenn du nur einen Binomialtest machen willst (so wie Leventhal). Jajaja, die Gütefunktion, schon klar. Aber der Stichprobenumfang ist hier o.B.d.A. (oder willst du hier schreiben, dass die Gütefunktion mit steigendem Stichprobenumfang besser wird?) konstant. Du hast aber auch leider vergessen, dass du so lustigen Quatsch über die Standardabweichung geschrieben hast. Die NICHT bei einer Binomialverteilung vorkommt. Und das du geschrieben hast, du willst die Standardabweichung senken. Die bei Testfunktionen (wenn sie dort vorkommt) von der Stichprobe abhängt (es handelt sich also um die Standardabweichung der Stichprobe). Jetzt erklär' mir mal, wie du das machen willst. Wie bereits erwähnt, geht es bspw. darum, ob ein Chi-Quadrat- oder ein Binomialtest besser ist. Aber berechnen, welcher von 2 Binomialtests mit identischen Parametern besser ist als der andere? Das würde mich (und auch den Rest der Menschheit) schon interessieren. Na dann mal los. "Ich meine, einen erheblichen Stilunterschied in den gewählten Formulierungen zu erkennen." Ja, dem kann ich zustimmen. Ich kenne mich mit den entsprechenden Formulierungen aus. Wenn du wirklich sooo viel Ahnung hast: Warum kannst du nicht an den entsprechenden Stellen zwischen Test-, Güte- und Schätzfunktion unterscheiden? Warum schreibst du so viel Mist? Ist es so schwer? Und da gebe ich mir schon soviel Mühe, die entsprechenden Begriffe in meine Texte einzubauen, du mußt sie doch nur noch sinnvoll einbauen und verknüpfen. "Dies hilft allerdings nicht, wenn er aus ?Überheblichkeit? sein Wissen falsch anwendet, weil er unbedingt anderen Leuten Unfähigkeit nachweisen will." Oh, das machst du schon ganz alleine (s.o.). Und wenn ich mal magnetisches Alu gefunden habe, melde ich mich mal. Gruß Kobe
  21. Gude! Also ich schrieb mal folgendes: "Und selbst dann wäre das Risiko bei den 'Technikern', es gibt ja in unserem Fall nur 2 mögliche Fehler der 2. Art: 1. Wenn ein Goldohr die Dinger mit einer Wahrscheinlichkeit von etwas mehr als 50% Unterscheiden kann, aber die Wahrscheinlichkeit von 50% angenommen wird, ist das zwar ein Fehler der 2. Art, für unsere Fragestellung aber uninteressant. (Oder gibt's Widerspruch?) 2. Wenn ein Goldohr die Dinger 'nur' zu 95% Unterscheiden kann, aber H_0: p=1 angenommen wird (=ein Goldohr kann die Dinger mit einer Wahrscheinlichkeit von 100% unterscheiden; d.h. es existiert ein erkennbarer Unterschied zwischen den CD-LW); dann werden eindeutig die Techniker benachteiligt." Was ist daran falsch? Zum Thema "bester Test": Ach, von da her hast du das reinkopiert? Hm, ich kenne das in dem Zusammenhang mit Varianz beim Vergleich von Schätzfunktionen, es geht hier aber um Testfunktionen bzw. -statistiken. Oder man vergleicht verschiedene Testverfahren (also bspw. Binomial- gegen Chi-Quadrat-Test; die man hier beide anwenden könnte), und vergleicht die einzelnen Fehlerarten, dann kommt das auch vor... aber leider geht es hier darum gar nicht. Und die Sache mit dem Geifer: Du bist wirklich nicht besser (ich erinnere mich, dass ich blöd angemacht wurde, weil ich Leventhals Rechnungen nachvollziehen konnte, und schrieb, er benutzt einen Binomialtest... Mann, wenn ich das nicht geschrieben hätte, wüßtest du bis heute nicht, dass es sowas überhaupt gibt...), und das bei wesentlich weniger Ahnung. Gruß Kobe
  22. Huch, eine Überraschung zum Wochenende! Hat ja lange genug gedauert, aber Glückwunsch, du hast es schon zum Teil verstanden. Übrigens das mit der Standardabweichung ist, naja, ich will es mal so formulieren: Erstens wird bei einem Binomialtest (den Leventhal verwendet hat) nicht mit der Standardabweichung gerechnet, bzw. sie kommt nicht vor (also auch nicht bei Leventhal; allerdings kann man bei einem genügend großen Stichprobenumfang die Binomialverteilung durch die Normalverteilung approximieren, dann kommt sie doch vor), und zweitens hängt besagte Standardabweichung dann von der Stichprobe ab, bzw. wird aus dieser errechnet. Und wir wollen ja da nicht einfach mal an den Werten rummanipulieren, oder? Aber naja, die Mühe zählt, und da will ich mal über diese "Quelle" hinwegsehen (ich weiß ja auch nicht, woher das stammt; es könnte ja aus einem Buch über parametrische Testverfahren sein). So, und wenn wir jetzt einfach mal besagtes Wissen und den Umstand, dass es schon länger bekannt ist, nehmen, stellen wir doch fest, dass das ursprüngliche Paper von Leventhal, welches die Fachwelt ja so schockiert hat, eigentlich nur viel heiße Luft ist, oder? Vor allem, wenn man sich noch einmal vor Augen führt, was ich weiter oben über den Fehler 2. Art (bzw. wer das Risiko trägt) geschrieben habe. Übrigens kann ich leider nichts für das Niveau, dass du leider nicht erreichst, aber wir wollen eine schöne exakte Wissenschaft wie die Mathematik ja nicht durch unexaktes Gelabber kaputtreden, wäre doch zu schade, oder? Aus diesem Grund sollte man sich auch einfach an das Vokabular halten, und dann auch Test- oder Gütefunktion usw. schreiben, damit der Mitleser weiß, was gemeint ist. Das hat schon so seine Gründe. Ansonsten mal eine Frage an die Allgemeinheit (also mal wirklich ernst im Sinne von "Mathematisches Problem"): Wenn ich mit dem Binomialtest auf Wahrscheinlichkeiten teste, klappt das ja ganz gut. Nun gibt es aber ein Problem, wenn ich wirklich (was schon unwahrscheinlich ist) eine Person hätte, die in der Lage ist, mit einer Wahrscheinlichkeit p Unterschiede zu erkennen. Dann habe ich nämlich den Fall, dass er p*n richtige Antworten angibt, den Rest aber rät, und dann mit der Wahrscheinlichkeit von 0,5 ja eine richtige tippt, also (1-p) * 0,5 * n. Zusammen ergibt das ja, dass p + (1-p)/2 der Antworten richtig sind, obwohl es ja eigentlich nur p wären, da er nur p richtig erkennt... Mal ein paar Zahlenbeispiele: p : p + (1-p)/2 0,2 : 0,6 0,4 : 0,7 0,6 : 0,8 Wie gesagt, ist das (hier) eine rein hypothetische Frage, die veröffentlichten Blindtests gehen ja eindeutig in eine andere Richtung. Zudem ja selbst bei einem kleinen p die Anzahl der richtigen Antworten schon bei mehr als 0,5 liegt, der Test also zu früh anschlägt, wenn man auf ein bestimmtes p>0,5 testet. Übrigens ist in dem besagten Artikel von Leventhal davon keine Rede (zumindest kann ich mich nicht daran erinnern; aber die Zahlen wurden ohne diesen Effekt berechnet). Ich muß aber sagen, dass ich zu dem Thema noch nicht gegoogelt habe (zu Multiple Choice müßte sich ja was finden lassen), da gestern und heute beschäftigt, zu faul und Müde (und Fußballspielen). Aber ich denke mal, dass die Lösung oben steht, ich muß halt auf p + (1-p)/2 testen. Gruß Kobe
×
×
  • Neu erstellen...