Kobe
Mitglieder-
Gesamte Inhalte
871 -
Benutzer seit
-
Letzter Besuch
Inhaltstyp
Profile
Forum
Kalender
Galerie
Downloads
Blogs
Member Map
Alle erstellten Inhalte von Kobe
-
>>Huch? Was'n hier los? Gestern behaupten, man könne den >Fehler >>2. Art UND den Fehler 1. Art senken > >es ging darum, durch sorgfältiges Vorgehen, beide >Fehlerwahrscheinlichkeiten (möglichst) niedrig zu halten; bei >allem Verständnis für Schwierigkeiten zu vorgerückter Stunde >sollte der größere Zusammenhang nicht völlig unter den Tisch >fallen. Und an dieser Stelle höre ich auf zu lesen. Ach, ich fühl' mich so Müde... Wie bereits erwähnt, GEHT ES NICHT. ICH KANN NICHT BEIDE SENKEN, DA, WENN ICH EINEN SENKE, DER ANDERE STEIGT. Versuch' es doch mal zu verstehen. Besorg dir mal'n ordentliches Statistikbuch, und probier's doch endlich mal! Oder lies dir mal den (weiter oben veröffentlichten) Link durch! Übrigens sieht man diesen Effekt bei Leventhal (wenn ich mich recht erinnere) auch nicht, da er nur EIN alpha (5%) angegeben hat, man würde es nur sehen, wenn er mindestens noch ein weiteres alpha angegeben hätte. Was man bei dem Typ sieht, ist der Effekt der (höheren im Sinne von besseren) Güte bei einer Vergrößerung der Stichprobe. (Was ich auch schreiben wollte, aber irgendwie habe ich 2 'n' nicht getippst. Sorry.) Aber eigentlich brauche ich das ja nicht zu schreiben, da du ja sooo viel Ahnung von Statistik hast (im Unterschied zu mir), dass du ja mit einem Mathematiker locker diskutieren kannst... Ach, und da wir ja gerade bei Elementarem sind: Die Summe des Fehlers der 1. und der 2. Art ergibt auch nicht 1 oder so. Und das sind bedingte Wahrscheinlichkeiten, also mit Bayes rechnen. Ist es wirklich so schwer? Manchmal (so habe ich das Gefühl) würde es mehr bringen, einem Ochsen in's Horn zu petzen. Gruß Kobe
-
Huch? Was'n hier los? Gestern behaupten, man könne den Fehler 2. Art UND den Fehler 1. Art senken (immerhin scheint sich sowas wie Intelligenz durchgesetzt zu haben; aber schade, ich hätte gerne gesehen, wie hier die Statistik revolutioniert wird...), jetzt einlenken, und auf noch dümmeres und noch sinnloseres Gelaber ausweichen, hm, ich würde sagen, es handelt sich um die 'Diskussionstechnik' des Springens. Findet man bei Dummschwätzern ja recht oft. Naja, wenn man sich jetzt noch die Gütefunktion des besagten Test anschaut, und diesen auch noch (beim jetzigen Tempo so bis Ende des Jahres), dann kann man locker weitermachen. Und ich dachte immer, Leute beleidigen wäre primitiv und bringt nix, aber bei einfach strukturierten Geistern kann es was bewirken. Und nur, weil ich keine falschen Aussagen hier stehen lassen will, bin ich kein Troll. Oben beschriebener Diskussionstil und der x-te Verweis auf Leventhal (ohne ihn verstanden zu haben) würden aber eher einen Troll kennzeichnen. Für die weitere 'Problematik' darf ich mich selbst zitieren: "Und selbst dann wäre das Risiko bei den 'Technikern', es gibt ja in unserem Fall nur 2 mögliche Fehler der 2. Art: 1. Wenn ein Goldohr die Dinger mit einer Wahrscheinlichkeit von etwas mehr als 50% Unterscheiden kann, aber die Wahrscheinlichkeit von 50% angenommen wird, ist das zwar ein Fehler der 2. Art, für unsere Fragestellung aber uninteressant. (Oder gibt's Widerspruch?) 2. Wenn ein Goldohr die Dinger 'nur' zu 95% Unterscheiden kann, aber H_0: p=1 angenommen wird (=ein Goldohr kann die Dinger mit einer Wahrscheinlichkeit von 100% unterscheiden; d.h. es existiert ein erkennbarer Unterschied zwischen den CD-LW); dann werden eindeutig die Techniker benachteiligt." Wenn man das mal verstanden hat, wird man auch nachvollziehen können, warum der Fehler 2. Art hier wirklich nicht so wichtig ist... Übrigens hat das auch nichts mit einem Alpha von 5% zu tun, sondern einfach damit, dass die Gütefunktion erst bei höheren Werte (aber dann richtig) greift. (Sieht man ganz gut, wenn man die Approximation durch die Normalverteilung nimmt.) Gruß Kobe Angebot: 5 Alumagnete nur 500 Euro! Wirken garantiert, wenn man die CD an eine Eisenplatte pappen will!
-
Na gut, du Pausenclown, ich komm' gerade aus 'ner Kneipe, und hab' keine Lust mich mehr mit dir rumzuprügeln, aber deine überhebliche Art (warum eigentlich?) ist wirklich lächerlich. Um's mal klar zu sagen: Dummerweise hast DU Statistik NICHT (nochmal: NICHT) verstanden. Ist mir egal warum (Bist du wirklich so blöd? Ich tippe: Ja), aber: Folgende Aussage von mir (die schon die Problematik gut beschreibt) ist WAHR: (...) "und was auch noch schön ist (du aber ebenfalls nicht verstanden hast): Beide Fehlerarten hängen voneinander ab. Verkleinere ich den einen, vergrößere ich automatisch den anderen. Ist leider so..." ES TUT MIR LEID, ABER DAS IST WAHR! DER FEHLER 1. ART UND DER FEHLER 2. ART HÄNGEN VONEINANDER AB! DAS IST EINE ZENTRALE AUSSAGE DER STATISTIK!!! UND DER FEHLER 2. ART IST NICHT BERECHENBAR, DA DIE WERTE NICHT BEKANNT SIND! DAS IST EBENFALLS BEKANNT!!! ABER SIE SIND NICHT DIREKT VON DER ANZAHL DER VERSUCHE ABHÄNGIG! Und wenn man jetzt (so für ungefähr 2-3 Cent weiterdenken kann) wird man recht einfach feststellen, dass man beide Fehlerarten nicht gleichzeitig senken kann. Eagl was irgendwelche Kasper behaupten. Da rechnet man mit bedingten Wahrscheinlichkeiten (Bayes), das ist (zugegeben) für Laien schwierig. Da hilft auch keine Tabelle (mit p von 0,6 bis 0,9; die Werte kamen da her, und wurden von DIR zitiert! Ich kann mich daran erinnern, dass DU auf eine Wahrscheinlichkeit von 0,6 testen wolltest; ja, ich weiß, ist lange her, und man kann ja nachgedacht haben oder zumindest seine gottgleiche Meinung geändert haben) nicht. Zudem ja niemand weiß, wie groß p wirklich ist. (Ja, es gibt einen Unterscheid zwischen lesen und verstehen. Sch... Nein, p ist wirklich nicht bekannt!) Es tut mir Leid, aber allem Anschein nach kann man nur mit Wahrscheinlichkeiten rechnen bzw. über diese diskutieren, wenn man Mathe auch studiert/verstanden hat. Dummes Gelaber bringt einen nicht weiter. Ich darf nochmal Büning/Trenkler zitieren (2. Auflage; S. 32: "Die Wahrscheinlichkeiten für die Fehler 1. und 2. Art hängen im allgemeinen voneinadner ab. Wird das kritische Gebiet eines Tests so verändert, daß die Wahrscheinlichkeit, den Fehler 1. Art zu begehen, sinkt, so steigt die Wahrscheinlichkeit, für den Fehler 2. Art und umgekehrt." Ansonsten darf ich einfach auf http://www.matheboard.de/lexikon/Fehler_1....,definition.htm verweisen (treffender Artikel übrigens): "Beide Fehlerraten eines (jeden) Tests hängen voneinander ab. Wenn man die Rate der Falsch-positiv Ergebnisse eines Tests verringert, so erhöht man die Falsch-negativ-Rate und umgekehrt. Mit anderen Worten je genauer man mit einem Test Kranke als solche identifizieren will, um so mehr Gesunde "erwischt" man und die Gefahr steigt, sie auch (fälschlich) als Kranke zu klassifizieren." In beiden Aussagen ist NICHT (nochmal: NICHT) von der Versuchsanzahl die Rede. Auch wenn du Mathematiker (wie den Rest der denkenden Menschheit) nicht verstehst, wirst du wohl einsehen, dass, wenn die Versuchsanzahl wichtig wäre, sie zumindest Erwähnung gefunden hätte. (Anmerkung: In besagtem Board bin ich auch als Kobe8 unterwegs, allerdings nur mit einem Thread zum Thema Kryptographie.) Gruß Kobe Mit neuer Geschäftsidee: Ich versteigere bei eBay Alu-Magnete! Allerdings nur an Idioten mit viel Kohle. (Goldöhrchen willkommen!)
-
Äh, Jakob, ich weiß ja nicht, ob du jemals verstanden hast, was ich geschrieben habe, oder ob dein Erinnerungsvermögen so gering ist: Aber: >Der Rest kommt sicher auch noch; an der Erhöhung der >Durchgangszahl kommt man schwerlich vorbei, wieso die recht >einsichtige These, man solle bitteschön beide Fehlerarten >niedrig halten, Dir derartige Schwierigkeiten bereitet, bleibt >im Dunkel. Sowas habe ich NIEMALS behauptet. Ich würde dich also (bei aller putzigkeit) darum bitten, das richtig zu stellen. Desweiteren war ich von uns beiden derjenige mit den besseren Fachbegriffen, die der andere nicht verstanden hat. (Ätsch!) Sollte ich noch einmal den schönen Begriff 'Konsistent' erwähnen? Aber bei dir mangelt es schon an einfachem Grundwissen: Der Fehler 2. (bzw. die Größe) Art ist ja immer noch unbekannt, d.h. (generell) nicht feststellbar, und was auch noch schön ist (du aber ebenfalls nicht verstanden hast): Beide Fehlerarten hängen voneinander ab. Verkleinere ich den einen, vergrößere ich automatisch den anderen. Ist leider so... Kauf dir mal'n ordentliches Statistikbuch. Ich kann dir (im Bezug auf den Binomialtest, um den es die ganze Zeit geht bzw. ging) Büning/Trenkler; Nichtparametrische statistische Methoden aus dem de Gruyter Verlag empfehlen. Gruß Kobe der sich fragt, warum der Sch...-Magnet einfach nicht am Alu-Fenster hält Notiz: Alu-Magnete kaufen!
-
Gude! du hast aber vergessen, dass man diese (an sich ja so tödlichen) Beweise noch dadurch torpedieren kann, dass man einen Fehler 2. Art bei einem Wert von 0,6 annehmen kann, und dadurch fast immer (wer macht schon gern Hörtests mit Dutzenden versuchen?) zum Ergebnis kommt, dass Unterschiede doch hörbar sind... So gewaltig sie auch sein mögen, nur dass man sie dann halt dummerweise nur in 60% der Fälle richtig zuordnen kann... Und wer weiß schon, ob's magnetisches Alu gibt? Hast du schon welches gesehen? Es scheint sich bei den Goldöhrchen hier um eine fast schon religiöse Sekte zu handeln, die an nichts glauben, was sie nicht selbst erlebt haben, aber nicht in der Lage sind, (Selbst)Täuschungen zu erkennen. Also ideale Opfer für Esoterikspinner (und sonstige Bauernfänger), aber keine Gruppe, die jemals geglaubt hätte, die Relativitätstheorie ist doch richtig. Ich würde sie ungefähr auf der Höhe der Telephondesinfizierer einordenen. Gruß Kobe
-
Gude! Eine Klapper-X-Box... Also du weißt doch, dass das Auge mithört. Natürlich jibbet da Alu-Gehäuse mit LEDs usw. (das Design würde ich eher als 'Technik' beschreiben, aber man kann sicher ein paar Röhren usw. einbauen)... Aber, mal im ernst: Was würdest du an dem Ding vermissen, bzw. welche Anforerungen stellst du an HTPC? Gruß Kobe
-
Gude! Das Geräuschproblem von PCs kann man mit ein wenig Aufwand schon in den Griff bekommen. Ich habe meinem PC (den ich als Videorecorder mit DVD-Brenner nutze) bspw. mit einem SilentMax (oder wie das Zeugs heisst) Gehäuse und Netzteil (allerdings noch aktv gekühlt (Lüfter); passiv ist noch leiser, allerdings etwas teurer) ausgestattet, und bemerke beim normalen TV-Konsum nicht, dass das Ding läuft (ohne Umgebungsgeräusch (A45 ca. 2-3 km entfernt, d.h. hörbar) ist es schon schwer, was zu hören). Allerdings benutze ich keine Super-Hyper-Mega-Grafikkarte, sondern eine passiv gekühlte (bin kein Gamer). Gespannt bin ich auf die Meinung meines Bruders, der sich eine umgebaute X-Box als Multimediacenter geleistet hat (inkl. HDD), welche dann als DVD-CD-MP3-DivX-...-Spieler genutzt werden soll (inkl. Software-Updates für alles was kommt und der Chip verkraftet, HDTV wird er wohl nicht schaffen), inkl. LAN (d.h. Server (bzw. LW) woanders). Gruß Kobe
-
Gude! Analog dazu: http://www.zeit.de/stimmts/1998/1998_19_stimmts Stimmt's? Und sie fliegt doch! Von Christoph Drösser Ein Physiklehrer hat uns einmal erzählt, daß die Hummel aufgrund ihrer Aerodynamik, ihres Gewichts, ihrer Flügelfläche nach den Gesetzen der Physik gar nicht fliegen könne. Weil sie aber von besagten Gesetzen keine Ahnung hat, fliegt sie trotzdem. Stimmt's? Christoph Garms, Göttingen Was Hummeln von den Naturgesetzen verstehen, kann ich nicht beurteilen. Der Mensch tappte jedenfalls bis vor kurzem bezüglich des Hummelflugs ziemlich im dunkeln. "Insekten können nicht fliegen, gemäß den konventionellen Gesetzen der Aerodynamik", begann ein Artikel von Charles Ellington und Kollegen, der im Dezember 1996 in der Zeitschrift Nature erschien. Die Forscher untersuchten das Flugverhalten von Insekten im Windkanal (wegen der größeren und langsamer schlagenden Flügel wählten sie Motten). Die anströmende Luft wurde mit Rauch versetzt, so daß mit einer Hochgeschwindigkeitskamera Photos der Strömung gemacht werden konnten. Ergebnis: Für den größten Teil des Auftriebs sorgt nicht das Flattern, sondern ein bis dahin unbekannter zylinderförmiger Wirbel an der Flügelvorderseite der Insekten. Und seitdem stimmt die Rechnung. © DIE ZEIT 19/1998
-
Gude! Etwas OT, aber sicher interessant (nicht nur für Rob). Falls es zu sehr OT sein sollte, kann es gerne rausfliegen. Eine Anmerkung meinerseits: Das Problem liegt nicht in der Auswertung der Statistik, sondern in der Methode, wie 'gemessen' wurde. Das Ganze hier geht m.E. mehr in Richtung Fragebogendesign. Gruß Kobe http://www.zeit.de/2004/39/W-Statistik Gefühl in Zahlen Die Statistik zeigt, wie sich die Ergebnisse von Weinproben manipulieren lassen Von Christoph Drösser Es war vielleicht die berühmteste Weinprobe aller Zeiten: Am 24. Mai 1976 versammelte der britische Weinhändler Steven Spurrier in Paris die renommiertesten französischen Weinexperten zu einem Test. Es galt, kalifornische Cabernet Sauvignons und Chardonnays mit den besten Weinen aus Bordeaux und Burgund zu vergleichen. Die Weinprobe verlief selbstverständlich blind oder zumindest halb blind: Die Experten wussten zwar, was für Weine ihnen kredenzt wurden, aber die Reihenfolge wurde ihnen vorenthalten. 1976 haftete kalifornischen Weinen noch ein exotischer Hauch an. Entsprechend voreingenommen waren die französischen Tester: »Der ist definitiv kalifornisch – der hat keine Nase«, sagte ein Richter – nachdem er an einem (französischen) 72er Bâtard Montrachet geschnüffelt hatte. »Ah, zurück nach Frankreich!«, begeisterte sich ein anderer nach einem Schlückchen Chardonnay aus dem (kalifornischen) Napa Valley. Die französischen Weinkenner waren sich vollkommen sicher, dass die bewährten Tropfen aus ihrer Heimat den Emporkömmlingen aus dem Westen überlegen sein würden. Um so erstaunlicher war das Ergebnis: Bei den Rotweinen gewann der Stag’s Leap Wine Cellar, bei den Weißen der Chateau Montelena – beides 1973er Weine aus Kalifornien. Ein Reporter von Time, der bei der Probe zugegen war, trug die Kunde vom Sieg der US-Weine in die Heimat, wo die New York Times und die Washington Post die Nachricht begierig aufgriffen. Dieser Tag im Mai, kurz vor der 200-Jahr-Feier der amerikanischen Unabhängigkeit, markierte die önologische Emanzipation der Neuen Welt von Old Europe. Wer weiß, ohne diese Weinprobe könnten wir heute im Supermarkt vielleicht nicht die amerikanischen Massengetränke von Gallo und Mondavi kaufen. Aber war die Meldung überhaupt korrekt? Hatten die amerikanischen Weine wirklich so eindeutig gewonnen? Statistiker zweifeln heute das Urteil von damals an, nachdem sie sich die vollständig erhaltenen Wertungsbögen der Teilnehmer noch einmal genauer angesehen haben. Wein und Statistik: Da treffen nämlich zwei Welten aufeinander, die verschiedener nicht sein könnten. Hier das Reich des Genusses, in das man mit allen seinen Sinnen eintaucht, noch dazu zunehmend betört von der Wirkung des enthaltenen Alkohols – dort die abstrakte Welt der Zahlen, in der die komplexe sensorische Erfahrung, die von Mensch zu Mensch höchst unterschiedlich ist, reduziert wird auf einen numerischen Wert. Die Zahlenhuberei soll das scheinbar Paradoxe leisten. »Die Summe der Subjektivitäten ist der Beginn der Objektivität«, hat ein Weinexperte einmal gesagt. Man versucht, aus vielen Einzelmeinungen zu einem Gesamturteil darüber zu kommen, was ein »guter« Wein ist. Das haben Weinproben im Übrigen gemeinsam mit anderen Veranstaltungen, bei denen die Geschmacksurteile zumindest eine Rolle spielen. Sei es bei Eiskunstlaufmeisterschaften, Tanzturnieren oder der Vergabe von Forschungsgeldern: Man versucht den subjektiven Faktor in den Griff zu bekommen, indem man nicht einen, sondern mehrere Experten urteilen lässt. Während es beim Sport oder in der Wissenschaft wenigstens noch objektive Kriterien für Qualität gibt, zählen beim Wein nur der Trinker und sein Sensorium. Man kann über Geschmack nicht streiten, aber man kann versuchen, in den Protokollen der Weinproben statistische Trends zu finden. Selbst wenn die »Testgruppe« nur aus einer Person besteht, etwa dem Autor eines renommierten Weinführers, ist zum Beispiel die Frage interessant, ob der Experte morgen noch dasselbe Urteil fällen würde wie heute – diese Reproduzierbarkeit des Ergebnisses wird allerdings selten überprüft. Weinproben mit mehreren geschulten Weinkennern verbreitern die statistische Basis für die Beurteilung eines Weins. Dann stellt sich sofort die Frage: Wenn die Tester aufgrund ihrer verschiedenen Geschmäcker nicht eindeutig alle denselben Wein präferieren – weicht das Ergebnis überhaupt signifikant von einem zufälligen Resultat ab? Ein solches würde man etwa erwarten, wenn man den Juroren denselben Tropfen unter fünf verschiedenen Namen vorsetzt. Dabei ließe sich auch ein Sieger ermitteln, aber das Ergebnis wäre nicht aussagekräftiger, als wenn man gewürfelt hätte. Um mit einer Weinprobe überhaupt sinnvoll Statistik betreiben zu können, müssen ein paar Grundregeln eingehalten werden. Die wichtigste: Blind testen! Sobald ein Juror weiß, was er im Glas hat, ist er voreingenommen. Der französische Önologe Frédéric Brochet konnte 57 ausgewiesene Weinkenner hinters Licht führen, indem er ihnen denselben mittelprächtigen Bordeaux einmal als Landwein präsentierte, das andere Mal mit einem Grand-Cru-Etikett. Bei einer anderen Degustation konnte er ihnen sogar einen gefärbten Weißwein als Roten unterjubeln. Über das Auge lassen sich offenbar die Geschmackspapillen täuschen. Die zweite Regel: Die Unabhängigkeit der Juroren muss gewährleistet sein. Sobald einer am Tisch sein Urteil herumposaunt, sind die anderen schon beeinflusst. Ganz strenge Tester verordnen daher bei der Weinprobe absolutes Stillschweigen, auch wenn die Geselligkeit darunter leidet. Und drittens muss natürlich die Statistik korrekt sein. Und da hapert es manchmal. Steven Spurrier, der Veranstalter der epochalen Weinprobe von 1976, beschränkte sich darauf, die Noten der Juroren aufzuaddieren und den Mittelwert zu errechnen. Dann stand oben auf der Liste jeweils ein amerikanischer Wein, und für ihn war der Fall klar. Der Statistiker Dennis Lindley vom Londoner University College hat sich die Tabelle noch einmal genauer angesehen und ist zu einem etwas anderen Ergebnis gekommen: –Betrachtet man die Weinprobe als Showdown zwischen Frankreich und den USA und schaut auf die Ergebnisse aller Weine, dann kommt bei den Franzosen insgesamt eine etwas höhere Durchschnittsnote heraus. Beim Rotwein war die Differenz statistisch signifikant, beim Weißwein nicht. –Der Unterschied zwischen dem ersten Platz (einem Kalifornier) und dem zweiten Platz (einem Franzosen) war sehr gering; wäre am nächsten Tag vielleicht das umgekehrte Ergebnis herausgekommen? Mit einer Wahrscheinlichkeit von immerhin 48 Prozent ja, rechnet Lindley vor. Das simple Aufaddieren der Punkte, die die Juroren den Weinen auf einer Skala von 1 bis 20 geben, führt außerdem zu einer Verzerrung des Ergebnisses. Darauf weisen der Weinexperte Orley Ashenfelter und der Statistiker Rechard E. Quandt hin: Bei dieser Durchschnittsbildung erhalten nämlich die Juroren ein höheres Gewicht, welche die Punkteskala möglichst voll ausnutzen, also zum Beispiel zwischen 2 und 18 Punkte vergeben. Benachteiligt sind Tester, die sich etwa nur in einem kleinen Wertebereich bewegen. Um dieses Ungleichgewicht zu beseitigen, schlagen die beiden vor, die Wertung jedes Jurors in eine Rangfolge umzurechnen und die Positionen zu addieren. Bei den 10 Weinen und 11 Testern von 1976 wäre demnach das beste mögliche Ergebnis 11 Punkte gewesen, das denkbar schlechteste 110 Punkte. Rechnet man die Wertungstabelle der Pariser Richter auf diese Weise um, so ergibt sich bei den Rotweinen zwar derselbe Sieger – mit 41 Punkten aber ist er weit von der Höchstnote entfernt. Ansonsten wird die Rangfolge ein wenig durchgeschüttelt (bei den Weißen stimmt das Ergebnis überein). Wenn man die Wertungen aller Weine zusammenfasst, liegt auch hier Frankreich vor den USA, bei den Roten sogar sehr deutlich. Zieht man ein Resümee der berühmten Weinprobe, so würde das Urteil eher lauten: Die Kalifornier haben aufgeholt, ihre Weine sind den französischen praktisch ebenbürtig – aber auch das wäre damals schon eine revolutionäre Nachricht für die Weinwelt gewesen. Nicht jeder Weinfreund muss nun mit dem Taschenrechner oder speziellen Statistikprogrammen seine gesammelten Verköstigungsnotizen aufarbeiten. Die eingehende mathematische Untersuchung von Testergebnissen liefert aber durchaus neue Erkenntnisse – und hilft bares Geld sparen. So fand Roman Weil, in Personalunion Wirtschaftswissenschaftler an der University of Chicago und Vorsitzender der amerikanischen Oenonomy Society, heraus, dass die verbreiteten Jahrgangstabellen, mit denen der Weinkäufer gute von schlechten Jahrgängen eines Weines unterscheiden können soll, nicht viel taugen. In blinden Tests schmeckten seine Versuchspersonen meistens überhaupt keinen Unterschied zwischen den Jahrgängen. Und wenn sie es konnten, wie im Falle der Bordeauxweine, dann gefielen ihnen die angeblich schlechten Jahrgänge besser. Sein Ratschlag: Die Jahrgangstabellen »helfen Ihnen, die günstigen Wein-Schnäppchen zu finden: Kaufen Sie den Wein aus den schlechten Jahrgängen.« © DIE ZEIT 16.09.2004 Nr.39
-
Gude! Einen ebenfalls schönen Artikel (immer noch völlig OT) hab' ich fast übersehen. Die hier geschilderten Dinge haben aber mit den Hobbys mancher Leute hier nix zu tun. Gruß Kobe http://www.zeit.de/2004/39/W-Psychologie Trinken ist psycho Das Hirn ist sensibel. Es genießt den Wein bereits, bevor die Flasche geöffnet ist. Listige Verkäufer nutzen das aus Von Urs Willmann Bevor sich der erste Schluck im Mund verteilt, hat das Gehirn längst getrunken. Denn es kann einfach nicht warten. Es fängt mit dem Nippen sogar schon an, wenn der weininteressierte Mensch, in dessen Kopf es sitzt, erst noch im Laden steht. Dann schleichen Geist und Seele aus ihm heraus, hangeln sich imaginär am Regal entlang, schlüpfen hinein in die Flaschen und schlecken schon mal an der Süße und Säure des Rieslings. Das Gehirn spürt die Schwere des Rotweins lange vor dem Körper. Es spielt mit den Bläschen des Prosecco, während das Auge noch immer Etiketten sieht. Zumeist sind es die Begriffe, sie aktivieren ein Sprachzentrum im Gehirn. Erfahrungsspeicher werden abgerufen. Schon fluten Emotionen durch kortikale Areale. »Château« und »Spätlese« und »Tipica« liest das Auge und »Cru« und »Classé«. Schon ist der Denkapparat angeworfen und das Zentralorgan voller Aromen. Die Details, die das Bewusstsein und das Unbewusste des Käufers beeinflussen, weiß auch der Abfüller zu nutzen. Da wäre zum Beispiel die Schrift. »Metallische Farben, Gold und Silber, werden häufig verwendet«, sagt Bernd Reuschenberg. Der Psychologe von der Universität Heidelberg erklärt, warum: Sie suggerieren »Hochwertigkeit«. Sind die Buchstaben zudem noch konturiert, gaukeln sie »den Charakter eines Siegels« vor. Denn wo finden sich Siegel, Plaketten, fühlbare Inschriften? Sicher nicht auf einem Allerweltsgegenstand mit schneller Verfallszeit. Es gibt Flaschen mit Ausstattungen, die keinen Sinn haben – außer dem, dem Gehirn ein Gefühl mit auf den Weg zur Kasse zu geben. Der potenzielle Käufer soll glauben, dass er seine Kreditkarte gleich für Wertvolles zücken wird. Ein solches für den Wein selbst absolut funktionsloses Ding ist das Messingdrahtgeflecht, das auch einen mittelprächtigen Rioja-Riserva in einen güldenen Schleier hüllt, als wäre er eine Pretiose. Jede Flasche brüllt uns an, mit all den Attributen, die der Produzent seinem Produkt auf den Verteilerweg gegeben hat. Bocksbeutel: regionale Spezialität! Fiasco-Bauch: preisgünstiger WG-Chianti! Schlanke Flasche in knisterndem Cellophan: edles Elixier, schmuckes Präsent! Wer die Botschaften kennt, kann bluffen: Verschenken Sie Aldi-Wein mit Angabe eines Château (Tradition! Würde!) in einer schweren Holzkiste (Pretiose, braucht Schutz!) mit Holzstreben (sehr wertvoll, braucht Extraschutz) an einen Freund, der sich nicht auskennt (und dessen Freunde sich auch nicht auskennen). Sie können das Spiel auf die Spitze treiben und vor dem Verpacken auf jedes Etikett eine Nummer drucken und die Hälse in flüssiges Wachs tunken. Der Respekt des Beschenkten wird so groß sein, dass er es nie wagen wird, eine Flasche anzurühren. Ihr Betrugsdelikt bleibt unbemerkt und ungesühnt. Selbst Experten trampeln wie Trottel in die ewig gleichen psychologischen Fallen. Edle Etiketten oder dunkle Rottöne verbessern das Urteil eines routinierten Verkosters erwiesenermaßen deutlich (siehe Seite 48). Denn kaum einer kann sich der Botschaften entziehen, die Flaschen verkünden. Helene Karmasin, die Leiterin des Wiener Instituts für Motivforschung, kennt sich bestens aus mit den Codes, von denen es rund um Teller und Weinglas wimmelt. Ihr zufolge erbringt, wer kostbaren und großen Wein bestellt oder als Geschenk mitbringt, erstens den Nachweis finanziellen Kapitals, zweitens den Nachweis kulturellen Kapitals und gewinnt drittens soziales Kapital. Diesen Mehrwert erzielt der Önokapitalist folgendermaßen: Die teure Flasche ist Ausdruck großer Liquidität, die ausgewiesene Qualität des Inhalts weist ihn als Connaisseur aus. Beides macht ihn zur guten Partie, zur Zierde einer Gesellschaft – was sich bezahlt machen kann. Den Einstieg in dieses Geschäft erleichtert ein gewisses Grundwissen, zum Beispiel über das Prestige von Regionen. »Mit einem Burgunder liegen Sie nie falsch«, sagt Karmasin, »und in Österreich sind Sie mit der Südsteiermark immer gut bedient.« Zu den Weinen Südafrikas, Australiens oder anderer Überseeländer aber sagen Puristen oft: industriell. Das außereuropäische Mitbringsel birgt mithin Gefahr für den Schenker. Noch schlimmer greift daneben, wer mit Edelzwicker, Liebfrauenmilch und Kröver Nacktarsch auf Sozialkapital spekuliert. Eindeutig falscher Code! »Die Sorten funktionierten, solange die Weinkultur in den Kinderschuhen war«, sagt Karmasin. Heute sind wir weiter. Der Önokapitalist spielt mit Border, Mystic und Rêve de Jeunesse um Profite. Wer glaubt, vor dem Kosten würde einzig der Blick auf Farbe und Trübung sowie die Nase, tief ins Glas gesteckt, unser Urteil über einen Wein beeinflussen können, macht sich etwas vor. »Bei Kerzenlicht geht die Sensorik in Hab-Acht-Stellung«, sagt der Psychologe Reuschenbach, »jeder denkt: jetzt muss der Wein gut schmecken!« Läuft im Restauranthintergrund leise Klassik – eine Studie hat’s bewiesen –, steigt die teure Lust auf edle Weine. Pop-Geriesel dagegen hilft beim Sparen von Bewirtungskosten. Wir und der Wein sind längst nicht mehr allein. Das haben wir uns selber zuzuschreiben. Die Kulturentwicklung des Homo sapiens ging einher mit der Abkehr vom simplen Einverleiben der Genussmittel. Er hat abertausend Strategien entwickelt, um Genüssen, nach denen er lüstern und vielleicht etwas primitiv giert, ein kulturelles Antlitz zu verpassen. Süßes wird zur Praline, zum kleinen Kunstwerk, und das Saufen mittels Thermometer, Kühler, Dekantierer und Kristallglas zum ernsthaften Ritual. »Den gefährlichen Dingen des Lebens«, sagt die Motivforscherin Karmasin, »ziehen wir ein kulturelles Hemdchen über.« Warum auch nicht. Doch wenn uns die Ausstattung der Flasche und andere Begleitumstände allzu sehr in die Irre führen, zahlt das Gehirn den Preis. Dann fährt der Kater seine Krallen aus. © DIE ZEIT 16.09.2004 Nr.39
-
Und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion, und wenn man's hört, ist's Suggestion... Äh, 'tschuldigung für diesen Beitrag, aber es war zu verlockend. Echt!
-
>user operational protections Abschaltung Hups! DAS ist natürlich was... Wenn ich an die Paramount-DVDs denke (ich besitze u.a. die 5 Sex and the city-Staffeln, und JEDESMAL kommt eine sinnfreie Belehrung, die Dinger nicht zu kopieren... Mann, ich hab' die Dinger doch gekauft...) >Hingegen ist der Einfluss eines akustisch lausigen >Raumes zwar in einem DBT methodisch schwierig zu evaluieren, >jedoch gut messbar... Die Unterschiede von 3 m und 0,5 m (für 400 Eumel) NF-Kabeln sind auch einfach zu messen, aber in einem DBT leider auch nicht feststellbar. Muß am System liegen. Gruß Kobe
-
Huch! Was'n hier los! Ist das Fachwissen so dünn gesäht, dass man die Diskussion glaubt mit kleinen Tricks gewinnen zu müssen, oder ist meine geschliffene Rhteorik so gewaltig, oder denkt jemand, der durchschnittliche Leser sei so blöd, dass das nicht auffalle? >Ich schreibe, wenn er gut in Form sei _und_ die Unterschiede >relativ groß, würde ein Test mit 16 Durchgängen reichen, wobei >er mindestens 12 richtige Antworten bräuchte. >Dies bedeutet gleichzeitig, wenn die Unterschiede nicht so >groß _oder_ er nicht so gut in Form, _dann_ reicht ein Test >mit 16 Durchgängen nicht. > >Leventhal schreibt, "wenn tatsächliche Unterschiede fein >(subtle=fein oder auch fast unmerklich) .... würden sie in >einem Test mit 16 Durchgängen typischerweise nicht entdeckt. >Wiederum anders gesagt (wie auch bereits geschrieben, an >seiner Tabelle für p=0.9 zu erkennen), wenn die Unterschiede >nicht so "subtle" und/oder die Fähigkeit der Testperson diese >zu erkennen groß, dann kann man sie auch in einem Test mit 16 >Durchgängen erkennen. 2 Dinge: 1. Rob könnte auf die Idee kommen, es liegt ein Fehler 2. Art vor, dieser funktioniert ja auch in die andere Richtung. 2. Sind ja die Unterschiede allem Anschein nach doch so groß, dass man locker auf p=1/2 testen kann. Oder? Naja, die Frage war rhetorischer Natur, denn du hast auch schon mal folgendes von dir gegeben: (In Anführungszeichen ein Zitat von mir) "Das ist sicherlich schön zu berechnen, aber wie bereits erwähnt für uns absolut uninteressant, da wir von 1 bzw. 0,5 auszugehen haben." Das ist kein zulässiger Schluß. Wie gesagt, wir haben keinerlei Kenntniss über das Erkennungsvermögen der Testperson. Wir wissen nur (aus allerlei menschlichen Erwägungen) daß es vermutlich nicht bei 100% liegen wird. (Zitat Ende) Also können wir jetzt doch auf 0,5 testen? (Das wird dann wohl an Popper liegen...) Oder hat dann doch Leventhal mit dem zu hohen Fehler 2. Art recht? Ich fürchte, ich bin fast noch verwirrter als du, wenn ich das hier verstehen muss. Also noch mal konkret die Frage: AUF WELCEHS P TESTEN WIR? Oder machen wir einfach 16 Durchgänge, bei mindestens 12 Richtigen gibt's Laufwerkklang, ansonsten hat Leventhal recht und es liegt ein Fehler 2. Art vor? Desweiteren sollte man schon auf die Teile des Textes antworten, die wichtig sind. Ich darf an dieser Stelle noch einmal: "Büning/Trenkler (die bereits erwähnte Quelle) geben an, der Test sei konsistent. Nochmal zur Erinnerung: Ein Folge von Tests heißt konsistent, wenn deren Güte mit zunehmendem Stichprobenumfang gegen 1 konvergiert. Wenn die Güte eines Tests nahe bei 1 liegt, ist die Wahrscheinlichkeit, sich zugunsten von H_1 zu entscheiden, wenn H_1 wahr ist, groß. Das bedeutet nichts anderes, als das der Fehler 2. Art kleiner wird (und asymptotisch gegen 0 geht). Dies kann man aber schon in der Tabelle in der Stereophile erkennen." Wahrscheinlich kommt jetzt der Kommentar, dass sei sowieso klar, und hast du schon immer gewußt oder so... Dann hast du wieder einen Satz vergessen zu kopieren (ich will dir hier nicht unterstellen du hättest...) Kein Mensch würde bei diesem grenzwertigem Testergebnis nicht noch ein paar weitere Tests machen, um H_0 zu unterstüzen oder zu verwerfen. Ergänzend möchte ich hinzufügen: Das hat jetzt noch nichts mit dem Fehler 2. Art zu tun, wir sind immer noch beim Fehler 1. Art, dass spielt sich alles VOR diesem wegweisenden Artikel ab. Immerhin ist hier ein Alpha von unter 10% im Spiel, das in manchen Fällen akzeptiert wird. Schöne Aussagen machst du ja. Gibt's die auch in Verbindlich?
-
Gude! Ja, ist echt toll, wie wir uns die Bälle zuspielen... Vielleicht könntest du noch mal erzählen, dass in der Medizin auch nicht auf 0,6 getestet wird, und bei grenzwertigen Ergebnissen die Stichprobe vergrößert wird. Generell legt man H_0 auch VOR dem Test fest. Durch die Erwartungstreue der Schätzer macht es halt keinen Sinn, auf den Wert von NACHHER zu testen. (Da wir gerade dabei sind: Bei einem Fehler 1. Art ist es ja nicht unwahrscheinlich, dass wir diesen auch mal haben, wenn man mehrmals testet. (Dies ist eine Milchmädchenrechnung.) Kann man ja auch an dem Kabeltest im Hififorum sehen: Bei einer Wahrscheinlichkeit von 0,5 liegt halt auch mal jemand nahe dran. Und wenn wir noch mehr Tests machen, steigt ja auch die W'keit, dass jemand mal alle richtig hat.) By the way: Was für ein CD-LW hättest du als 2.-LW genommen? Ich nehme mal an, einen DVD-Player aus'm Baumarkt für 39 Eumel? Wenn man dann gegen ein CD-LW für das knapp 100-fache testet, ist es klar, dass man die Unterschiede nur zu 60% bemerken kann. Obwohl sie so gewaltig sind. (Von der gesparten Kohle kann man übrigens so viel Rotwein/Single Malt/... erwerben, dass man die Unterschiede auf Jahre hinaus gegen 0 gehen lassen kann. Oder die Raumakustik verbessern. So als kleiner Tipp am Rande.) Gruß Kobe
-
Gude! Obwohl ich die Pointe ungern verrate, erklär' mir bitte folgenden Sachverhalt: Du schreibst folgendes: "Pausen solltet ihr einplanen; eine sinnvolle Zahl von Durchgängen hängt von der Größe der Unterschiede, resp. Deiner Fähigkeit zur Erkennung ab. Wenn Du gut in Form bist, und die Unterschiede relativ groß, reichen 16 Durchgänge von denen Du 12 richtige haben solltest (SL 0.05)" Nun zitierst du diesen komischen Artikel, um die Statistik in die größte Krise seit dem Axiomatischen Aufbau der Wahrscheinlichkeitsrechnung durch Kolmogorow zu stürzen. Der besagte Artikel rät aber von einem Versuch mit dem Umfang von n=16 ab. ("Accordingly, when true differences between components are subtle, it is not surprising that 16-trial listening tests with (or without) thc ABX comparator typically fail to find them.") Oberhessisches Fragewort mit 2 Buchstaben? Hä? Jetzt erklär' mir mal das mal bitte. Aber mach die Pointe nicht kaputt. >"Das ist auch der Grund, warum ich nicht mehr >auf Themen wie Güte, Macht oder Power des Tests oder Begriffe >wie Konsistent eingehe (mit denen man übrigens den Artikel >von >Leventhal sehr schön zerlegen kann)." > >Wenn Du den Artikel von Leventhal zerlegen kannst, wäre es >sicher interessant; Wie bereits schon einmal zitiert: "Büning/Trenkler (die bereits erwähnte Quelle) geben an, der Test sei konsistent. Nochmal zur Erinnerung: Ein Folge von Tests heißt konsistent, wenn deren Güte mit zunehmendem Stichprobenumfang gegen 1 konvergiert. Wenn die Güte eines Tests nahe bei 1 liegt, ist die Wahrscheinlichkeit, sich zugunsten von H_1 zu entscheiden, wenn H_1 wahr ist, groß. Das bedeutet nichts anderes, als das der Fehler 2. Art kleiner wird (und asymptotisch gegen 0 geht). Dies kann man aber schon in der Tabelle in der Stereophile erkennen." Was kann es besseres geben als einen Test mit besagten Eigenschaften? Das bei einer kleinen Stichprobe das Risiko höher ist als bei größeren Stichproben sollte eigentlich jedem klar sein. Wenn man dann noch davon ausgeht, dass Mittelwerte erwartungstreue Schätzer sind, und man in der Tabelle sehr schön sieht, wie der Fehler 2. Art kleiner wird. (Der Fehler 1. Art ist ja so gewählt, das er um 5% liegt. Genau 5% ist aufgrund der diskreten Verteilung teilweise nicht möglich.) Und dann hat besagter Leventhal auch leider vergessen, die Wahrscheinlichkeit für ein Eintreffen von r bei N versuchen anzugeben: Bei einer Wahrscheinlichkeit von 0,5 gibt es eine W'keit von 0,027 / 0,016 für 31 / 32 aus 50 (0,0595 für mindestens / mehr als 31 aus 50) und eine von 0,0223 / 0,0159 für 58/59 aus 100 (0,0666 für mindestens / mehr als 58 aus 100). Kein Mensch würde bei diesem grenzwertigem Testergebnis nicht noch ein paar weitere Tests machen, um H_0 zu unterstüzen oder zu verwerfen.
-
Gude! Rob, dein Eifer und Durchhaltevermögen in allen Ehren, aber es bringt einfach nix. Der junge Freund hier labert schneller Schxxx, als du (oder ich) schreiben kannst. Wenn wir so weitermachen wie er, werden wir in 2 Tagen darüber diskutieren, ob sich die Erde um die Sonne dreht, oder umgekehrt. Aber ein schönes Beispiel hab' ich (ich kann mir's halt doch nicht verkneifen, hier Unsinn zu schreiben): (Zitat von J.) "Pausen solltet ihr einplanen; eine sinnvolle Zahl von Durchgängen hängt von der Größe der Unterschiede, resp. Deiner Fähigkeit zur Erkennung ab. Wenn Du gut in Form bist, und die Unterschiede relativ groß, reichen 16 Durchgänge von denen Du 12 richtige haben solltest (SL 0.05)" (Zitat Ende) Da ich jetzt den Artikel von Leventhal leider nur überflogen habe, kann ich leider nicht schreiben, dass dieses schöne Zahlenbeispiel gerade dazu gewählt wurde, das Problem mit dem Risiko bzw. dem Fehler 2. Art zu illustrieren, da besagtes Risiko (eigentlich ist es ja die Wahrscheinlichkeit) gerade bei diesem Zahlenbeispiel so hoch ist. Da ich auch den Text nicht gelesen habe, ist mir dort auch folgende Passage entgangen: (Zitat aus dem Artikel von Leventhal aus der Stereophile) But, with the selection of an r of 12, the table shows that the probability of Type 2 error (concluding that audible differences are inaudible) will be .8334, if audible differences between the two components are so slight that the listener can correctly identify the components only 60% of the time (p = .6). If audible differences were slightly larger and the listener can correctly identify the components 70% of the time (p = .7), then the probability of Type 2 error will be .5501, and so on. (The p values should be interpreted as the proportion of correct identifications the listener will provide when given an infinite number of trials under the conditions of the listening study, even if those conditions are not ideal for making correct identifications.) Thus, with a 16-trial listening test analyzed at the conventional .05 level of significance, the probability of the investigator overlooking differences so subtle that the listener can correctly identify them only 60% of the time is a whopping .8334! Accordingly, when true differences between components are subtle, it is not surprising that 16-trial listening tests with (or without) thc ABX comparator typically fail to find them. (Zitat Ende) Und wenn man das (so wie ich) leider nicht verstanden hat, kann man erst über solche Passagen lachen: (Zitat J., der Text in den Anführungszeichen ist von mir) "Es gibt hier (abgesehen von Ungenauigkeiten beim Test, die wir aber mit dem Fehler der 1. Art abfangen) keinen Grund, anzunehmen, dass es eine anderer Wahrscheinlichkeit gibt. 0,5 oder 1, Ungenauigkeiten beim Test werden berücksichtigt, basta." Basta funktioniert nur bedingt. Welche Art von Ungenauigkeiten können wir mit dem Fehler 1.Art abfangen? (Zitat Ende) (Kleiner Hinweis: Besagtes "SL 0.05" aus dem 1. Zitat ist der Fehler 1. Art mit Alpha = 5%.) Und solche Texte von Leuten, die die Statistik aus dem FF beherrschen... Das ist auch der Grund, warum ich nicht mehr auf Themen wie Güte, Macht oder Power des Tests oder Begriffe wie Konsistent eingehe (mit denen man übrigens den Artikel von Leventhal sehr schön zerlegen kann). Hätte er geschwiegen, hätte man ihn weiterhin für Klug halten können. An dieser Stelle mein persönlicher Rat: Einfach ein schönes Glas Rotwein trinken, und die Sache auf sich beruhen lassen. Beides schützt vor'm Herzkasper. (An dieser Stelle fällt mir ein schönes Wortspiel ein: Hetzkasper. Darf ich das so schreiben?) Gruß Kobe
-
Gude! Der Knackpunkt ist das Wort 'objektiv'. Wenn man sich die Messwerte von Geräten anschaut, und diese Vergleicht, wird man sicherlich Unterschiede feststellen. Für diese Unterschiede benötigt man ja auch keinen Test. Die Frage ist, ob bzw. ab wann man diese Unterschiede auch als Mensch erkennen kann. Und diese Frage wird m.E. hier gestellt, und diese wird dann auch beantwortet. (Ein Beispiel für psychoakustische Phänomene wäre mein Beitrag im 'Sonstiges'-Forum; http://www.zeit.de/2004/35/Schreiende_Farben) Dummerweise geht man in der Wissenschaft ZUERST davon aus, dass es THEORETISCH Unterschiede geben kann, die in einem Modell erklärt werden, und dieses versucht man zu verifizieren. *Duckundweg* Gruß Kobe
-
Gude! Naja, beim 'Bildungs'stand mancher reicht auch das hier: http://de.wikipedia.org/wiki/Compact_Disc Auszug: Aufbau einer CD (...) Die Pits auf der CD stellen jedoch nicht direkt die Datenbits dar, sondern sind mittels 8-14-Kodierung (engl. Eight to Fourteen Modulation EFM) kodiert. Hierbei ist ein Wechsel (Land/Pit oder Pit/Land) eine logische 1, kein Wechsel eine logische 0. Aus 14 kodierten Bits wird mittels einer Übersetzungstabelle der eindeutige 8-Bit Wert ermittelt. Die kodierten Bits sind jeweils noch durch 3 Füllbits voneinander getrennt. Dies ist nötig, damit auf der CD ein Pit bzw. Land niemals kürzer als 3 Bit und länger als 11 Bit ist, damit beim Abtastvorgang eine sichere Synchronisation gewährleistet ist. Fehlerkorrektur Damit sich Kratzer nicht negativ auf die Datensicherheit auswirken, sind die Daten mittels Paritätsbits gesichert, so dass Bitfehler erkannt und korrigiert werden können. Weiterhin sind aufeinander folgende Datenbytes per Interleaving auf eine größere Fläche verteilt. Der Cross-Interleave Reed-Solomon code (CIRC) ist dadurch in der Lage einen Fehler von bis zu 3500 Bits (das entspricht etwa 2,4 mm) zu korrigieren und Fehler von bis zu 12000 Bits (etwa 8,5 mm) bei der Audio-CD zu kompensieren.
-
>Oder vorsichtiger ausgedrückt: >Ich will ja gar nicht sagen es ist nicht unmöglich das es >keine Unterschiede gibt. >Aber keiner weiss es besser und somit bleibts ein ewiges >Wunder (blabla)! Hä? Ich glaube, du erreichst momentan locker das Niveau anderer Teilnehmer. Darf ich auch mal? Wenn es keine Unterschiede gibt, die man locker in einem nichtblinden Hörtest unterscheiden könnte, wenn nur deine Fähigkeiten zur Erkennung der Unterschiede durch einen Test nicht grundlegend durch Stress gestört sein könnten, würde man es nicht vermuten können.
-
Gude! Ja, das mit der Redundanz und den Daten... Was soll ich sagen, letzens habe ich einen Text über was BWL auf 'ne CD gebrannt, und als ich's gelesen habe, war's ein Kochrezept...
-
Gude! Von den Händlern/Herstellern usw. wird ja diverses Zubehör zum Verbessern des Klangs angeboten. Beworben/Berichtet werden/wird hauptsächlich über Tonbasen, Racks, Kabel, CD-LW mit weniger Jitter usw. Folgende Frage drängt sich aber bei mir auf: Nun brauchen wir ja uns nicht darüber zu streiten, aber sinnvoller wäre auf jeden Fall die Verbesserung der Raumakustik und der LS, bzw. das Anpassen der LS an den Raum, und auch die Auswahl eines geeigneten LS (ich meine an dieser Stelle speziell das Rundstrahlverhalten), ändern der Frequenzweiche (um bspw. ein Dröhnen zu verhindern), Optimieren der Aufstellung, usw., diese Dinge ändern ja auf jeden Fall definitiv den Klang (Nachhallzeit und Frequenzgang am 'Hörort', Klang bzw. Messwerte des LS allgemein (Impuls-, Ein- und Ausschwingverhalten, Klirr)), d.h. hier ist definitiv eine Veränderung (und mit ein wenig Nachhilfe auch ein Verbesserung) des Klangs verbunden. Warum diskutiert hier niemand darüber? Gruß Kobe
-
Gude! >Du siehst, der Jazz hat soviele Facetten, man kann sie nur >langsam einkreisen. Ja, genau. Das Problem ist nur: Wie? Und vor allem: Wenn ich nicht irgendwann man damit anfange... Mein Gedanke ist nur: Wenn mich jemand nach einer Richtung in der Rockmusik fragt, nehm' ich ja nicht z.Bsp. den 23. Abklatsch von Depeche Mode oder die 153. Band, die sich wie Slayer anhört, sondern gehe schon auf die 'Orchinole'. Miles Davis (ich hab' mir gestern noch mal 'Birth of the cool' angehört, da sind schöne Sachen drauf) ist allem Anschein nach ein 'Orchinol', Monk auch, aber sonst...?!?! >Ich persönlich finde den Jazz jedenfalls >schwieriger zu durchschauen als die gesamte Popmusik. Hm. Wenn man bekenkt, dass der R'n'R in einer etwas kürzeren Zeit auch schon sehr viele Faceten entwickelt hat... Alleine die 7554 Stilrichtungen des Hard Rock, zwischen der 1. Black Sabbath oder Led Zeppelin-Scheibe bis zu dieser komischen Keyboard-Kinder-MTV-Mucke mit Einheitsbreiakkorden. Wenn ich da nicht auch schon seit 15 Jahren dabei wäre (und das Glück habe, einen guten Rockclub zu kennen, in dem auch heute noch 'Stairway' und Birth Control (also alte Klassiker) gespielt wird), würd' ich da auch ziemlich blöd dastehen. Gruß Kobe
-
Gude! Kind of Blue kenne/habe ich auch schon. Ich sah auch mal auf 3Sat(?) ein Konzert mit Kenny Garrett (von der Jazz Baltica?), wobei er sein Sax richtig gut quälte, ich nehme an, es war Standard Of Language. Aber allgemein kann ich mit seinen Scheiben, besonders die langsamen Sachen, nicht allzuviel anfangen: Die Melodien sind ganz gut, aber er dudelt da nur so rum. Da gefallen mir die Cole Porter Songbooks besser (wenn schon langsam, aber das ist mehr Swing). Oder kommt das noch? (Ich hoffe, ich werde jetzt nicht gesteinigt?) Gruß Kobe
-
Aus der aktuellen Zeit: http://www.zeit.de/2004/35/Schreiende_Farben Wahrnehmung Rot schreit am lautesten Optische Eindrücke beeinflussen die akustische Wahrnehmung. Darum sind Sportwagen nie lindgrün Von Burkhard Strassmann Wenn ein Kraftfahrzeug durch ein ruhiges Wohnviertel brettert, ist Dezibel nicht gleich Dezibel. Wer sein Auto liebt, dem ist Musik, was dem genervten Eigenheimbewohner bloß Krach ist. Dieser psychoakustische Zusammenhang ist bekannt. Weniger bekannt ist, dass schon aufgrund geheimnisvoller neurophysiologischer Überdeckungs- und Beeinflussungsphänomene der Fahrer ganz anders wahrnimmt als der Ansässige. Bei dem, der selber fährt, kommt bis zu 50 Prozent weniger an als bei dem, der den Krach nur hört. Optische (und haptische) Eindrücke scheinen das Gehirn vom Gehörten abzulenken und die akustische Wahrnehmung in erheblichem Maß zu verändern. »Die geistige Kapazität wird auf unterschiedliche Modalitäten aufgeteilt«, sagt Hugo Fastl vom Lehrstuhl für Mensch-Maschine-Kommunikation der TU München, wo er sich mit der gegenseitigen Beeinflussung von visuellen und akustischen Eindrücken beschäftigt. Solche Phänomene der »multimodalen Interaktion«, deren psychophysikalischer und neurophysiologischer Hintergrund noch weitgehend unerforscht ist, werden schon industriell und im Produktdesign genutzt. Bestes Beispiel sind die Sportwagenhersteller. Hat ein Auto eine grelle, »schreiende« Farbe, wirkt es nicht nur auffälliger, sondern auch lauter und damit sportlicher. Rot schreit am lautesten, weshalb Alfisti und Ferraristi ihre Fahrzeuge in Alfa- oder Ferrarirot bevorzugen. Die »leiseste« Farbe ist Lindgrün, weswegen man nie lindgrüne Sportautos finden wird. Das Erfahrungswissen der Autobauer konnte an der TU München jetzt in einem von der DFG geförderten Projekt wissenschaftlich verifiziert werden. Versuchspersonen wurde das Geräusch eines vorbeifahrenden ICE vorgespielt. Dazu sahen sie auf einer 3 x 3 Meter großen Leinwand unterschiedlich eingefärbte Fotos von ICEs. Obwohl sie das Zuggeräusch in immer der gleichen Lautstärke hörten, hielten die Versuchspersonen den roten ICE deutlich für den »lautesten«. Doch auch »schallfremde« Bilder beeinflussen die akustische Wahrnehmung: Das Bild von einer Winterlandschaft machte den Zug noch »leiser«. Fastl hält es für möglich, dass hier die Erinnerung an winterliche Hör-Erfahrungen (Schnee schluckt Schall) ins Spiel kommt. Die stärkste Verzerrung der Wahrnehmung erfuhren jedoch Probanden, die selbst in eine dynamische Fahrsituation versetzt wurden. Über eine Videobrille oder in einem Fahrsimulator wurde ihnen das Befahren abwechslungsreicher Strecken (Stadtstraßen mit Ampeln, Landstraße, Autobahn, Tunnels) suggeriert. Das wahrgenommene Fahrgeräusch war bis zu 50 Prozent leiser als in Situationen, in denen sie etwa auf einen Sonnenuntergang oder eine Schafherde blickten. Es liegt auf der Hand, dass alle möglichen Industriezweige an solchem Detailwissen um die Möglichkeiten, die menschliche Wahrnehmung zu beeinflussen, interessiert sind. Es steht ja durchaus infrage, ob alle Office-Geräte grau oder anthrazit sein müssen und Haushaltsgeräte weiß. Warum sollte ein Drucker nicht grün sein? (Und vielleicht könnte man sich auch so manche Schallschutzmaßnahme durch kluge Farbwahl ersparen?) Derzeit testet Fastl, Gastprofessor in Osaka, ob die untersuchten Phänomene eher in der Natur der Menschen liegen oder kulturell geprägt sind. Dazu lässt er seine bunten Eisenbahnen an japanischen Probanden vorbeirasen. Sein Interesse ist dabei keineswegs rein akademisch. Fastl: »Die Frage ist ja, ob auch in Japan ein Ferrari rot sein muss. Oder vielleicht gelb?«
-
Gude! Gestern abend lief ein Teil einer tollen Dokumentation über Jazz im SWR3. Ich habe bis jetzt immer nur reingezappt, aber das hat schon das Interesse geweckt. Leider habe ich bei Amazon gesehen, dass die komplette Serie auf DVD 100 Eumel kostet, und das Buch 65 (und beides auch bei Kritikern umstritten ist, liegt wohl an der Beschränkung auf den 'alten amerikanischen Jazz'; die Serie von ihm über den Sessionskrieg fand' ich aber recht gelungen). Nun hab' ich immerhin schon ein paar BlueNote-Sampler, Birth of the cool, und Monk ist mir dank 'Nach 5 im Urwald' auch ein Begriff, ich suche aber mal ein einführendes Werk zum Thema Jazz, bzw. ein paar 'Meilensteine' (sowas wie Take Five/Timo Out von Brubeck, Cantaloop von Hancock oder so...?), die man so als Einführung empfehlen kann. Gibt's sowas überhaupt? Dank & Gruß Kobe