Hadmut Danisch

Ansichten eines Informatikers

Die Wissenschaftlichkeit der Sozialwissenschaften

Hadmut
10.4.2017 20:33

Nehmt zur Kenntnis und gruselt Euch.

Folgender Tweet kam hier heute unter (anklicken, dann wird das Textbild größer dargestellt):

(Per Google habe ich gefunden, dass der Text praktisch wortgleich im Buch The Seven Deadly Sins of Psychology: A Manifesto for Reforming the Culture By Chris Chambers zu finden ist.)

Wenn da also einer dieser Zauberkünstler etwas als „wissenschaftliches Ergebnis“ veröffentlicht und dann andere auf die Idee kommen, man könnte das Experiment ja mal nachstellen und schauen, ob man die Ergebnisse nachvollziehen kann, dann ist das unfair und diffamierend. Und wird „replication police“ genannt. (Erinnert mich an den feministischen Vorwurf des „Truth Regimes“, wenn von Wissenschaftlern verlangt wird, dass es stimmt und nachprüfbar ist.)

Anscheinend werden Leute, die von Wissenschaftlern behauptete Ergebnisse nachprüfen wollen, deshalb sogar als „Nazis“ und „Faschisten“ bezeichnet werden.

Und die Begründung, dass erfolglose Experimente keine wissenschaftliche Bedeutung hätten und deshalb unbeachtlich wären, ist natürlich auch der Brüller. Das ist mal wieder die alte Geisteswissenschaftler-Masche, wonach es Verifikation und positive Belege gar nicht gäbe, man also alles behaupten kann und alles als wahr gelten muss, bis das Publikum es widerlegt. Versucht das Publikum das aber (oder macht es gar), beschimpft man das Publikum als Rassisten, Sexisten oder was auch immer und erklärt, dass deren Ergebnisse unbeachtlich wären.

Und der Hammer ist natürlich, dass sie inzwischen vorschlagen, das Nachprüfen eines Experimentes zu verbieten, solange nicht der, der den Käse behauptet hat, damit einverstanden ist und einen dabei anleitet. Wer etwas behaupte, und wessen Ruf auf dem Spiel stehe, habe das Recht, bei Nachprüfungen anwesend zu sein.

Dazu noch eine Quelle, in der Schnall dazu sagt:

Intuitively it sounds like one would have to find the same result if one had an original finding, if the finding was true. But it turns out that’s not necessarily the case at all and that’s very counter-intuitive. This is a complicated story but there’s a very good paper by David Stanley and Jeffrey Spence where they talk about the expectations for replications and they run computer simulations where they do experiments thousands of times under perfect conditions with nothing but measurement error. And even then one gets a great variability of results. The conclusion is that any one given study is not that conclusive. That’s why normally we do lots of studies to see if there is a general pattern.

Wenn das so ist, dann stellt sich aber die Frage, warum das erste, publizierte Experiment gut und die abweichenden dann Messfehler sein sollen, und warum nicht schon das erste Ergebnis aus nichts als Messfehlern besteht. (Messfehler machen immer die anderen…)

Und wenn es auch nur darum geht, dass man halt mal irgendwas behauptet und dann abwartet, ob die anderen ein Muster bestätigten, dann ist das Lotterie und nicht Wissenschaft.

Hier gibt es noch einen längeren Artikel darüber, den ich aber aus Zeitnot nur teilweise gelesen habe: Why Psychologists’ Food Fight Matters
“Important findings” haven’t been replicated, and science may have to change its ways.

The results were sobering. At least 10 of the 27 “important findings” in social psychology were not replicated at all. In the social priming area, only one of seven replications succeeded.

Man wird die Frage stellen müssen, ob der ganze Sozio-Komplex im Allgemeinen irgendetwas anderes ist als Denk- und Messfehler, Ideologie und frei erfundene Behauptungen.