2013年7月3日水曜日

疑似科学ニュースが知るべき科学的方法論

このエントリーをはてなブックマークに追加
Clip to Evernote
Pocket

疑似科学ニュースが「(科学の)モデルはシンプルさに価値が有るのであって、現実と厳密に一致するかは二の次」と言い出したので、明確に否定したい。現実と合致しないモデルは、予測にも演繹的な議論にも使えず無価値となる。

現実と合致すると言うのは、モデルが示す条件が整ったときに反証されないと言う事。実験室などで条件が整っているのに、誤差ではなくバイアスが入ると言う事は、モデルの説明力が無いと言う事になる。

事象aが観測され、モデルAとBがその説明のために作られたとしよう。AとBの説明力が同じならば、シンプルな方が有力になる。しかし、さらに事象bが観測され、Aが説明できず、Bが説明できたら、複雑であってもBに価値が出てくる。

オッカムの剃刀は、事象の説明の後の基準でしかない。ポパーの反証可能性は、いつでも反証を試みることができる事が重要なのであって、反証されたらモデルは価値を失う。事象c、d、e・・・とその時点で知られていることが漏れなく説明できたと見なされたときに、モデルは理論になる。

観察事象とモデルAが合致しない限りは、「Aはもっとも有力」「Aは完成されている」「Aは否定されていない」と繰り返しても、「はいはいはい・・・エヴィデンスを持ってきてね」って言われて終わるのが、今の科学。実験や観測に重きがおかれるわけだ。

いつもながら理論物理の教授なんぞというものは、目のつけどころを人から教わらなくてはならないもので、できることといえばただ自分の知識をひねくって、実験屋たちの観察したことを理論的に説明するだけの話なのだ!(P.198) - 困ります、ファインマンさん

実験や観測で観察された事象をモデルとしてまとめるのは古典物理学からの伝統なので、ガリレオやニュートンの事例を持ってきても、むしろ上の科学方法論を補強するものでしかない。

統計学は事象の観測を行い、事象とモデルの一致性を検証するためのツール。だから計量分析で支持されないモデルは無価値だが、モデルで説明されない計量分析は有益と見なされる。

理論モデルが無いと因果関係が特定できないと言うのは、誤解。例えばランダム化比較試験(RCT)と言うのがある。個体をトリートメント群とコントロール群に分けて、トリートメント群にだけ「何か」で影響を与える。トリートメント群とコントロール群に確率的誤差以上の差があれば、全て「何か」の影響だと断定する事ができる。

さて、何度もランダム化比較試験で確認されている事象によって否定されているモデルがあるとする。フィールド調査での結果でも否定されている。通常の科学的方法論から考えれば、そのモデルは否定されるべきだし、少なくとも有力と見なすわけにはいかない。疑似科学に陥っている人々は、既に主張が反証されていることを認める事ができないようだが。

追記(2013/07/03 18:49):疑似科学ニュースが「このデータは本当に適切か?を疑えるのは、モデル(理屈)があるから」と主張している。しかし、疑似科学を教科書的な理論で否定するのは、結局は疑似科学を理論の背景にある実験や観測で否定していることに、他ならない。

中高の教科書に載っているような理論モデルであれば、過去にデータで検証されてきており、少なくともある領域でも信頼性は高い。実験や観測が繰り返され、理論と呼ばれるようになっている事は忘れてはならないであろう。

計量分析にも信頼性の強弱があり、追試の有無なども注意する必要がある。

ホルミシス効果を信じるべきかと言うと、現象としては興味深いのだが、追試に成功していないので保留せざるをえない(ATOMICA)。ラドンと健康の問題は疫学データなので、データ取得方法や計量分析方法を良く検討する必要があるが、動物実験などでも明確な効果は出ていないようだし、擬似相関の可能性を排除できない。ただしICRPは予防的措置をとるべきだとしている。

指摘しているのは、信頼性の高い計量分析で何度も確認されているような効果と相反する仮説を、モデルだからと言う理由で科学的に有力だと主張するのは無理があると言う事。つまり、疑似科学ニュースは、実験や観測と整合的でない仮説を強く主張しているわけだが、それは科学的姿勢と言えるのであろうか?

もし仮説がよくなければすぐどこかにポロが出て、いろいろ見苦しい小細工をしなければならなくなるだろう。小細工が次から次へと必要になるような仮説はたいてい根本からまちがっているから、御破算にして出発し直すべきである(P.27)- 南部陽一郎(クォーク第2版

追記(2013/07/04 02:21):非線形モデルの場合は閾値が無いので分けるべきだと思いつつ追記。

閾値説(あなたが最近主張している非線形も含む)は、追試に成功してるの?

動物実験で低線量被曝の健康被害を示す結果が得られていない事と、ビッグマウス実験やそれに似た実験で同様の線量率効果が確認されているから、追試に成功していると言える。

なぜ非線形2次近似の方は排除できると考えるのだろうか。

疫学データの非線形モデルは擬似相関の可能性は排除できないが、ランダム化比較試験(RCT)を用いた動物実験は排除できている。

結局のところ、あなたは実験データや観測データの信頼性をどういう方法や基準で判断してるの?

何度も明記しているが、ランダム化比較試験(RCT)を使えば因果関係は特定できる。さらにRCTの結果と整合的な疫学データがあれば、その結果の信憑性は高まる。動物実験が人間に当てはまるとは限らないからだ。

線量率効果がRCTで確認されており、さらに追試は類似の実験で整合性が追認されており、さあに疫学データで非線形モデルが当てはまることから、線量率効果が科学的に確認されつつあると指摘しているわけだ。ホルミシスやラドンの場合は、この水準には達していない。

この線量率効果を完全に排除してしまうLNT仮説は、やはり科学的には捨てられるべきでは無いであろうか。ICRPもリスク推定においては、LNTモデルは捨てている。

細かい所だけれども、疑似科学(擬似統計学)になっているので。

あなたはLNTモデルがボロが出ているようにみえるだろう?一方2次近似はボロが出ていない、というか原理的にボロの出ようがない。

一次線形と二次曲線のどちらを採用すべきかは、計量的に決められる。当然、二次曲線が採用されない(=ボロが出る)ケースもある。これは既に説明したわけだが(関連記事:回帰モデルにおける統計学的な一次式と二次式の選択方法)。

追記(2013/07/04 23:50):ランダム化比較試験(RCT)の意味が理解できていないらしいので追記。

怪しそうな要素だけを変えた2つの実験をして、その結果を比較する、と。それは事前に「怪しそうな要素」が絞り込めるからこそ、それ以外の要素を同じ条件にできるわけだ。

「ランダム化」に意味があって、被験者をトリートメントとコントロールに分けるのは無作為に行うので、実験者が知らない被験者にある未知の要素はトリートメントとコントロールで「確率的に同じ」になる。つまり、確率的に放射線の影響の差異しか出ない事が分かるわけだ。

俺があなたの方法論を「答えが分かった後でしか役に立たない」と述べているのはそういうこと。

答えが分からない薬品や毒物などの効果は日々、このランダム化比較実験(RCT)で知見が得られている。それでも答えが分かった後でしか役立たないと言えるのであろうか?

あなたのアプローチは、「わからない」ことを「わかる」ようにはできない。なので科学の方法としてそぐわないということ。

私の方法論や、私のアプローチではなくて、現代の科学的方法論がそうなっている。まずは、古典物理の大家から引用しよう。

Hypotheses non fingo(私は仮説をたてない). - Isaac Newton

これは本当に仮説を立てるなではなくて、観察される現象から仮説を立てるべきと言う話なのだが、理屈が先行することを戒めている。現在でも受け継がれていて、

実験なしでは物理は進歩できない(P.44)- 南部陽一郎(クォーク第2版

とノーベル賞物理学者の南部氏は、多くの仮説が実験結果で破棄されてきたと指摘している。ノーベル賞物理学者のファインマンも、再掲すると以下のように言っている。

いつもながら理論物理の教授なんぞというものは、目のつけどころを人から教わらなくてはならないもので、できることといえばただ自分の知識をひねくって、実験屋たちの観察したことを理論的に説明するだけの話なのだ!(P.198) - 困ります、ファインマンさん

ニュートンやファインマン、南部氏は「わからない」ことを「わかる」ようにはできなかったのか?

何はともあれ科学の方法は実験や観測が第一なのであって、それを軽視してはいけない。そして21世紀では、実験結果は統計学を使って分析される。

このような実証第一主義は哲学的にはつまらないものだけれども、これが脈々と受け継がれてきた科学なのだから仕方が無い。計測方法を発明した、キャリー・マリスや田中耕一氏がノーベル賞をもらうぐらい、科学の世界は実証第一主義になっている。

0 コメント:

コメントを投稿