N=1のポジティブヒットを探すだけの目的なら、1次スクリーニングがどういうものであろうがあまり関係ないでしょうが、そのスクリーニングの規模感を前提に論文の構成上データとして価値があるものとみなすならばせめてduplicateぐらい取らないと信用できない意味のないデータを指摘される可能性はあるかもしれません。
トランスクリプトーム解析のような全体のポジティブヒットの傾向とかを議論する場合一定の偽陽性が入ってることを前提にしたとしても統計的になんらかの妥当な議論をしないとそのポジティブヒットの集団全体として意味づけする根拠が薄れるので厳しいジャーナルだとだめって言われるでしょうね。
プロセスが大事か?という話になりますが、そもそも真のヒットがあれば過程はなんでもいいというならば1万のスクリーニングをしようが、神の手で1つを当て実験して当たって見つけようが論文の質としては関係ないことになってしまいます。実際は、1万のスクリーニングをしたことで候補分子を見つけた、っていう記述をすることはそれ自体にも意味はあるので、最低限何かしらの基準でそのスクリーニングがワークしてることは示さないといけないと思います。 大規模データのスクリーニングとして統計的に陽性なものであっても個別のものに対して詳細な解析をする場合にバリデーションをとるのは、主に多重検定の偽陽性が一定の割合(FDRとかq値とか色々)で全体としてみた場合にわずかでも存在するからだと思います。 |
|