統計の教科書でその概念に出くわした後、私はそれについて頭を抱えてみましたが、最終的に、これまでに見たすべての説明に当てはまるように思える結論に至りました。間隔です。
私のような1時間前からの違いを知らない人のための余談
データを観察し、そこからいくつかのパラメーターを予測した場合、たとえば平均であるとすると、信頼できる区間は、であり、 95%muが確実に中に入る(または別のレベルを使用した場合は95%以外の数)。入門統計クラスで教えられる信頼区間は、信頼できる区間と重複する可能性がありますが、必ずしも十分に重複するとは限りません。説明を勇敢にしたい場合は、これとこの質問をCross Validatedで読んでみてください。多くの頭を悩ませた後、私が最終的に理解したのはこの答えでした。
私の結果では信頼区間よりも信頼できる区間を使用することが科学的に望ましいという意味ですか?はいの場合、それを使用している出版物を見なかったのはなぜですか?
- それはコンセプトを使用する必要があるからなのですが、測定科学者はまだ正しい統計手法に追いついていませんか?
- あるいは、元の信頼区間の意味は、実証研究の結果を説明するのに適していますか?
- それとも実際には、それらはあまり重要ではないほど重複していることが多いのですか?
- 選択は、データについて想定している統計分布に依存しますか?多分ガウス分布で、それらは常に数値的に重複するので、純粋な統計の外の誰もが違いを気にしません(私が読んだ多くの研究は、どんな種類の間隔も計算しませんし、おそらく約1%は考えにスペースを与えますそれらのデータが正常に配布されない可能性があること)。
- それは私たちの科学理論の立場に依存しますか?例えば、信頼区間は実証主義者の仕事で、信頼できる区間は解釈主義者の仕事で使用されるべきだと感じますが、この感覚が正しいかどうかはわかりません。