この質問は上司から出されたもので、説明方法がわかりません。
通常、許容される信頼レベルは0.95です。これは、タイプ1エラーの確率が5%であることを意味します。しかし、通常受け入れられる検出力は0.8(Cohen、1988)です。これは、タイプ2エラーの確率が20%であることを意味します。タイプ1エラーよりもタイプ2エラーの確率が高いのはなぜですか?その背後に統計的な理由はありますか?
彼はまた、力の物理的な意味= 0.8(なぜそれが基準として選択されているのか)を尋ねましたが、これについても説明できません。
また、電力分析を使用して実験を設計する場合、小、中、大の効果を表す有効サイズ0.3、0.5または0.8を選択できます。そして、私の監督者は、これらの数値が選択される理由を尋ねました。私の理解では、これらの数値は経験に基づいて提案されています。彼はすぐに私に経験は何であるか尋ねました。私はそのような質問に本当にイライラしています。私の専攻は統計学ではないので、そのような質問に多くの時間を費やす必要があります。そのような質問が本当に意味があるかどうか誰でも提案できますか?はいの場合、どのように答えを見つけますか。