タグ付けされた質問 「validity」

8
統計を使用しない方法
これは一種の自由回答形式の質問ですが、明確にしたいです。十分な人口があれば、何かを学ぶことができるかもしれません(これは未解決の部分です)が、人口について学んだことは何でも、いつそれを人口のメンバーに適用できるのでしょうか? 私が統計について理解していることから、人口の単一のメンバーには決して当てはまりませんが、しばしば、他の人が「世界人口の10%がこの病気にかかっていることを読んだ」という議論に自分自身を見つけ、部屋の10人に1人がこの病気にかかっていると結論付けます。 この部屋にいる10人は、統計が関連するのに十分な大きさのサンプルではないが、明らかにそうではないことを理解しています。 次に、十分な大きさについてこのことがありますサンプルます。信頼できる統計を得るのに十分な数の母集団のみを調べる必要があります。ただし、これは統計の複雑さに比例しませんか?非常にまれな何かを測定している場合、そのような統計の関連性を判断できるように、はるかに大きなサンプルが必要なわけではありませんか? 統計が関係するとき、私は新聞や記事の正当性に本当に疑問を呈します。それは彼らが自信を築くために使われている方法です。 それはちょっとした背景です。 質問に戻って、どのような方法で統計を使用して引数を作成できないか、または使用できない場合があります。統計に関するよくある誤解についてもっと知りたいので、質問を否定しました。

2
アンケートからの無駄な質問の特定
アンケートを作成しています。その信頼性と妥当性を改善するために、統計的手法を使用したいと思います。 答えが常に同じである質問を排除したい。これは、ほぼすべての参加者がこれらの質問に対して同じ回答をしたことを意味します。 今、私の質問は: 使用の文脈とは無関係に、答えが常に同じであるような役に立たない質問の専門用語は何ですか? そのような質問を識別する方法は何ですか?

2
因子分析、内部一貫性、およびアイテム応答理論を組み合わせて使用​​して、アイテムの数を減らす方法は?
私は経験的にアンケートを作成している最中であり、この例では任意の数字を使用して説明します。文脈のために、私は不安障害を持つ個人で一般的に特定される思考パターンを評価することを目的とした心理学的アンケートを作成しています。アイテムは、「オーブンがオフになっていることを確認できないため、オーブンを繰り返しチェックする必要があります」のように見えます。 1つまたは2つの要素で構成される20の質問(5点リッカート)があります(実際には、10のスケールで構成される200の質問があり、各スケールは2つの要素で構成されることに注意してください)。約半分の項目を消去して、2つの要因のいずれかに10の質問を残します。 探索的因子分析(EFA)、内部整合性(クロンバッハのアルファ)、アイテム応答理論(IRT)のアイテム特性曲線に精通しています。これらのメソッドのいずれかを使用して、単一のスケール内でどのアイテムが「悪い」かを判断する方法がわかります。それぞれの方法が異なる質問に答えることに感謝しますが、それらは同様の結果につながる可能性があり、どの「質問」が最も重要かはわかりません。 始める前に、これらの各メソッドで何をしているのかを個別に確認してください。 EFAを使用して、要因の数を特定し、それぞれの要因で最も負荷が少ない(たとえば<.30とする)項目、または実質的に要因間で相互に負荷をかける項目を削除します。 内部整合性を使用して、「アルファがアイテムを削除した場合」の悪いアイテムを削除します。スケール内の1つの因子を想定して行うことも、初期EFAの後に因子の数を特定し、その後各因子に対してアルファを実行することもできます。 IRTを使用して、(5リッカート)応答オプションに沿って関心のある要因を評価しないアイテムを削除します。私はアイテムの特性曲線を目撃します。基本的には、リッカートスケールのオプション1から潜在スコアに沿って最大5までの45度の角度の線を探します。1つの因子を仮定してこれを行うことも、最初の EFAの後に因子の数を特定し、その後各因子の曲線を実行することもできます。 どのアイテムが「最悪」であるかを最も適切に特定するために、これらの方法のどれを使用するかわかりません。広義の最悪の場合は、信頼性または有効性のいずれかの観点から項目が測定値を損なうように使用します。どちらも私にとって同様に重要です。おそらく私はそれらを一緒に使用することができますが、どうすればいいのかわかりません。 私が今知っていることを進めて、ベストショットを与えるとしたら、次のようにします。 EFAを実行して、多くの要因を特定します。また、他の分析でどのように動作するかに関係なく、負荷が大きくないアイテムが必要ないため、それぞれの要因で負荷が低いアイテムを削除します。 IRTを実行し、EFAから残っている場合は、その分析によって判断された不良アイテムも削除します。 CronbachのAlphaを報告するだけで、アイテムを削除する手段としてそのメトリックを使用しないでください。 一般的なガイドラインは大歓迎です! また、おそらく回答できる特定の質問のリストもあります。 因子負荷に基づいてアイテムを削除することと、Chronbachのアルファに基づいてアイテムを削除することの実際的な違いは何ですか(両方の分析に同じ因子レイアウトを使用すると仮定)? どちらを先にすればいいですか?EFAとIRTを1つの要素で行い、両方とも削除する必要がある異なるアイテムを特定すると仮定すると、どの分析を優先する必要がありますか? Chronbachのアルファを報告しますが、これらの分析をすべて行うことに苦労しているわけではありません。IRTだけを行うと、何かが足りなくなるだけでなく、EFAだけでも同じように感じます。

3
メジャーとして使用された統計は、レポートされた後に無効になりますか?[閉まっている]
休業。この質問には詳細または明確さが必要です。現在、回答を受け付けていません。 この質問を改善してみませんか?この投稿を編集して詳細を追加し、問題を明確にしてください。 2年前休業。 これが間違った場所であるかどうかお詫びします。しかし、私はディレクターに、彼の統計が真実を示さないことを説明しようとしています。彼は統計が報告されているものであり、スタッフが測定されるものであることを要求しているからです。しかし、私の説明は彼には通じません。 昔、名前の付いた法律、理論、またはそのための何かがあったことを読んだことを覚えています。それは完全にそれを説明しましたが、それが何であるか思い出せません。誰か知っていますか? 法の根拠は次のとおりです。レポートされた統計がパフォーマンスの測定基準として使用される場合、人々は統計が何を意味するのかではなく測定に対して正確に見えるようにすることを人々がすぐに習得するため、それらは効果測定ではなくなります。 チームの統計情報の表示方法を変更したい。

3
分布を見つけて正規分布に変換する
1時間にイベントが発生する頻度(「1時間あたりの数」、nph)とイベントが持続する時間(「1秒あたりの秒数」、dph)を説明するデータがあります。 これは元のデータです: nph <- c(2.50000000003638, 3.78947368414551, 1.51456310682008, 5.84686774940732, 4.58823529414907, 5.59999999993481, 5.06666666666667, 11.6470588233699, 1.99999999998209, NA, 4.46153846149851, 18, 1.05882352939726, 9.21739130425452, 27.8399999994814, 15.3750000002237, NA, 6.00000000004109, 9.71428571436649, 12.4848484848485, 16.5034965037115, 20.6666666666667, 3.49999999997453, 4.65882352938624, 4.74999999996544, 3.99999999994522, 2.8, 14.2285714286188, 11.0000000000915, NA, 2.66666666666667, 3.76470588230138, 4.70588235287673, 13.2727272728677, 2.0000000000137, 18.4444444444444, 17.5555555555556, 14.2222222222222, 2.00000000001663, 4, 8.46153846146269, 19.2000000001788, 13.9024390245481, 13, 3.00000000004366, NA, …
8 normal-distribution  data-transformation  logistic  generalized-linear-model  ridge-regression  t-test  wilcoxon-signed-rank  paired-data  naive-bayes  distributions  logistic  goodness-of-fit  time-series  eviews  ecm  panel-data  reliability  psychometrics  validity  cronbachs-alpha  self-study  random-variable  expected-value  median  regression  self-study  multiple-regression  linear-model  forecasting  prediction-interval  normal-distribution  excel  bayesian  multivariate-analysis  modeling  predictive-models  canonical-correlation  rbm  time-series  machine-learning  neural-networks  fishers-exact  factorisation-theorem  svm  prediction  linear  reinforcement-learning  cdf  probability-inequalities  ecdf  time-series  kalman-filter  state-space-models  dynamic-regression  index-decomposition  sampling  stratification  cluster-sample  survey-sampling  distributions  maximum-likelihood  gamma-distribution 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.