タグ付けされた質問 「ranking」

ランキングは、特定の刺激またはパフォーマーを「最高」から「最低」(または*逆*)に順序付けしたタスクまたは結果です。これは通常、刺激の評価と対照的です。(データ変換の方法としてのランキング-タグ[ranks]を使用)。

5
機械学習で階層/ネストされたデータを処理する方法
例で問題を説明します。いくつかの属性(年齢、性別、国、地域、都市)を与えられた個人の収入を予測するとします。あなたはそのようなトレーニングデータセットを持っています train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age Gender Income 1 1 1 1 23 M 31 2 1 1 1 48 F 42 3 1 1 2 62 M 71 4 …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

4
複数の変数から品質のインデックスを作成してランクの順序付けを可能にする
4つの数値変数があります。それらはすべて土壌の品質の尺度です。変数が大きいほど、品質が高くなります。それらすべての範囲は異なります: 1から10までのVar1 1000から2000までのVar2 150から300までのVar3 0から5までのVar4 4つの変数を組み合わせて、順序を正常にランク付けする単一の土壌品質スコアにする必要があります。 私の考えはとても簡単です。4つの変数すべてを標準化し、それらを合計します。得られるものは、ランク付けする必要があるスコアです。このアプローチの適用に問題はありますか?あなたがお勧めする他の(より良い)アプローチはありますか? ありがとう 編集: みんなありがとう。「ドメインの専門知識」については多くの議論が行われました...農業関連...一方で、より多くの統計情報が期待されていました。私が使用するテクニックに関しては、おそらく実験として単純なzスコアの合計+ロジスティック回帰になります。サンプルの大部分の品質が90%低いため、3つの品質カテゴリを1つにまとめ、基本的にバイナリの問題(品質が同じか品質が低いか)を考えます。私は1つの石で2羽の鳥を殺します。イベントレートの観点からサンプルを増やし、サンプルを分類してもらうことで専門家を活用しています。その後、専門家の分類されたサンプルを使用して、log-regモデルに適合させ、専門家との一致/不一致のレベルを最大化します。

4
ペアごとの競争データに基づいて評価とランキングを開始する方法は?
ペアワイズ方式でのみ相互作用/競合するグループ(チェスのELO評価システムなどのシステム)の個人を評価およびランク付けする方法について学ぶのは興味深いです。 適切な方法や、より正確で高度な方法はありますか? 実装を容易にするRパッケージはありますか? 補助情報と試合/ゲームの結果を使用できる方法はありますか? 二分した勝ち/負けとは対照的に、勝ちマージンの情報をよりよく使用できる方法はありますか? 文献で何を探すべきですか?

4
チームスポーツごとに2人のプレーヤーで個々のプレーヤーの有効性を測定する
チームスコアのスプレッドシートがあります。最初のチームが10ポイント獲得。各チームには2人のプレーヤーがいます。プレーヤーは常に異なるチームメイトとプレイしますが、完全にランダムに選択されるわけではありません。個々のスコアは保持されません。 基本的に、ビルとボブはアンディ、アリスは10-4、ジェイクとビルはジョーとジョン10-8を破りました... 利用可能なすべての試合データに基づいて、個々のプレーヤーのランキングを決定することは可能ですか?基本的に、各プレーヤーがポイントの点で、または他のプレーヤーと比較して各ゲームにどれだけ貢献しているかを確認するには?

4
主観的なランク順の結果をどのようにグラフ化しますか?
ノンパラメトリックテストとは別に、主観的なランキングを視覚化する方法を探しています。 12人の参加者に、さまざまな主観的基準(それぞれのランキングを個別にランク付け)に従って8種類のアイテムをランク付けするように依頼しました。ランキングの個々のセットについて、ランキングの高レベルの傾向を視覚化する良い方法を探しています。 私は平均ランキングで棒グラフとレーダープロットの両方を試しましたが、他の人がランキングごとの応答数について散布図/バルーンプロットを使用しているのを見たことがありますが、何が最良の概要を伝えるかはよくわかりません。8つの平均ランキング、またはアイテムごとの各ランキングの8つのカウントを使用できます。 編集: 例:各列はアイテムであり、各行は8つのアイテムのそれぞれの人のランキングです。この例では特に強力な合意ではありませんが、一般的に全体的な傾向を伝える最良の方法を理解したいと考えています。 Item: A B C D E F G H Rater: 1 6 8 1 7 3 4 2 5 2 1 3 8 7 6 5 2 4 3 5 8 7 6 1 4 2 3 4 5 8 7 6 4 2 1 …

3
ランク付けされたリストの比較
とn 2で構成される2つのグループが、それぞれ重要度の高いものから順に25個のアイテムのセットをランク付けするとします。これらのランキングを比較する最良の方法は何ですか?n1n1n_1n2n2n_2 明らかに、25のMann-Whitney Uテストを実行することは可能ですが、これは25のテスト結果を解釈することになり、多すぎるかもしれません(そして、厳密な使用では、複数の比較の問題を持ち出します)。また、ランクがこのテストのすべての前提を満たしているかどうかも完全にはわかりません。 また、評価とランキングに関する文献へのポインタにも興味があります。 コンテキスト:これらの25項目はすべて教育に関連しており、2つのグループは異なるタイプの教育者です。両方のグループは小規模です。 @ttnphnsに応答して編集: グループ1とグループ2のアイテムの合計ランクを比較するつもりはありませんでした。@ ttnphnsが指摘しているように、これは定数です。ただし、グループ1とグループ2のランキングは異なります。つまり、グループ1は、グループ2よりもアイテム1のランクを高くすることができます。 それらをアイテムごとに比較し、各アイテムの平均または中央ランクを取得し、25のテストを行うことができましたが、これを行うためのより良い方法があるかどうか疑問に思いました。


3
ランキングアルゴリズムを評価するためのメトリック
ランキングアルゴリズムのいくつかの異なるメトリックを確認することに興味があります。Wikipediaのページにランク付けするためのリストがいくつかあります。 •平均平均精度(MAP)。 •DCGおよびNDCG。 •Precision @ n、NDCG @ n。「@ n」は、メトリックが上位n個のドキュメントでのみ評価されることを示します。 •平均相互ランク。 •ケンドールのタウ •スピアマンのロー •期待される相互ランク •Yandexのファウンド しかし、それぞれの利点/欠点、または他のものよりも優れたものを選択できる場合(またはNDGCで1つのアルゴリズムが他のアルゴリズムよりも優れていたが、MAPで評価した場合に悪化した場合の意味)は明確ではありません。 これらの質問についてさらに学ぶために行くことができる場所はありますか?

2
部分的なランキングのリストをグローバルランキングに変換する
私は次のような問題に取り組んでいます。私はたくさんのユーザーとN本を持っています。各ユーザーは、たとえばBook 1> Book 40> Book 25のように、読んだすべての本(N本のサブセットである可能性が高い)の順序付けられたランキングを作成します。 ここで、これらの個々のユーザーのランキングを、すべての本の単一の順序付けされたランキングに変えたいと思います。 試みる良いまたは標準的なアプローチはありますか?これまでのところ、ブラッドリー・テリーのモデルをペアワイズ比較に適用することを考えていますが、他に何かあるのか疑問に思っています。

5
Eloレーティングまたはページランキングが私のセットにとって意味があることを証明するにはどうすればよいですか?
プレーヤーのセットがあります。彼らはお互いに対戦します(ペアワイズ)。プレイヤーのペアはランダムに選択されます。どのゲームでも、あるプレイヤーが勝ち、別のプレイヤーが負けます。プレイヤーは互いに限られた数のゲームをプレイします(一部のプレイヤーはより多くのゲームをプレイし、一部はより少ないゲームをプレイします)。そのため、データがあります(誰が誰に対して何回勝ちますか)。今、私はすべてのプレイヤーが勝利の確率を決定するランキングを持っていると仮定します。 この仮定が実際に真実かどうかを確認したい。もちろん、EloレーティングシステムまたはPageRankアルゴリズムを使用して、すべてのプレーヤーのレーティングを計算できます。しかし、評価を計算することによって、それら(評価)が実際に存在すること、またはそれらが何を意味するかを証明しません。 言い換えれば、私はプレイヤーが異なる強さを持っていることを証明する(またはチェックする)方法を持ちたいです。どうすればできますか? 追加されました 具体的には、8人のプレイヤーと18のゲームしかありません。そのため、互いに対戦しなかったプレイヤーのペアがたくさんあり、お互いに一度だけプレイしたペアがたくさんあります。結果として、私は与えられたプレーヤーのペアの勝利の確率を推定できません。たとえば、6ゲームで6回勝ったプレーヤーがいることもわかります。しかし、それは単なる偶然かもしれません。

3
複数のランク付けリストからの総合ランク
このフォーラムを含め、オンラインで入手可能な多くの文献を調べましたが、幸運なしに、現在直面している統計上の問題を誰かが助けてくれることを望んでいます。 ランク付けされたデータの5つのリストがあり、各リストには、位置1(最高)から位置10(最悪)までの10個のアイテムが含まれています。コンテキストのために、各リストの10個の項目は同じですが、ランクを決定するために使用される手法が異なるため、ランクの順序が異なります。 サンプルデータ: List 1 List 2 List 3 ... etc Item 1 Ranked 1 Ranked 2 Ranked 1 Item 2 Ranked 3 Ranked 1 Ranked 2 Item 3 Ranked 2 Ranked 3 Ranked 3 ... etc 上記のデータを解釈および分析して、各テストとその位置に基づいて各アイテムの全体的なランクを示す最終結果を取得する方法を探しています。 Result Rank 1 = Item 1 Rank 2 = Item 3 Rank …

1
複数のメトリックを組み合わせて、k個のオブジェクトの比較/ランキングを提供する[質問と参照のリクエスト]
k個のオブジェクトに関するメトリックを収集するんnnkkk k個のオブジェクトについてメトリックを収集するとします。「ランク付け」できるようにk個のオブジェクトを比較する有効な方法を探しています。私はこれはよく踏みにじられた根拠かもしれないと思います(総クォーターバック評価などのスポーツ統計)が、私はこの分野に慣れていません。んnnkkkkkk どのオブジェクトが最適かという質問に答えたいですか? 収集されたメトリックに関する情報 各メトリックの、iは範囲である1 ≤ I ≤ N、メトリックのスコアM iは、の範囲[ 0 、rは私が ]。これらのメトリックのいくつかは100 %パーセントなどの理論上の最大値を持ち、他のr iはサンプル内の収集された最大スコア(たとえば、最高速度、高さなど)であることに注意してください。メートル私mim_i私ii1つの≤ I ≤ N1≤i≤n1 \leq i \leq nメートル私mim_i[ 0 、r私][0,ri][0, r_i]100 %100%100\%r私rir_i メトリックスコアの正規化/標準化 私の直感は、間の第1正規化するために、すべてのこれらのスコアである各スコアは、後に計算することが、全体的なスコアに等しく寄与するように、。[0,1][0,1][0,1] つまり、各メトリックについて、そのメトリックのスコアはm iになります。mimim_i。ここで、max(ri)は、サンプル内のそのメトリックの最大スコアです。私の直感では、これが有効であると確信することはできません。それが私の質問1です。この正規化手順は有効ですか?mimax(ri)mimax(ri)\frac{m_i}{\text{max}(r_i)}max(ri)max(ri)\text{max}(r_i) Also for each question the implicit question is I am probably completely wrong, what resources and topics should I be …

5
SEの貢献者の「丸み」を測定する方法は?
Stack Exchangeは、ご存知のように、さまざまなトピックを持つQ&Aサイトの集まりです。各サイトが互いに独立していると仮定すると、ユーザーが持っている統計を考慮して、次の人と比較して彼の「丸み」を計算する方法は?使用すべき統計ツールは何ですか? 正直なところ、「ウェルラウンドネス」を数学的に定義する方法はよくわかりませんが、次の特性が必要です。 すべてが同じであるほど、ユーザーの担当者が多いほど、ユーザーはよりバランスのとれたものになります すべてが同じであれば、ユーザーが参加するサイトの数が増えるほど、ユーザーはよりバランスの取れたものになります。 回答または質問がウェルネスに影響しないかどうか

3
ロジスティック回帰のランキング機能
私はロジスティック回帰を使用しました。6つの機能があります。他の機能よりも結果に影響を与えるこの分類子の重要な機能を知りたいです。Information Gainを使用しましたが、使用する分類子に依存しないようです。特定の分類子(ロジスティック回帰など)に基づいて機能を重要度に従ってランク付けする方法はありますか?任意の助けをいただければ幸いです。

1
コンセンサスランキングの信頼性を測定する方法(Kemenny-Snellブックの問題)
仮定専門家がそれぞれの組ランク付けするように依頼された順序または優先的にオブジェクトを。ランキングでの同点を許可しましょう。kkknnn John KemenyとLaurie Snellは、1962年の著書「社会科学における数学モデル」で、次の問題を解決することを提案しています。 プロジェクト。 人の専門家によるコンセンサスランキングの信頼性の尺度を作成します。たとえば、これは、単一のエキスパートのランキングを変更することによって引き起こされる可能性のある最大の変更に基づいている場合があります。(複数のコンセンサスランキングの可能性に注意を払う必要があります。)特定の可能な最も信頼できるコンセンサスと最も信頼できないコンセンサスに関するいくつかの定理を証明します。111kkkkkk この本は、ランキングの表記とランキングの集計方法を示しています(つまり、多くの「個人」から1つの「集団」ランキングを取得します)。しかし、上記の問題に対する答えはありません。 まず、ケンドールの一致係数WWWについて考えましたが、適切ではないようです。どんなアイデアでも大歓迎です!

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.