タグ付けされた質問 「multinomial」

結果の それぞれが名目上のカテゴリーの1つに配置されるランダムな実験の結果を記述するために使用される多変量の離散確率分布。 nk

2
多項ロジスティック損失vs(クロスエントロピーvs二乗誤差)
Caffe(ディープラーニングフレームワーク)がほとんどのモデルサンプルの出力層としてSoftmax Loss Layer SoftmaxWithLossを使用していることを確認しました。 私の知る限り、Softmax損失層は、多項ロジスティック損失層とSoftmax層の組み合わせです。 カフェから、彼らはそれを言った Softmax Loss Layerの勾配計算は、数値的に安定しています。 ただし、この説明は私が望む答えではありません。説明は、レイヤーごとではなく、多項ロジスティック損失レイヤーとソフトマックス損失レイヤーの組み合わせを比較するだけです。しかし、他のタイプの損失関数と比較しないでください。 しかし、教師付き学習の観点から、これらの3つのエラー関数である多項ロジスティック損失、クロスエントロピー(CE)、二乗誤差(SE)の違い/利点/欠点は何ですか?支持記事はありますか?

1
合計を条件として、負の二項式の分布は何ですか
場合は負の二項をIIDされ、その後の分布ものです与えられたが(x 1、x 2、… 、x n)x1,x2,…,xnx1,x2,…,xnx_1, x_2, \ldots, x_n(x1,x2,…,xn)(x1,x2,…,xn)(x_1, x_2, \ldots, x_n) x1+x2+…+xn=Nx1+x2+…+xn=Nx_1 + x_2 + \ldots + x_n = N\quad? NNNは固定です。 場合ポアソンは、その後、合計の条件としている、多項です。混合ポアソンであるため、負の2項に当てはまるかどうかはわかりません。(x 1、x 2、… 、x n)x1,x2,…,xnx1,x2,…,xnx_1, x_2, \ldots, x_n(x1,x2,…,xn)(x1,x2,…,xn)(x_1, x_2, \ldots, x_n) あなたが知りたいのであれば、これは宿題の問題ではありません。

2
多項式でglmnetを実行するとエラーが発生する[終了]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? 質問を更新することがありますので、上のトピッククロス検証済みのため。 8か月前に閉鎖。 この質問で言及されている問題は、Rパッケージglmnetのバージョン1.7.3で修正されています。 私はfamily = multinomialでglmnetを実行する際にいくつかの問題を抱えており、同様の何かに遭遇したり、私が間違っていることを教えたりできるのではないかと思っていました。 自分のダミーデータを入力すると、実行時に「apply(nz、1、median)のエラー:dim(X)は正の長さでなければなりません」というエラーが表示されますcv.glmnet。私にとってあまり有益ではありませんでした。 y=rep(1:3,20) #=> 60 element vector set.seed(1011) x=matrix(y+rnorm(20*3*10,sd=0.4),nrow=60) # 60*10 element matrix glm = glmnet(x,y,family="multinomial") #=> returns without error crossval = cv.glmnet(x,y,family="multinomial") #=> Error in apply(nz, 1, median) : dim(X) must have a positive length crossval = cv.glmnet(x,y,family="multinomial",type.measure="class") #=> Error in apply(nz, …
9 r  multinomial  glmnet 

2
カテゴリー応答変数予測
次の種類のデータ(Rでコード化)があります。 v.a = c('cat', 'dog', 'dog', 'goat', 'cat', 'goat', 'dog', 'dog') v.b = c(1, 2, 1, 2, 1, 2, 1, 2) v.c = c('blue', 'red', 'blue', 'red', 'red', 'blue', 'yellow', 'yellow') set.seed(12) v.d = rnorm(8) aov(v.a ~ v.b + v.c + v.d) # Error v.bまたはの値にの値v.cを予測する能力があるかどうかを知りたいのですがv.a。私は(上記のように)分散分析を実行しますが、私の応答変数は序数ではないため(カテゴリカルであるため)、意味がありません。私は何をすべきか?

2
複数選択のカテゴリカル応答変数を使用したバイナリロジスティック回帰のセットの使用
13か国の特定の政策分野に対する人々の態度に関するカテゴリー調査データがあります。応答変数はカテゴリ型であり、順序付けできない4つの異なる回答が含まれています。 マルチレベルのランダム切片とランダムスロープの多項式モデルを構築したいと思います。問題は、レベル2のケースの数が13であり、モデルが少なくとも多項式の形では収束しないことです。 したがって、次善のオプションとして、応答変数をバイナリ形式に再コード化し、一連のマルチレベルのロジスティック回帰を実行し、予測確率を使用して、特定の関心のあるカテゴリが選択される確率がどのように依存するかを示します私の説明変数について。これは明らかに、次善の策にすぎません。このアプローチをとることで起こり得るリスクは何か、そして(査読者、監督者などから)どのような反論を期待すべきか知りたいのですが。

2
Rの2因子反復測定ANOVA後の事後検定?
Rで2因子(両方とも被験者内)のANOVAを繰り返し測定した後、事後テスト(Tukey HSD)を実行する方法に関する解決策を見つけるのに問題があります。ANOVAには、aov -functionを使用しました。 summary(aov(dv ~ x1 * x2 + Error(subject/(x1*x2)), data=df1)) 他の質問への回答を読んだ後、他の機能(lmeなど)を使用してANOVAを再実行する必要があることを知りました。これが私が思いついたものです。 Lme.mod <- lme(dv ~ x1*x2, random=list(subject=pdBlocked(list(~1, pdIdent(~x1-1), pdIdent(~x2-1)))), data=df1) anova(Lme.mod) 主な効果はどちらも有意でしたが、相互作用の効果はありませんでした。次に、これらの関数を事後比較に使用しました。 summary(glht(Lme.mod, linfct=mcp(x1="Tukey"))) summary(glht(Lme.mod, linfct=mcp(x2="Tukey"))) しかし、いくつかの問題がありました: まず、Rヘルプファイルには、「双方向ANOVAまたはANCOVAモデル(...)multcompバージョン1.0-0以降で対象のパラメーターを定義する場合、mcp関数は注意して使用する必要があります。主な効果の比較が生成されます。のみ、共変量と交互作用を無視します(古いバージョンは交互作用項で自動的に平均化されました)警告が表示されます。そして確かに、私は次の警告メッセージを受け取りました: Warning message: In mcp2matrix(model, linfct = linfct) : covariate interactions found -- default contrast might be inappropriate もう1つの不可解な点は、両方の主要な効果は有意でしたが、要因の1つ(x1)の事後比較に有意差はなかったということです。これに出会ったことはありません。スクリプト/分析は正しい/適切ですか、それとも欠けているものはありますか?どんな助けでも大歓迎です!

1
多項ロジスティック回帰におけるヘッセ行列誤差の予期しない特異点
SPSS 19を使用して多項ロジスティック回帰分析を行っています。分析手順を実行すると、次の問題が発生しました。 「ヘッセ行列に予期しない特異点が発生しました。これは、一部の予測変数を除外するか、一部のカテゴリをマージする必要があることを示しています。」 使用した私のデータについての少しの背景。1つまたは2つの2つのレベルを持つ4つのカテゴリカル予測子があります。モデルの応答変数は3レベルのカテゴリ変数です。最後のレベルを参照カテゴリとして使用しました。切片の係数を2つのロジットの4つの予測子の係数と比較して、この問題の原因となる可能性のある応答変数のレベルを見つけようとしました。切片と3つの予測子の間の係数の大きな違いは、問題があるのは参照カテゴリである可能性があることを示しています。ただし、応答変数のレベルを組み合わせることができませんでした(これは私の研究では許可されていません)。 予測変数を1つずつ除外することも試みましたが、それでも同じ問題が発生しました。 この問題を解決するために何をすべきかを誰かに教えてもらえますか?

1
非対称の事前知識を持つ多項分布のベイズ推定?
二項分布からいくつかのサンプルを取得するとします。私の以前の知識をモデル化する1つの方法は、パラメーターおよびベータ分布を使用することです。私が理解しているように、これは試験で「頭」を回見たのと同じです。そのため、本格的なベイジアン推論を行うための良い近道は、回の試行で頭を見た後の「頭」の確率の新しい平均としてを使用することです。β α α + β H + ααα\alphaββ\betaαα\alphaα + βα+β\alpha + \beta HのNh + αn + α + βh+αん+α+β\frac{h+\alpha}{n+\alpha+\beta}hhhんんn ここで、3つ以上の状態があると仮定します。そのため、多項分布からいくつかのサンプルを取得します。事前分布としてパラメーターを使用したディリクレ分布を使用するとします。ここでもショートカットとして、これをイベントの確率の事前知識としてと同等に扱うことができます回の試行でイベント回を目撃した場合、私の事後なります。。I α Iαα\alpha私私i IHNIH+αIα私Σのαjα私Σαj\frac{\alpha_i}{\sum \alpha_j}私私i hhhんんn私私ih + α私N + Σ αjh+α私ん+Σαj\frac{h + \alpha_i}{n + \sum \alpha_j} 今二項の場合には、それは「頭」の事前知識が発生していることをうまくいくで時間を裁判起こる「尾」に相当しますで時間をトライアル。論理的には、「尾」よりも「頭」の可能性についてより強い知識を持つことができるとは思いません。ただし、これは2つ以上の結果を伴ってより興味深いものになります。私が6面ダイスと言った場合、50トライアルではサイド1の事前知識は10に相当し、100トライアルではサイド2の事前知識は15 2に相当すると想像できます。α + β β α + βαα\alphaα + βα+β\alpha + \betaββ\betaα + βα+β\alpha + …

1
2つの多項分布の比較
背景:ピザを8つのスライスに切ったところを想像してみてください。 [ スライスの各直線エッジに、反対の極性を外側に向けた磁石を挿入します。これらのコンポーネントを分離して、ひっくり返さないようにして振ると、完全なピザになります。 ここで、追加のスライス(同じサイズ、フルピザの1/8)を入れても、フルピザが常に形成されるとは限りません。4&5、3&6、2&7および1&8のクラスターを形成できます。 モデル(Hosokawa et al。(1994)により提供)は、各クラスターが形成される確率を示します。モデルを検証するために、いくつかの物理実験を行います。実験条件ごとに20回試行しています。 私の結果は次のようになります: Cluster Theoretical Physical 3,6: 6.01961132827 4 1,8: 2.77455224377 5 4,5: 6.62198848501 5 2,7: 4.58384794294 6 上記のデータは多項分布です(ダイスを振ったときに得られる分布に似ています)。9つのスライスがある場合、各試行は4つの状態のいずれかで終了できます。 9スライスの実験に加えて、40スライス(およびその他いくつか)の実験のデータも持っています。(ここに含めたい場合はお知らせください) 問題:適合度をテストするために、ピアソンのカイ2乗検定を実行します。ただし、両方の分布の平均は「近い」ため、帰無仮説を棄却できません。ただし、帰無仮説も受け入れられません。 質問:モデルが物理実験にどの程度「近づく」かを示すより良い方法はありますか?「標準偏差」に相当する多項式、またはおそらく信頼区間?信頼区間のある回帰? 更新:私の同僚は、Rでの回帰分析のために次のアプローチを提案しました: d=read.csv("data.csv") length(unique(d$abs_state)) nrow(d) d$n_componentsf=as.factor(d$n_components) ncomps=9 dsubs=d[d$n_components==ncomps,] # using exact multinomial test in EMT (better) library(EMT) # using Chi square test statistics EMT::multinomial.test(dsubs$freq_obs, …

1
ベンフォード・ロウのリアルタイムのテスト
で与えられる特定の量データがある。ここで、各数量の最初の桁を取得し、最初の桁の経験分布の関係を調べたいと思いここで、は、最初の数字としての正規化された頻度であり、ベンフォードの法則 今、この論文を読みましたXXXx1,...,xnx1,...,xnx_1,...,x_ndidid_ixixix_ip^=(p^1,...,p^n)p^=(p^1,...,p^n)\hat{p}=(\hat{p}_1,...,\hat{p}_n)pi^pi^\hat{p_i}iiipi=log10(1+1/i)pi=log10⁡(1+1/i) p_i = \log_{10} (1 + 1/i) 最初の桁の経験的頻度とベンフォードの法則を比較することについて。ただし、彼らが言及する方法を使用して、データが特定の頻度(たとえば、1秒あたり50データ)で到着する場合に、ベンフォードの法則をリアルタイムで一定の信頼度で棄却できるかどうかについては触れていません。 これらの方法は、次のようにベンフォードの法則とのリアルタイム比較に適用できると思います:(短い)時間間隔(たとえば、3秒)が与えられた場合、最初の桁の経験的頻度を計算します次に、前述のリファレンスに示されている統計の同時信頼区間と値を計算します(サンプルサイズを確認する必要があります)少なくとも60個のデータのため、統計の分布は、その必要があり、比較的近い漸近分布にすることなので、計算され -値がなければならない信頼できます)。p^=(p^1,...,p^n)p^=(p^1,...,p^n)\hat{p}=(\hat{p}_1,...,\hat{p}_n)pppppp 私の質問は、これは有効な手順ですか?それは意味がありますか?そうでない場合、経験的な最初の桁の分布をベンフォードの法則とリアルタイムで比較するための適切な方法はありますか? 私が目にする1つの潜在的な問題は、最初の数字の基になる分布が、指定された時間枠内で(おそらく1回以上)変化する可能性があることです。これが、最初の桁の基になる分布が変化する可能性を低減しながら、適切なサンプルサイズを確保するために、比較的小さな時間ウィンドウを使用することをお勧めする理由です。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.