タグ付けされた質問 「fisher-scoring」

1
なぜロジスティック回帰最適化にニュートンの方法を使用するのが反復再加重最小二乗と呼ばれるのですか?
なぜロジスティック回帰最適化にニュートンの方法を使用するのが反復再加重最小二乗と呼ばれるのですか? ロジスティック損失と最小二乗損失は完全に異なるため、私には明らかではないようです。

2
GLMを適合させるときに、フィッシャーのスコアリングを使用することに大騒ぎするのはなぜですか?
なぜフィッティングGLMSが特別な最適化問題であるかのように扱う理由に興味があります。彼らは?それらは最大尤度であり、尤度を書き留めてから...最大化するように思えます!それでは、なぜ応用数学文献で開発された無数の最適化スキームの代わりにフィッシャースコアリングを使用するのでしょうか?

1
ニュートンラフソンとフィッシャーのスコアリングの最初の反復を明示的に見せていただけますか?
サンプルの各メソッドの最初の反復を計算することにより、Newton-Raphsonテクニックとテクニックの違いを理解しようとしFisher scoringていBernoulliます。(私はこのケースでは、私は明示的に、すぐに計算できることを知っている、私は繰り返しそれを行うには、単に理解し、どのように各メソッドの収束を見たいです)。πmleπmle\pi_{mle} 私は、コインを描くとし回、実際のパラメータπ 、T = 0.3である私には不明、と私は4頭を得たので、ˉ X = 0.4。n=10n=10n=10πt=0.3πt=0.3\pi_t=0.3X¯=0.4X¯=0.4\bar{X}=0.4 スコア関数は次のとおりです。 u(π)=nX¯π−n(1−X¯)1−πu(π)=nX¯π−n(1−X¯)1−πu(\pi) = \frac{n\bar{X}}{\pi} - \frac{n(1-\bar{X})}{1-\pi} 観測された漁師情報は次のとおりです。 J(π)=−nX¯π2−n(1−X¯)(1−π)2J(π)=−nX¯π2−n(1−X¯)(1−π)2J(\pi) = -\frac{n\bar{X}}{\pi^2} - \frac{n(1-\bar{X})}{(1-\pi)^2} 予想される漁師情報は次のとおりです。 I(π)=nπtπ2+n(1−πt)(1−π)2I(π)=nπtπ2+n(1−πt)(1−π)2I(\pi) = \frac{n\pi_t}{\pi^2} + \frac{n(1-\pi_t)}{(1-\pi)^2} そして、私たちが期待フィッシャー情報を簡素化できることに注意してください我々がそれを評価する場合にのみ、π=πtπ=πt\pi = \pi_tが、それがどこにあるか、我々が知りません... 今、私の最初の推測があるとしπ0=0.6π0=0.6\pi_0 = 0.6 Newton-Raphson単にこのように行きます: π1=π0−u(π0)/J(π0)π1=π0−u(π0)/J(π0) \pi_1 = \pi_0 - u(\pi_0)/J(\pi_0) ? そして、どうFisher-scoringですか? π1=π0+u(π0)/I(π0)π1=π0+u(π0)/I(π0) \pi_1 = \pi_0 + u(\pi_0)/I(\pi_0) πtπt\pi_tπtπt\pi_tπmleπmle\pi_{mle} これら2つの方法を可能な限り具体的に示してくれませんか。ありがとう!

2
フィッシャーのスコア関数は平均ゼロを持っています-それはどういう意味ですか?
尤度理論のプリンストンのレビューに従っています。彼らFisher’s score functionは、対数尤度関数の1次導関数として定義し、スコアはランダムなベクトルであると言います。例:幾何分布: u(π)=n(1π−y¯1−π)あなた(π)=ん(1π−y¯1−π) u(\pi) = n\left(\frac{1}{\pi} - \frac{\bar{y}}{1-\pi} \right) そして、それは確かに(パラメータ)関数であり、含むためランダムです。ππ\piy¯y¯\bar{y} しかし、彼らは私が理解していないことを言います:「真のパラメーター値評価されたスコアは平均ゼロです」と彼らはそれをとして公式化し。「真のパラメータ値」で評価して、その平均を見つけるとはどういう意味ですか?そして、幾何学的な例では、アイデンティティすると、すぐに?「真のパラメータ値」はこれとどのように関係していますか?ππ\piE(u(π))=0E(あなた(π))=0E(u(\pi)) = 0E(y)=E(y¯)=1−ππE(y)=E(y¯)=1−ππE(y) = E(\bar{y}) = \frac{1-\pi}{\pi}E(u(π))=0E(あなた(π))=0E(u(\pi)) = 0
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.