タグ付けされた質問 「least-squares」

変数の観測値など、2つの量の間の2乗差を最小化するパラメーター値を選択する一般的な推定手法と、パラメーター値に条件付けされたその観測の期待値を指します。ガウス線形モデルは最小二乗法で近似され、最小二乗法は推定量を評価する方法として平均二乗誤差(MSE)の使用の基礎となるアイデアです。

1
私たちが知っているように、線形最小二乗分析の父親(または母親)は誰ですか?
背景: 最小二乗誤差近似はしばらく前からありました。 ラプラス、PS「カルクデプロバビリテのデメソデス分析」。Ch。Théorieanalytique desprobabilitésの4、Livre 2、3 ed。パリ:クールシエ、1820年。 ガウス、CF「Theoria Combinationis obsevationum erroribus minimis obnoxiae。」Werke、Vol。4.ゲッティンゲン、ドイツ:p。1、1823。 ウィキペディアは、ガウスとルジャンドルをその属性としています。(リンク) 多くのソフトウェアツールは、基本的な線形近似を実行して、近似の質を分析します。(JMP、R 'lm'、...) 2020年から1820年の間に200年のスパンがあります。どこかに詳細が追加されました。 質問: 私たちが知っているように、分析の効果的な「父」(または母)は誰ですか? この基本的な分析方法のように、「最初の」を最大80%(またはそれ以上)作成した誰かが「過去に戻る」必要がありますか? この「最初の作品」について言及してもらえますか?

4
リッジ回帰:値に向けて正則化
従来のリッジ回帰推定は β^ridge=(XTX+λI)−1XTYβ^ridge=(XTX+λI)−1XTY \hat{\beta}_{ridge} = (X^TX+\lambda I)^{-1} X^T Y これは、ペナルティ項を追加することで得られます。λ||β||22λ||β||22\lambda ||\beta||^2_2 私は特定の価値に向けて正則化することに関する文献を見つけるのに苦労してきました。特に、ペナルティの形式を使用するリッジ回帰モデルを調べました。ここで、は、繰り返し再重み付けされた最小二乗の設定での初期推定です。次に、リッジ回帰推定はλ||β−B||22λ||β−B||22\lambda ||\beta-B||^2_2BBBββ\beta β^ridge=(XTX+λI)−1(XTY+λB).β^ridge=(XTX+λI)−1(XTY+λB). \hat{\beta}_{ridge} = (X^TX+\lambda I)^{-1} (X^T Y + \lambda B). ラムダパラメータも非常に大きく()選択されているため、推定値がに収束しようとしているように見えます。λ=100000λ=100000\lambda=100000BBB なぜ値に向けて正則化するのですか?これはの解釈を変えますか?ββ\beta コメントや引用は大歓迎です。ありがとう!

3
サンプルサイズを2倍にすると、p値にどのような影響がありますか
それらがOLS回帰[帰無仮説検定]の2つの変数間の根本的な関係であるとすると、サンプルサイズを2倍にした場合のp値にはどのような影響がありますか?(最初のサンプルが母集団の代表であり、後続のサンプルも代表であると仮定します)。 根本的な関係がある限り、サンプルサイズを増やすとp値が小さくなることは明らかですが、pとnの関係の性質をさらに理解することに興味があります。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.