それらの違いを知りたいです。基本的に、それらは最後にパラメーターの係数を見つけるときに同じ仕事をしますが、係数を見つける方法が異なるだけです。私にとって、最小二乗法は微分と行列形式を使用して係数を見つけ、疑似逆行列は行列操作のみを使用しているようですが、それらの違いをどのように言えますか?またはまったく違いはありませんか?
それらの違いを知りたいです。基本的に、それらは最後にパラメーターの係数を見つけるときに同じ仕事をしますが、係数を見つける方法が異なるだけです。私にとって、最小二乗法は微分と行列形式を使用して係数を見つけ、疑似逆行列は行列操作のみを使用しているようですが、それらの違いをどのように言えますか?またはまったく違いはありませんか?
回答:
線形回帰のコンテキストでは、「最小二乗」とは、二乗誤差を最小化する係数を見つけたいという意味です。この最小化の実行方法は指定されておらず、多くの可能性があります。応答ベクトルにリグレッサ行列のMoore-Penrose疑似逆数を乗算することは、これを行う1つの方法であり、したがって、最小二乗線形回帰に対する 1つのアプローチです(他の人が指摘したとおり)。
回帰行列が完全なランクを持っていない場合、メソッド間の違いが生じる可能性があります。これは、たとえば、変数の数がデータポイントの数を超える場合に発生する可能性があります。この場合、最適な係数の選択肢は無限にあります。メソッドは、この無限のセットから1つのソリューションを選択する方法が異なります。この状況での疑似逆法の際立った特徴は、最小値で解を返すことです。 規範。
それは、「分化技術」が何を意味するかによる。それによって私が理解できる方法は2つあります。
微分を使用して勾配を導出し、エラーサーフェスで勾配降下を実行します。ただし、これは線形回帰ではかなり珍しいことです(ただし、他の種類の回帰では異なります)。
微分を使用して勾配を導出し、次にそれを使用して勾配をゼロに設定することにより最小値を分析的に決定します。
最初の方法は、疑似逆法とは大きく異なります。2番目は違います。微分を実行し、勾配をゼロに設定した結果の方程式を解くと、一般的な解決策として正確に疑似逆行列が得られます。
これについて考えれば、それは非常に理にかなっています。異なる技法が異なる係数につながる場合、どちらが正しいかを判断するのは困難です。それらが同じ係数を生成する場合、ある方法に使用される方程式を別の方法から導出できることも事実です。
ŁukaszGradが指摘したように、疑似逆解は最小二乗誤差に基づいています。つまり、あなたは実際に最小化問題を解決しています、
エラーwrtを区別することによって 。次に、ソリューションを取得します。。(擬似逆行列は逆行列ではないことに注意してください。したがって、解を等しいと解釈することはできません。、からの解決策のように見えるかもしれません マトリックス操作で直接。これは、疑似逆行列を見つける方法の別のトピックです。)
共分散ベースのソリューションについて質問している場合 、それの間の線形関係に基づいて直接的な解決策として解釈することができます そして 。実際、このソリューションも最小二乗誤差から厳密に推定されており、その差は疑似逆のものとは本質的ではありません。これはまだ疑似逆解ですが、線が確実に平均値のポイントを通過することを知っています。したがって、エラーメジャーは次のように書き直すことができます。
使うとき 表現します そして 表現します 、疑似逆行列を使用したソリューションは、共分散を使用したソリューションと同じです。違いは、切片を個別に計算する必要があることです。なぜなら、 そして 、あなたは実質的に座標を中心に置きます そしてあなたのラインはそれを通過するので、切片はゼロです。で切片を計算することにより、新しい座標系を元の座標系にマッピングしました。