理論的には、入力のスケールはロジスティック回帰とは無関係です。「理論的に」にをすると、の推定値がそれに応じて調整されます。それはなり倍よりも小さい MLEはの不変性に起因します。X110101010β110−101010β1
しかし、Rに上記の調整された回帰を実行させてみてください-それはおかしくなります(X行列を構築することさえできません)。
これは、行列の平方根を計算するためのコレスキー分解アルゴリズムに少し似ています。はい、正確な数学では、コレスキー分解は負の数の平方根を取ることは決してありませんが、エラーを四捨五入し、浮動小数点演算はそのような場合につながる可能性があります。
X変数の任意の線形結合を使用でき、予測値は同じになります。
@simoneのアドバイスに従い、モデルのフィッティングに再スケーリングされたX変数を使用する場合。しかし、数値的に安定した入力X変数を使用した後、MLEの不変性プロパティを使用して必要なベータを取得できます。元のスケールのベータ版は、@ simoneの変換されたベータ版よりも解釈が容易な場合があります。したがって、変換された(番目の変数の番目の観測)が得られます。これをと呼び、次のように定義します。xijijx~ij
x~ij=ajxij+bj
@simoneの選択は、および(を使用して番目の変数の番目の統計、つまり)。とアルゴリズムパラメータ(アルゴリズムをより安定にかつ/またはより高速に実行するために選ばれた)と考えることができます。次に、を使用してロジスティック回帰を当てはめ、パラメーター推定を取得します。したがって、線形予測子を書き出します。aj=1x[N]j−x[1]jbj=x¯¯¯jx[N]j−x[1]jx[i]jijx[N]j≥x[N−1]j≥⋯≥x[1]jajbjx~ijβ~j
zi=β~0+∑jx~ijβ~j
ここで、の式を代入すると、次のようになります。x~ij
zi=β~0+∑j(ajxij+bj)β~j=β0+∑jxijβj
場所
β0=β~0+∑jbjβ~jβj=ajβ~j
理論的には、パラメーターはまったく違いをないことがわかります。線形予測子が変更されていないため、()選択は同じ可能性につながります。X行列を主成分(回転を含む)で表すなど、より複雑な線形変換でも機能します。そのため、結果を逆変換して、解釈に必要なベータを取得できます。aj,bjaj=0