PandasデータフレームでOLS回帰を実行する


111

私はpandasデータフレームを、私はここで、列BおよびCの値から列Aの値を予測することができるしたい玩具例です。

import pandas as pd
df = pd.DataFrame({"A": [10,20,30,40,50], 
                   "B": [20, 30, 10, 40, 50], 
                   "C": [32, 234, 23, 23, 42523]})

理想的には、次のようなものols(A ~ B + C, data = df)がありますが、アルゴリズムライブラリのを見ると、scikit-learn列ではなく行のリストを使用してモデルにデータを供給しているように見えます。これは、リスト内のリストにデータを再フォーマットすることを必要とします。これは、最初にパンダを使用する目的に反するようです。パンダデータフレーム内のデータに対してOLS回帰(またはより一般的には機械学習アルゴリズム)を実行するための最もPython的な方法は何ですか?

回答:


152

バージョン0.20.0 より前の「オプションの依存関係」の1つであったstatsmodelsパッケージを使用すると、理想的にはほぼ正確に実行できると思います(でいくつか使用されていました)。pandaspandaspandas.stats

>>> import pandas as pd
>>> import statsmodels.formula.api as sm
>>> df = pd.DataFrame({"A": [10,20,30,40,50], "B": [20, 30, 10, 40, 50], "C": [32, 234, 23, 23, 42523]})
>>> result = sm.ols(formula="A ~ B + C", data=df).fit()
>>> print(result.params)
Intercept    14.952480
B             0.401182
C             0.000352
dtype: float64
>>> print(result.summary())
                            OLS Regression Results                            
==============================================================================
Dep. Variable:                      A   R-squared:                       0.579
Model:                            OLS   Adj. R-squared:                  0.158
Method:                 Least Squares   F-statistic:                     1.375
Date:                Thu, 14 Nov 2013   Prob (F-statistic):              0.421
Time:                        20:04:30   Log-Likelihood:                -18.178
No. Observations:                   5   AIC:                             42.36
Df Residuals:                       2   BIC:                             41.19
Df Model:                           2                                         
==============================================================================
                 coef    std err          t      P>|t|      [95.0% Conf. Int.]
------------------------------------------------------------------------------
Intercept     14.9525     17.764      0.842      0.489       -61.481    91.386
B              0.4012      0.650      0.617      0.600        -2.394     3.197
C              0.0004      0.001      0.650      0.583        -0.002     0.003
==============================================================================
Omnibus:                          nan   Durbin-Watson:                   1.061
Prob(Omnibus):                    nan   Jarque-Bera (JB):                0.498
Skew:                          -0.123   Prob(JB):                        0.780
Kurtosis:                       1.474   Cond. No.                     5.21e+04
==============================================================================

Warnings:
[1] The condition number is large, 5.21e+04. This might indicate that there are
strong multicollinearity or other numerical problems.

2
正しいキーワードがあることに注意してくださいformula、私が誤って入力されたformulas代わりと奇妙なエラーを得た:TypeError: from_formula() takes at least 3 arguments (2 given)
denfromufa

@DSM pythonの非常に新しい。同じコードの実行を試み、両方の印刷メッセージでエラーが発生しました:print result.summary()^ SyntaxError:invalid syntax >>> print result.parmas File "<stdin>"、line 1 print result.parmas ^ SyntaxError:括弧がありません'print'を呼び出します...たぶん、パッケージを間違ってロードしましたか?「プリント」を入れないと動作するようです。ありがとう。
a.powell 2017

2
@ a.powell OPのコードはPython 2用です。私が行う必要があると思う唯一の変更は、出力する引数を丸括弧で囲むことです。print(result.params)そしてprint(result.summary())
Paul Moore

あなたはこれを見て持っているとあなたに感謝することができれば、私は感謝:stackoverflow.com/questions/44923808/...
DESTA Haileselassie Hagos

このformula()アプローチを使用しようとすると、タイプエラーTypeError:__init __()がスローされます。必要な位置引数が1つありません: 'endog'なので、非推奨です。また、ols現在OLS
ピット

68

注: 0.20.0でpandas.stats 削除されました


これは次の方法で行うことができますpandas.stats.ols

>>> from pandas.stats.api import ols
>>> df = pd.DataFrame({"A": [10,20,30,40,50], "B": [20, 30, 10, 40, 50], "C": [32, 234, 23, 23, 42523]})
>>> res = ols(y=df['A'], x=df[['B','C']])
>>> res
-------------------------Summary of Regression Analysis-------------------------

Formula: Y ~ <B> + <C> + <intercept>

Number of Observations:         5
Number of Degrees of Freedom:   3

R-squared:         0.5789
Adj R-squared:     0.1577

Rmse:             14.5108

F-stat (2, 2):     1.3746, p-value:     0.4211

Degrees of Freedom: model 2, resid 2

-----------------------Summary of Estimated Coefficients------------------------
      Variable       Coef    Std Err     t-stat    p-value    CI 2.5%   CI 97.5%
--------------------------------------------------------------------------------
             B     0.4012     0.6497       0.62     0.5999    -0.8723     1.6746
             C     0.0004     0.0005       0.65     0.5826    -0.0007     0.0014
     intercept    14.9525    17.7643       0.84     0.4886   -19.8655    49.7705
---------------------------------End of Summary---------------------------------

statsmodelsパッケージをインストールする必要があることに注意してください。パッケージはpandas.stats.ols関数によって内部的に使用されます。


13
これはパンダの将来のバージョンで廃止されることに注意してください!
denfromufa 16

4
なぜそれをしているのですか?この機能が生き残ることを願っています!それは本当に便利で迅速です!
FaCoffee 2016年

2
The pandas.stats.ols module is deprecated and will be removed in a future version. We refer to external packages like statsmodels, see some examples here: http://www.statsmodels.org/stable/regression.html
javadba

2
@DestaHaileselassieHagos これは、の問題が原因である可能性がありますmissing intercepts。同等のRパッケージの設計者は、平均の調整を削除することにより調整します: stats.stackexchange.com/a/36068/64552。。その他の提案:you can use sm.add_constant to add an intercept to the exog arraydictを使用: reg = ols("y ~ x", data=dict(y=y,x=x)).fit()
javadba

2
彼らがpandas.statsremoved
3kstc

31

これは新しいである場合、私は知らないsklearnpandas、私は直接データフレームを渡すことができるよsklearnnumpyの配列または任意の他のデータ型へのデータフレームを変換せず。

from sklearn import linear_model

reg = linear_model.LinearRegression()
reg.fit(df[['B', 'C']], df['A'])

>>> reg.coef_
array([  4.01182386e-01,   3.51587361e-04])

2
OPからの小さな迂回- .values.reshape(-1, 1)データフレーム列に追加した後、この特定の答えは非常に役に立ちました。例:(x_data = df['x_data'].values.reshape(-1, 1)およびx_data同様に作成されたy_data)np配列を.fit()メソッドに渡します。
S3DEV 2017年

16

これは、リスト内のリストにデータを再フォーマットすることを必要とします。これは、最初にパンダを使用する目的に反するようです。

いいえ、そうではありません。NumPy配列に変換するだけです。

>>> data = np.asarray(df)

データのビューを作成するだけなので、一定の時間がかかります。次に、それをscikit-learnにフィードします。

>>> from sklearn.linear_model import LinearRegression
>>> lr = LinearRegression()
>>> X, y = data[:, 1:], data[:, 0]
>>> lr.fit(X, y)
LinearRegression(copy_X=True, fit_intercept=True, normalize=False)
>>> lr.coef_
array([  4.01182386e-01,   3.51587361e-04])
>>> lr.intercept_
14.952479503953672

3
私がやらなければならなかったのはnp.matrix( np.asarray( df ) )、sklearnが垂直ベクトルを期待していたのに対して、numpy配列は、配列からスライスすると、水平ベクトルのように動作するため、ほとんどの場合に最適です。
cjohnson318 2014年

ただし、このルートで係数のテストを行う簡単な方法はありません
MichaelChirico 2014年

2
Scikit-LearnにPandas DataFrameを直接フィードする方法はありませんか?
Femto Trader

他のsklearnモジュール(ディシジョンツリーなど)では、df ['colname']。valuesを使用しましたが、これは機能しませんでした。
szeitlin 2015

1
.values属性を使用することもできます。すなわち、reg.fit(df[['B', 'C']].values, df['A'].values)
3novak 2017年

6

Statsmodels kanは、pandasデータフレームへの列参照を直接使用してOLSモデルを構築します。

短くて甘い:

model = sm.OLS(df[y], df[x]).fit()


コードの詳細と回帰の要約:

# imports
import pandas as pd
import statsmodels.api as sm
import numpy as np

# data
np.random.seed(123)
df = pd.DataFrame(np.random.randint(0,100,size=(100, 3)), columns=list('ABC'))

# assign dependent and independent / explanatory variables
variables = list(df.columns)
y = 'A'
x = [var for var in variables if var not in y ]

# Ordinary least squares regression
model_Simple = sm.OLS(df[y], df[x]).fit()

# Add a constant term like so:
model = sm.OLS(df[y], sm.add_constant(df[x])).fit()

model.summary()

出力:

                            OLS Regression Results                            
==============================================================================
Dep. Variable:                      A   R-squared:                       0.019
Model:                            OLS   Adj. R-squared:                 -0.001
Method:                 Least Squares   F-statistic:                    0.9409
Date:                Thu, 14 Feb 2019   Prob (F-statistic):              0.394
Time:                        08:35:04   Log-Likelihood:                -484.49
No. Observations:                 100   AIC:                             975.0
Df Residuals:                      97   BIC:                             982.8
Df Model:                           2                                         
Covariance Type:            nonrobust                                         
==============================================================================
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
const         43.4801      8.809      4.936      0.000      25.996      60.964
B              0.1241      0.105      1.188      0.238      -0.083       0.332
C             -0.0752      0.110     -0.681      0.497      -0.294       0.144
==============================================================================
Omnibus:                       50.990   Durbin-Watson:                   2.013
Prob(Omnibus):                  0.000   Jarque-Bera (JB):                6.905
Skew:                           0.032   Prob(JB):                       0.0317
Kurtosis:                       1.714   Cond. No.                         231.
==============================================================================

R-2乗、係数、p値を直接取得する方法:

# commands:
model.params
model.pvalues
model.rsquared

# demo:
In[1]: 
model.params
Out[1]:
const    43.480106
B         0.124130
C        -0.075156
dtype: float64

In[2]: 
model.pvalues
Out[2]: 
const    0.000003
B        0.237924
C        0.497400
dtype: float64

Out[3]:
model.rsquared
Out[2]:
0.0190
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.