外れ値を見つけるためのIsolationForestでのGridSearchCVの使用


10

IsolationForest外れ値の検索に使用したい。でのモデルに最適なパラメータを見つけたいGridSearchCV。問題は、常に同じエラーが発生することです。

TypeError: If no scoring is specified, the estimator passed should have a 'score' method. The estimator IsolationForest(behaviour='old', bootstrap=False, contamination='legacy',
                max_features=1.0, max_samples='auto', n_estimators=100,
                n_jobs=None, random_state=None, verbose=0, warm_start=False) does not.

方法IsolationForestがないので、問題があるようscoreです。これを修正する方法はありますか?また、孤立した森のスコアを見つける方法はありますか?これは私のコードです:

import pandas as pd
from sklearn.ensemble import IsolationForest
from sklearn.model_selection import GridSearchCV

df = pd.DataFrame({'first': [-112,0,1,28,5,6,3,5,4,2,7,5,1,3,2,2,5,2,42,84,13,43,13],
                   'second': [42,1,2,85,2,4,6,8,3,5,7,3,64,1,4,1,2,4,13,1,0,40,9],
                   'third': [3,4,7,74,3,8,2,4,7,1,53,6,5,5,59,0,5,12,65,4,3,4,11],
                   'result': [5,2,3,0.04,3,4,3,125,6,6,0.8,9,1,4,59,12,1,4,0,8,5,4,1]})

x = df.iloc[:,:-1]

tuned = {'n_estimators':[70,80,100,120,150,200], 'max_samples':['auto', 1,3,5,7,10],
         'contamination':['legacy', 'outo'], 'max_features':[1,2,3,4,5,6,7,8,9,10,13,15],
         'bootstrap':[True,False], 'n_jobs':[None,1,2,3,4,5,6,7,8,10,15,20,25,30], 'behaviour':['old', 'new'],
         'random_state':[None,1,5,10,42], 'verbose':[0,1,2,3,4,5,6,7,8,9,10], 'warm_start':[True,False]}

isolation_forest = GridSearchCV(IsolationForest(), tuned)

model = isolation_forest.fit(x)

list_of_val = [[1,35,3], [3,4,5], [1,4,66], [4,6,1], [135,5,0]]
df['outliers'] = model.predict(x)
df['outliers'] = df['outliers'].map({-1: 'outlier', 1: 'good'})

print(model.best_params_)
print(df)

何でしょう、あなたのスコアのための選択?正確さ?MSE?また、報告されたエラーの後に続くすべてのコードを削除してください(コードは実行されないため、質問とは無関係です-不要な混乱を招くだけです)。
砂漠の飛行士、

精度スコアが欲しいので、質問に関係のないコードを削除しました
多賀1989年

回答:


9

IsolationForestscoreメソッドが組み込まれていないため、独自のスコアリング関数を作成する必要があります。代わりにscore_samples、で利用できるIsolationForest(のプロキシと見なすことができる)関数を利用して、ここscore説明するように独自のスコアラーを作成し、それをに渡すことができます。これを行うようにコードを変更しました。GridSearchCV

import pandas as pd
import numpy as np
from sklearn.ensemble import IsolationForest
from sklearn.model_selection import GridSearchCV

df = pd.DataFrame({'first': [-112,0,1,28,5,6,3,5,4,2,7,5,1,3,2,2,5,2,42,84,13,43,13],
                   'second': [42,1,2,85,2,4,6,8,3,5,7,3,64,1,4,1,2,4,13,1,0,40,9],
                   'third': [3,4,7,74,3,8,2,4,7,1,53,6,5,5,59,0,5,12,65,4,3,4,11],
                   'result': [5,2,3,0.04,3,4,3,125,6,6,0.8,9,1,4,59,12,1,4,0,8,5,4,1]})

x = df.iloc[:,:-1]

tuned = {'n_estimators':[70,80], 'max_samples':['auto'],
     'contamination':['legacy'], 'max_features':[1],
     'bootstrap':[True], 'n_jobs':[None,1,2], 'behaviour':['old'],
     'random_state':[None,1,], 'verbose':[0,1,2], 'warm_start':[True]}  

def scorer_f(estimator, X):   #your own scorer
      return np.mean(estimator.score_samples(X))

#or you could use a lambda aexpression as shown below
#scorer = lambda est, data: np.mean(est.score_samples(data)) 

isolation_forest = GridSearchCV(IsolationForest(), tuned, scoring=scorer_f)
model = isolation_forest.fit(x)

サンプル出力

print(model.best_params_)

{'behaviour': 'old',
 'bootstrap': True,
 'contamination': 'legacy',
 'max_features': 1,
 'max_samples': 'auto',
 'n_estimators': 70,
 'n_jobs': None,
 'random_state': None,
 'verbose': 1,
 'warm_start': True}

お役に立てれば!


そしてこれなしでこれを行う方法はありlambdaますか?
タガ

lambda上記のように、式を関数に置き換えることができます。
Parthasarathy Subburaj

私の友人に感謝します、この質問で私を助けてくれませんか? stackoverflow.com/questions/58214457/...
多賀

-1

スコアリングはIsolationForestではなく、GridSearchCVオブジェクトを参照していると思います。

「なし」(デフォルト)の場合、推定器のスコアリングを使用しようとします。GridSearchCVオブジェクト内の問題に適した利用可能なスコアリングメトリックの 1つを使用してみてください


これを示すコードを投稿できますか?現在のソリューションにはこれがありません
ConorL

問題は、私はその分離の森が教師なしであるので、y_trueとy_predを入れる方法がないと考えることである
多賀
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.