Kerasでカスタムパフォーマンスメトリックを定義する方法


11

以下に従ってKeras(Tensorflowバックエンド)でカスタム指標関数(F1-Score)を定義しようとしました:

def f1_score(tags, predicted):

    tags = set(tags)
    predicted = set(predicted)

    tp = len(tags & predicted)
    fp = len(predicted) - tp 
    fn = len(tags) - tp

    if tp>0:
        precision=float(tp)/(tp+fp)
        recall=float(tp)/(tp+fn)
        return 2*((precision*recall)/(precision+recall))
    else:
        return 0

これまでのところ、とても良いですが、モデルのコンパイルに適用しようとすると:

model1.compile(loss="binary_crossentropy", optimizer=Adam(), metrics=[f1_score])

エラーが発生します:

TypeError                                 Traceback (most recent call last)
<ipython-input-85-4eca4def003f> in <module>()
      5 model1.add(Dense(output_dim=10, activation="sigmoid"))
      6 
----> 7 model1.compile(loss="binary_crossentropy", optimizer=Adam(), metrics=[f1_score])
      8 
      9 h=model1.fit(X_train, Y_train, batch_size=500, nb_epoch=5, verbose=True, validation_split=0.1)

/home/buda/anaconda2/lib/python2.7/site-packages/keras/models.pyc in compile(self, optimizer, loss, metrics, sample_weight_mode, **kwargs)
    522                            metrics=metrics,
    523                            sample_weight_mode=sample_weight_mode,
--> 524                            **kwargs)
    525         self.optimizer = self.model.optimizer
    526         self.loss = self.model.loss

/home/buda/anaconda2/lib/python2.7/site-packages/keras/engine/training.pyc in compile(self, optimizer, loss, metrics, loss_weights, sample_weight_mode, **kwargs)
    664                 else:
    665                     metric_fn = metrics_module.get(metric)
--> 666                     self.metrics_tensors.append(metric_fn(y_true, y_pred))
    667                     if len(self.output_names) == 1:
    668                         self.metrics_names.append(metric_fn.__name__)

<ipython-input-84-b8a5752b6d55> in f1_score(tags, predicted)
      4     #tf.convert_to_tensor(img.eval())
      5 
----> 6     tags = set(tags)
      7     predicted = set(predicted)
      8 

/home/buda/anaconda2/lib/python2.7/site-packages/tensorflow/python/framework/ops.pyc in __iter__(self)
    493       TypeError: when invoked.
    494     """
--> 495     raise TypeError("'Tensor' object is not iterable.")
    496 
    497   def __bool__(self):

TypeError: 'Tensor' object is not iterable.

ここで問題は何ですか?f1_score関数の入力がTensorflow配列ではないという事実は何ですか?もしそうなら、どこで/どのように正しく変換できますか?


エラーメッセージは、テンソルオブジェクトを取得していることを示しています。おそらく、結局のところevalが必要です!もしそうなら、あなたevalが意味するときにあなたの間違いが使用されている可能性がありますeval()
Neil Slater

回答:


16

Kerasバックエンド関数を使用する必要があります。残念ながら、それらは&-operatorをサポートしていないため、回避策を構築する必要があります:ディメンションの行列を生成batch_size x 3します(たとえば、真陽性の場合)最初の列はグラウンドトゥルースベクトル、2番目は実際の予測、3番目はラベルヘルパー列の一種で、真陽性の場合にのみ1を含みます。次に、どのインスタンスがポジティブインスタンスであり、ポジティブであると予測され、ラベルヘルパーもポジティブであるかを確認します。それらは真のポジティブです。

ラベルのいくつかの逆計算により、偽陽性、偽陰性、真陰性でこの類似物を作成できます。

f1-metricは次のようになります。

def f1_score(y_true, y_pred):
    """
    f1 score

    :param y_true:
    :param y_pred:
    :return:
    """
    tp_3d = K.concatenate(
        [
            K.cast(y_true, 'bool'),
            K.cast(K.round(y_pred), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    fp_3d = K.concatenate(
        [
            K.cast(K.abs(y_true - K.ones_like(y_true)), 'bool'),
            K.cast(K.round(y_pred), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    fn_3d = K.concatenate(
        [
            K.cast(y_true, 'bool'),
            K.cast(K.abs(K.round(y_pred) - K.ones_like(y_pred)), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    tp = K.sum(K.cast(K.all(tp_3d, axis=1), 'int32'))
    fp = K.sum(K.cast(K.all(fp_3d, axis=1), 'int32'))
    fn = K.sum(K.cast(K.all(fn_3d, axis=1), 'int32'))

    precision = tp / (tp + fp)
    recall = tp / (tp + fn)
    return 2 * ((precision * recall) / (precision + recall))

Keras-backend計算機はゼロによる除算に対してnanを返すため、returnステートメントにif-else-statementは必要ありません。

編集: 私は正確な実装のためのかなり良いアイデアを見つけました。最初のアプローチの問題は、バッチで計算され、その後平均化されるため、「近似」のみであることです。keras.callbacksを使用して各エポックの後にこれを計算することもできます。ここでアイデアを見つけてください:https : //github.com/fchollet/keras/issues/5794

実装例は次のとおりです。

import keras
import numpy as np
import sklearn.metrics as sklm


class Metrics(keras.callbacks.Callback):
    def on_train_begin(self, logs={}):
        self.confusion = []
        self.precision = []
        self.recall = []
        self.f1s = []
        self.kappa = []
        self.auc = []

    def on_epoch_end(self, epoch, logs={}):
        score = np.asarray(self.model.predict(self.validation_data[0]))
        predict = np.round(np.asarray(self.model.predict(self.validation_data[0])))
        targ = self.validation_data[1]

        self.auc.append(sklm.roc_auc_score(targ, score))
        self.confusion.append(sklm.confusion_matrix(targ, predict))
        self.precision.append(sklm.precision_score(targ, predict))
        self.recall.append(sklm.recall_score(targ, predict))
        self.f1s.append(sklm.f1_score(targ, predict))
        self.kappa.append(sklm.cohen_kappa_score(targ, predict))

        return

ネットワークがこの関数を呼び出すようにするには、次のようなコールバックに追加するだけです。

metrics = Metrics()
model.fit(
    train_instances.x,
    train_instances.y,
    batch_size,
    epochs,
    verbose=2,
    callbacks=[metrics],
    validation_data=(valid_instances.x, valid_instances.y),
)

その後、単にmetrics変数のメンバーにアクセスできます。


3
ありがとうございます。これは既に非常に便利です。カスタム指標をテンソルボードコールバックに組み込んで、トレーニング中に監視できるようにする方法を知っていますか?
N.Kaiser
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.