私はいくつかの値を予測したいのですが、可能な限り低く、よりも大きい間で最適化する予測を取得しようとしています。つまり、
単純な線形回帰は完全にうまくいくと思います。だから私はこれを手動で実装する方法をいくらか知っていますが、私はこの種の問題を抱えた最初の人ではないと思います。私がやりたいことをしているパッケージ/ライブラリ(できればpython)がありますか?探す必要があるキーワードは何ですか?
関数Y_0(x)> 0を知っていたら、ます。これらの制限を実装する最良の方法は何ですか?
私はいくつかの値を予測したいのですが、可能な限り低く、よりも大きい間で最適化する予測を取得しようとしています。つまり、
単純な線形回帰は完全にうまくいくと思います。だから私はこれを手動で実装する方法をいくらか知っていますが、私はこの種の問題を抱えた最初の人ではないと思います。私がやりたいことをしているパッケージ/ライブラリ(できればpython)がありますか?探す必要があるキーワードは何ですか?
関数Y_0(x)> 0を知っていたら、ます。これらの制限を実装する最良の方法は何ですか?
回答:
私があなたを正しく理解しているなら、あなたは過大評価の側で間違いを犯したいと思うでしょう。その場合、適切な非対称コスト関数が必要です。1つの簡単な候補は、損失の2乗を調整することです。
ここで、は、過小評価のペナルティと過大評価のトレードオフに使用できるパラメーターです。\ alphaの正の値は過大評価にペナルティを科すため、負に設定する必要があります。Pythonでは、これは次のようになりますdef loss(x, a): return x**2 * (numpy.sign(x) + a)**2
次に、いくつかのデータを生成しましょう:
import numpy
x = numpy.arange(-10, 10, 0.1)
y = -0.1*x**2 + x + numpy.sin(x) + 0.1*numpy.random.randn(len(x))
最後に、tensorflow
自動化された微分をサポートするGoogleの機械学習ライブラリ(このような問題の勾配ベースの最適化をより簡単にする)で回帰を行います。この例を出発点として使用します。
import tensorflow as tf
X = tf.placeholder("float") # create symbolic variables
Y = tf.placeholder("float")
w = tf.Variable(0.0, name="coeff")
b = tf.Variable(0.0, name="offset")
y_model = tf.mul(X, w) + b
cost = tf.pow(y_model-Y, 2) # use sqr error for cost function
def acost(a): return tf.pow(y_model-Y, 2) * tf.pow(tf.sign(y_model-Y) + a, 2)
train_op = tf.train.AdamOptimizer().minimize(cost)
train_op2 = tf.train.AdamOptimizer().minimize(acost(-0.5))
sess = tf.Session()
init = tf.initialize_all_variables()
sess.run(init)
for i in range(100):
for (xi, yi) in zip(x, y):
# sess.run(train_op, feed_dict={X: xi, Y: yi})
sess.run(train_op2, feed_dict={X: xi, Y: yi})
print(sess.run(w), sess.run(b))
cost
は通常の二乗誤差で、一方acost
、前述の非対称損失関数です。
使用cost
すると
1.00764 -3.32445
使用acost
すると
1.02604 -1.07742
acost
明らかに過小評価しないようにします。収束をチェックしませんでしたが、アイデアは得られます。
acost
。ただし、関数の定義に対する1つの質問です。y_model-Y
2回計算することは重要ですか?
非対称損失関数を選択します。1つのオプションは、分位点回帰(線形ですが、正と負の誤差の勾配が異なります)です。