タグ付けされた質問 「cost-function」

3
ロジスティック回帰におけるコスト関数のPython実装:ある式ではドット乗算、別の式では要素ごとの乗算
ロジスティック回帰の設定におけるPython、numpyおよび行列の乗算に関連する非常に基本的な質問があります。 まず、数学表記を使用していないことをおaび申し上げます。 マトリックスドット乗算と要素ごとのプルティプリケーションの使用について混乱しています。コスト関数は次のように与えられます: そして、Pythonで私はこれを次のように書いています cost = -1/m * np.sum(Y * np.log(A) + (1-Y) * (np.log(1-A))) しかし、たとえばこの式(最初の式-wに関するJの微分) は dw = 1/m * np.dot(X, dz.T) 上記でドット乗算を使用するのが正しい理由がわかりませんが、コスト関数では要素ごとの乗算を使用します。 cost = -1/m * np.sum(np.dot(Y,np.log(A)) + np.dot(1-Y, np.log(1-A))) これは詳しく説明されていませんが、質問は非常に単純なので、基本的なロジスティック回帰の経験がある人でも私の問題を理解できると思います。

1
ニューラルネットワークを使用した順序回帰のコスト関数
順序回帰を実行するようにニューラルネットワークをトレーニングするのに最適なコスト関数は何ですか。つまり、異なる値の間の相対的な順序のみが重要である任意のスケールで値が存在する結果を予測します(例:顧客が注文する製品サイズを予測するため) : 'small'(0としてコード化)、 'medium'(1としてコード化)、 'large'(2としてコード化)または 'extra-large'(3としてコード化))?私は、二次損失(「バニラ」回帰として問題をモデル化する)またはクロスエントロピー損失(問題を分類としてモデル化する)よりも良い代替策があるかどうかを把握しようとしています。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.