タグ付けされた質問 「logistic-regression」

22
PythonでSoftmax関数を実装する方法
Udacityの深い学習クラス、Y_Iのソフトマックスは、単に全体のYベクトルの指数の合計で割った指数です。 どこS(y_i)のソフトマックス関数であるy_iとe指数関数的であるとjnoです。入力ベクトルYの列の数。 私は以下を試しました: import numpy as np def softmax(x): """Compute softmax values for each sets of scores in x.""" e_x = np.exp(x - np.max(x)) return e_x / e_x.sum() scores = [3.0, 1.0, 0.2] print(softmax(scores)) これは次を返します: [ 0.8360188 0.11314284 0.05083836] しかし、提案された解決策は: def softmax(x): """Compute softmax values for each sets of scores …

2
TensorFlowでクロスエントロピー損失を選択する方法は?
ロジスティック回帰や多項ロジスティック回帰などの分類問題は、クロスエントロピー損失を最適化します。通常、クロスエントロピー層はソフトマックス層の後に続き、確率分布を生成します。 テンソルフローには、少なくとも1ダースの異なるクロスエントロピー損失関数があります。 tf.losses.softmax_cross_entropy tf.losses.sparse_softmax_cross_entropy tf.losses.sigmoid_cross_entropy tf.contrib.losses.softmax_cross_entropy tf.contrib.losses.sigmoid_cross_entropy tf.nn.softmax_cross_entropy_with_logits tf.nn.sigmoid_cross_entropy_with_logits ..。 どちらが二項分類にのみ機能し、どれがマルチクラス問題に適していますか?sigmoid代わりにsoftmaxいつ使用する必要がありますか?sparse機能は他の機能とどのように異なり、なぜそれだけなのsoftmaxですか? 関連する(より数学指向の)議論:KerasとTensorFlowのこれらすべてのクロスエントロピー損失の違いは何ですか?。

1
glmでロジスティック回帰に適合するデフォルトの開始値
で指定されているデフォルトの開始値はどのようになっているのでしょうかglm。 この投稿は、デフォルト値がゼロとして設定されることを示唆しています。この1は、その背後にあるアルゴリズムは、しかし、関連するリンクが壊れているがあることを述べています。 単純なロジスティック回帰モデルをアルゴリズムトレースで近似しようとしました: set.seed(123) x <- rnorm(100) p <- 1/(1 + exp(-x)) y <- rbinom(100, size = 1, prob = p) # to see parameter estimates in each step trace(glm.fit, quote(print(coefold)), at = list(c(22, 4, 8, 4, 19, 3))) まず、初期値の指定なし: glm(y ~ x, family = "binomial") Tracing glm.fit(x = structure(c(1, …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.