タグ付けされた質問 「weights」

2
ニューラルネットワークで重みを初期化する際の切り捨てられた正規分布の利点は何ですか?
フィードフォワードニューラルネットワークで接続の重みを初期化する場合、学習アルゴリズムが破れない対称性を避けるために、それらをランダムに初期化することが重要です。 さまざまな場所(TensorFlowのMNISTチュートリアルなど)で見た推奨事項は、標準偏差1を使用して切り捨てられた正規分布を使用することです。、ここでNは特定のニューロン層への入力の数です。1N−−√1N\dfrac{1}{\sqrt{N}}NNN 標準偏差の式により、バックプロパゲーションされた勾配が急速に溶解または増幅されないことが保証されます。しかし、通常の正規分布ではなく、切り捨てられた正規分布を使用している理由がわかりません。まれな異常値の重みを避けるためですか?

4
kNNでの関係、重み、および投票の処理
私はkNNアルゴリズムをプログラミングしていますが、次のことを知りたいです: タイブレーク: 多数決で明確な勝者がいない場合はどうなりますか?たとえば、k個のすべての最近傍が異なるクラスに属している、またはk = 4の場合、クラスAから2つの近傍とクラスBから2つの近傍がありますか? 同じ距離を持っているより多くの隣人があるために正確にk個の最も近い隣人を決定することが不可能な場合はどうなりますか?たとえば、距離のリストの(x1;2), (x2;3.5), (x3;4.8), (x4;4.8), (x5;4.8), (x6;9.2)場合、3番目から5番目の近傍はすべて同じ距離を持っているため、k = 3またはk = 4の近傍を決定することはできません。 重さ: 勝ったクラスを選択する前に、k最近傍に重みを付けるのが良いと読みました。それはどのように機能しますか?すなわち、隣人はどのように重み付けされ、クラスはどのように決定されますか? 多数決案: 多数決以外の勝ち組を決定する他のルール/戦略はありますか?

4
ニューラルネットワーク-重みの意味
フィードフォワードNNを使用しています。コンセプトは理解していますが、重みについての質問です。それらをどのように解釈できますか、つまり、それらが何を表しているのか、またはそれらがどのように理解されていないのか(関数係数のみであるため)?「重みのスペース」と呼ばれるものを見つけましたが、それが何を意味するのかよくわかりません。

1
通常のクリギングの例
geoRand gstat(およびautomap)の両方を使用した空間クリギングのチュートリアルをオンラインで実行しました。空間クリギングを実行でき、その背後にある主要な概念を理解しています。セミバリオグラムを作成する方法、モデルをそれに適合させる方法、および通常のクリギングを実行する方法を知っています。 私が理解していないのは、周囲の測定値の重みがどのように決定されるかです。私はそれらがセミバリオグラムから派生し、予測位置からの距離と測定された点の空間配置に依存していることを知っています。しかし、どうやって? 誰もが3つのランダムな測定点と1つの予測位置を使用して通常のクリギング(非ベイジアン)モデルを作成できますか?それは啓発的でしょう。

2
重みとオフセットは、ポアソン回帰で同様の結果をもたらすことができますか?
では、「一般化線形モデルにA実施者のガイド」のパラグラフ1.83でそれがことが述べられています。 「ポアソン乗法GLMの特定のケースでは、エクスポージャーの対数に等しいオフセット項を使用してクレームカウントをモデリングすると、以前の重みが各観測のエクスポージャーと等しくなるように設定されたクレーム頻度のモデリングと同じ結果が生成されたことが示されます。 」 私はこの結果についてこれ以上の参考文献を見つけることができなかったので、ステートメントが正しいことの証拠を見つけることができなかったいくつかの経験的テストを行いました。この結果が正しい/間違っている理由について誰かが洞察を提供できますか? 参考までに、私は次のRコードを使用して仮説をテストしました。この仮説では、上記の2つのケースで同様の結果を得ることができませんでした。 n=1000 m=10 # Generate random data X = matrix(data = rnorm(n*m)+1, ncol = m, nrow = n) intercept = 2 coefs = runif(m) offset = runif(n) ## DGP: exp of Intercept + linear combination X variables + log(offset) mu = exp(intercept + X%*%coefs + log(offset)) …

2
(任意に)重み付けされた最尤推定量の分布は何ですか?
独立変数のベクトルと従属変数を、尤度で観察するとします。が独立していると仮定します。またあなたが肯定与えられていると仮定した重み、任意であり、加重最尤推定量を計算する(WMLEか?): WMLE、の分布は?XiXiX_iyiyiy_il(θ;Xi,yi)l(θ;Xi,yi)l\left(\theta;X_i,y_i\right)yiyiy_iwiwiw_iθ^=argmaxθ∑1≤i≤nwilogl(θ;Xi,yi).θ^=arg⁡maxθ∑1≤i≤nwilog⁡l(θ;Xi,yi). \hat{\theta} = \arg \max_{\theta} \sum_{1\le i\le n} w_i \log l\left(\theta;X_i,y_i\right). θ^θ^\hat{\theta} 2つに分割せずに質問をさらに複雑にする可能性がある場合は、2つのケースを検討する必要があります。 wiwiw_i完全に独立してXiXiX_iとyiyiy_i。 wiwiw_i従属変数に依存yiyiy_i何らかの方法で(おそらく、決定論的または確率的。)
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.