タグ付けされた質問 「references」

特定の主題に関する外部参照(本、論文など)を求める質問。さらに、常により具体的なタグを使用してください。

4
リッジ回帰:値に向けて正則化
従来のリッジ回帰推定は β^ridge=(XTX+λI)−1XTYβ^ridge=(XTX+λI)−1XTY \hat{\beta}_{ridge} = (X^TX+\lambda I)^{-1} X^T Y これは、ペナルティ項を追加することで得られます。λ||β||22λ||β||22\lambda ||\beta||^2_2 私は特定の価値に向けて正則化することに関する文献を見つけるのに苦労してきました。特に、ペナルティの形式を使用するリッジ回帰モデルを調べました。ここで、は、繰り返し再重み付けされた最小二乗の設定での初期推定です。次に、リッジ回帰推定はλ||β−B||22λ||β−B||22\lambda ||\beta-B||^2_2BBBββ\beta β^ridge=(XTX+λI)−1(XTY+λB).β^ridge=(XTX+λI)−1(XTY+λB). \hat{\beta}_{ridge} = (X^TX+\lambda I)^{-1} (X^T Y + \lambda B). ラムダパラメータも非常に大きく()選択されているため、推定値がに収束しようとしているように見えます。λ=100000λ=100000\lambda=100000BBB なぜ値に向けて正則化するのですか?これはの解釈を変えますか?ββ\beta コメントや引用は大歓迎です。ありがとう!

2
畳み込みニューラルネットワークでの非長方形のカーネルの使用?特にゲームボードを分析するとき
私はたたみ込みネットワークと強化学習に関する大量の論文を読んでいます。 畳み込み層の形状が長方形ではない重要な紙(このばかげた図では緑色の形状)を見たのを覚えています。しかし、今は見つかりません。 それはAlphaGoの論文に似ているか、ゲームボードでの強化学習でした。 誰がそれがどの紙であったかを示唆または推測できますか?

1
カーネルを研究するための機能分析の学習
私はカーネルマシンの理論についてさらに学習しようとしていますが、多くのバックグラウンド計算を学ぶ必要があることを発見しました。そのため、このための優れたリソースを探しています。特に、SchölkopfとSmolaのLearning with Kernelsブックがあり、フーリエ変換、Greenの関数、演算子(たとえば、疑似微分演算子について聞いたことがありません)などについて説明しています。私はこれを使った経験はありませんが、本当に理解したいと思っています。私は確かに個々の例をググることはできますが、もっと包括的な扱いをしたいと思います。 これが曖昧または具体的である場合は申し訳ありませんが、私はカーネルとRKHS理論で快適に作業できるように、背景の数学を体系的に取得し始める方法を見つけるのに本当に苦労しています。どうもありがとう。 更新:私はこれが私に固有のものになるのではないかと心配していたので、私は自分のバックグラウンドを除外しましたが、それが尋ねられたためです:私は、標準の線形代数だけでなく、実際の分析と現代代数の1つのコースを受講しましたそして、多変量計算コース。私は微分方程式を研究していません。私はまた、数学的統計学のいくつかのコースを受講しました(メジャー理論を正式に研究したことはありませんが、メジャー理論のコースをいくつか含みます)。私はこれまでに調べた狭い範囲の統計(LLN、CLT、指数ファミリー、GLM、混合モデル、完全で十分な統計など)に満足していますが、純粋な数学はあまりありません私が感じる背景は私を傷つけ始めています。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.