タグ付けされた質問 「lg.learning」

機械学習と学習理論:PAC学習、アルゴリズム学習理論、ベイズ推論とグラフィカルモデルの計算的側面。

3
統計学習理論の最近の進歩に関するリソース/本
私はVCディメンションの背後にある理論にかなり精通していますが、現在(過去10年間)の統計学習理論の進歩に目を向けています。定理、疑似次元、脂肪分解次元、パッキング数、Rademacher組成、そしておそらく私が知らない他の結果/ツール。 ウェブサイト、調査、記事のコレクション、または何よりも、これらのトピックをカバーする本はありますか? または、単純なクラスのRademacher平均をバインドする方法の例を調べています。これは、人々が軸に揃えられた四角形を使用してVCディメンションをバインドする方法を示すのと同じです。 前もって感謝します。

1
どの機械学習分類器が最も並列化可能ですか?
どの機械学習分類器が最も並列化可能ですか?難しい分類問題があり、時間は限られているが、動作するコンピューターのLANはまともな場合、どの分類子を試してみますか? 手元では、私が知っているいくつかの標準的な分類器のように見えますが、次のように積み上げられますが、完全に間違っている可能性があります。 ランダムフォレスト-各マシンがすべてのデータを保持できる限り、非常に並列化できます(つまり、トレーニングデータ自体を分割することはできませんが、それ以外の場合は並列化できます)。 ブースティング-? サポートベクターマシン-あまり並列化できません。 決定木-部分的に分割できますが、効率的ではありません。

3
検索エンジンマーケティングオークションでのキーワード選択の問題
まず第一に、cstheoryがこの質問にうまく適合しているかどうかはまだわからないので、群衆がそうではないと考えても私は気分を害することはありません... 検索エンジンマーケティングでは、いくつかの問題が興味深いです。公正な(そして収益性の高い)オークションメカニズムの設計と、制限された通貨リソースの下での最適な入札戦略の計算は、興味深い(そして十分に文書化された)問題の2つの例です。 もう1つの興味深い問題は、キーワードの選択の問題です。最も収益性の高いキーワードを選択する方法です(利用可能な金額やキーワードの「トピック」へのリンクがありません)。「収益性の高い」とは、最高の収益または最高の利益をもたらすことです。これらの問題は不確実性を扱います。キーワードのクリック率は不明であり、コンバージョン率も不明です。 この問題に関連する理論的な作業を知っていますか?

5
オンライン学習を理解する上で良い参考資料は何ですか?
具体的には、動作中にそれぞれの信念ネットワーク(または同等のもの)を更新できる機械学習システムについて学ぶためのリソースを求めています。ブックマークすることはできませんでしたが、いくつかに出くわしたこともあります。 ご想像のとおり、インターネットで検索するのはかなり難しいトピックです。

1
不可知論的PACサンプリングの下限
古典的なPACの学習では、例が whpの誤差範囲を達成するために必要であることはよく知られています。ここで、は概念クラスのVC次元です。Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd 不可知論者の場合、例が必要であることはわかっていますか?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

2
ランダムフォレストの理論的な結果は?
ランダムフォレストは、最も効果的な分類手法の1つであると実務家の間で定評があります。それでも、学習理論の文献ではそれらにあまり遭遇していません。そこから、深い理論的な結果がないことを推測します。この理論を掘り下げたい場合、どこから始めればよいでしょうか。

1
R ^ dのボロノイセルのVC次元?
ポイントがあるとします。これらはボロノイ図を誘導します。ポイントのそれぞれにラベルを割り当てると、これらはバイナリ関数を誘導します。質問:いくつかの点とこれらの点のいくつかのラベル付けによって引き起こされるすべてのそのような可能なバイナリ関数のVC次元は何ですか?kkk k± R d kRdRd\mathbb{R}^dkkk±±\pmRdRd\mathbb{R}^dkkk

1
均一分布下での2-DNFの適切なPAC学習
サンプルクエリを使用し、均一な分布の下での適切な PAC学習2-DNF式のクエリの複雑さに関する最新の結果は何ですか?またはそれに重要な限界がありますか? 私は学習理論にまったく精通しておらず、この質問は別の分野に動機付けられているため、答えは明白かもしれません。私はカーンズとヴァジラーニの本をチェックしましたが、彼らはこの設定を明示的に考慮していないようです。 upd。重要なパラメータはクエリの複雑さですが、実行時間も重要です。可能であれば、実行時間はクエリの複雑度とほぼ同じにするか、多くても多項式にする必要があります。 upd。BalcanとHarveyによる論文「Learning Submodular Functions」の付録B(18ページの上部)は、「2-DNFが効率的にPAC学習可能であることはよく知られている」と述べています。しかし、彼らは、この結果が適切な学習のためであるか、参照を与えるかどうかについては言及していません。

2
本当にPACで学習できることが知られている正式な言語のファミリはありますか?
具体的には、任意に長い文字列を許可する言語ファミリを意味します。nビット以上の結合、決定リスト、{0,1} ^ nに含まれるその他の「単純な」言語ではありません。 「論理理論」のものとは対照的な「自動理論」通常言語について質問しています。区分的にテスト可能な言語、開始高さゼロの言語、ローカルでテスト可能な言語などのようなものです。関連する複雑性パラメータnは、最小許容DFAのサイズです。簡単に言えば、PACを効率的に学習できることが知られているnステートDFAの興味深いファミリはありますか?


1
VCディメンションは、離散、非バイナリ、非順序ドメインに一般化されていますか?
VCディメンションは、関数のクラスの複雑さの尺度であり、サンプルの複雑さに密接に関連しています。脂肪分解次元は、より豊富な順序ドメインに適した一般化です。つまり、です。離散的で順序付けられていないドメインを持つ関数に適したVC次元の標準的な一般化はありますか?すなわちここで、は順序付けのない有限集合です。F :X → Rf:X→ { 0 、1 }f:X→{0,1}f:X\rightarrow \{0,1\}f:X→ Rf:X→Rf:X\rightarrow \mathbb{R}Kf:X→Kf:X→Kf:X\rightarrow KKKK

2
クラスタリングアルゴリズムの計算の複雑さ
私の希望は、いくつかのクラスタリングアプローチの時間の複雑さについて説明することです。たとえば、次元空間にデータポイントがます。nnnmmm さらに、次元のペアワイズ非類似度マトリックスが既に計算されており、ステップをすでに費やしていると仮定します。その時の時間の複雑さは何ですかΔΔ\Deltan×nn×nn\times nO(m⋅n2)O(m⋅n2)O(m\cdot n^2) ウォードのリンケージを使用した階層的クラスタリング(HC) 完全リンケージを使用するHC 平均リンケージを使用するHC 単一リンケージを使用するHC kkk -medoidアプローチ 平均法kkk 非類似度行列がまだ計算されていない場合、何か利点はありますか?私はそれがHCのために必要であることを理解してたようkは -medoidアプローチではなく、ために --meansを?ΔΔ\Deltakkkkkk ご協力ありがとうございました!
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.