PAC学習理論とはどういう意味ですか?


15

私は機械学習が初めてです。私は機械学習(スタンフォード大学)のコースを勉強していますが、この理論が何を意味するのか、そしてその有用性は何なのか理解できませんでした。誰かが私のためにこの理論を詳述できるかどうか疑問に思っています。

この理論はこの方程式に基づいています。 ここに画像の説明を入力してください


2
PACは、「ほぼ正しい」の略です。
マーク

「それはアプローチが与えられた問題の確率ソリューションを提供している機械学習を意味し、この溶液をapproximaltely正しい傾向にある」:@MarcClaesenは、私はこのようにそれを説明してもらえ
BetterEnglish

1
ここに楽しいリンクがあります:autonlab.org/tutorials/pac.html またはこれ:autonlab.org/_media/tutorials/pac05.pdf
EngrStudent-Reinstate Monica

回答:


16

おそらくほぼ正しい(PAC)学習理論は、学習者がおそらくほぼ正しい分類器を出力するかどうか、およびどのような条件下で分析するのに役立ちます。(一部のソースでは、Lの代わりにAが使用されています。)LAL

まず、「おおよそ」を定義しましょう。仮説ある約正しい入力の分布上のエラーがいくつかによって制限される場合ε 0 ε 1hHすなわち、errorDh<ϵ、ここでDは入力全体の分布です。ϵ,0ϵ12.errorD(h)<ϵD

次に、「おそらく」。もし確率で意志出力ようなA分類器1 - δと、0 δ 1L1δ、その分類器をおそらくほぼ正しいと呼びます。0δ12

ターゲットコンセプトがPACで学習可能であることを知ることで、おそらくほぼ正しい分類子を学習するために必要なサンプルサイズを制限することができます。

m1ϵ(ln|H|+ln1δ)

これについての直観を得るために、右側の変数を変更したときのへの影響に注意してください。許容誤差が小さくなると、必要なサンプルサイズが大きくなります。同様に、ほぼ正しい学習者の確率と、仮説空間Hのサイズとともに成長します。(大まかに言うと、仮説空間はアルゴリズムが考慮する分類子のセットです。)より明確に、より多くの可能性のある分類子を検討する場合、またはより低いエラーまたはより正確な確率を求める場合、それらを区別するためにより多くのデータが必要です。mH

さらに、この長文の紹介や多くの機械学習テキストの1つであるMitchellのように、このビデオやその他の関連ビデオが役立つ場合があります。


これ私が長い間探していたタイプの答えです。シンプルでありながらサウンド。多くの情報源から広範な回答が得られますが、クイックリファレンスとしてはあまり好まれません。
エーベアイザック

3


(xi,yi)xiyix~y~
しかし、1,000,000と言います。シーケンス1,2,3、... 999,999が与えられた場合、次の数字が1,000,000であることを確認できます。ただし、次の数値は999,999.5、さらには5になります。ポイントは、表示されるデータが多いほど、正確なモデルを作成したことを確信できることですが、絶対に確実ではありません。

xi,1imyifθfΘp>1δfΘϵ(δ,ϵ)(δ,ϵ) そして、与えられた仮説のクラスがどれほど複雑か。

Hfθ(ϵ,δ)0<ϵ,δ,<.5fΘx~,y~Err(fΘ(x~),y~)<ϵp>1δm=m(δ,ϵ,H)(fΘ(x~)y~)2

(δ,ϵ)

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.