タグ付けされた質問 「svm」

サポートベクターマシンは、「分類と回帰分析に使用される、データを分析してパターンを認識する一連の関連する教師あり学習方法」を指します。

1
SVM(サポートベクターマシン)のカテゴリデータと連続データを混在させることはできますか?
私のようなデータセットがあります +--------+------+-------------------+ | income | year | use | +--------+------+-------------------+ | 46328 | 1989 | COMMERCIAL EXEMPT | | 75469 | 1998 | CONDOMINIUM | | 49250 | 1950 | SINGLE FAMILY | | 82354 | 2001 | SINGLE FAMILY | | 88281 | 1985 | SHOP & HOUSE | …

2
Gaussian RBFカーネルに有限次元の特徴空間がないことを証明する方法は?
動径基底関数k (x 、y )= exp (− | | x − y | | 2)に対してそれを証明する方法k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})いかなる有限次元の特徴空間がないHHH一部のように、Φ:Rn→HΦ:Rn→H\Phi: \text{R}^n \to H我々は?k(x,y)=⟨Φ(x),Φ(y)⟩k(x,y)=⟨Φ(x),Φ(y)⟩k(x, y) = \langle \Phi(x), \Phi(y)\rangle


1
SVMでの超平面からの距離の解釈
SVMを直感的に理解することにはいくつか疑問があります。SVMLightやLibSVMなどの標準ツールを使用して、分類用のSVMモデルをトレーニングしたとします。 このモデルをテストデータの予測に使用すると、モデルは各テストポイントの「アルファ」値を持つファイルを生成します。アルファ値が正の場合、テストポイントはクラス1に属し、そうでない場合はクラス2に属します。「アルファ」値が大きいテストポイントは、「高い」確率で対応するクラスに属すると言えますか。 最初の質問と同様に、SVMのトレーニングを受けています。SVは超平面の非常に近くにあります。それは、SVがそのクラスに高い確率で属することを意味しますか?クラスに属するポイントの確率を、「超平面」からの距離と関連付けることができますか?「アルファ」値は「超平面」からの距離を表しますか? ご意見ありがとうございます。

1
キャレットglmnetとcv.glmnet
glmnetwithin caretを使用して最適なラムダを検索cv.glmnetし、同じタスクを実行するために使用することの比較には、多くの混乱があるようです。 次のような多くの質問が提起されました。 分類モデルtrain.glmnet対cv.glmnet? キャレットでglmnetを使用する適切な方法は何ですか? 「キャレット」を使用して「glmnet」を相互検証する しかし、答えはありません。これは、質問の再現性による可能性があります。最初の質問に続いて、非常に似た例を挙げますが、同じ質問があります:推定されるラムダはなぜそんなに違うのですか? library(caret) library(glmnet) set.seed(849) training <- twoClassSim(50, linearVars = 2) set.seed(849) testing <- twoClassSim(500, linearVars = 2) trainX <- training[, -ncol(training)] testX <- testing[, -ncol(testing)] trainY <- training$Class # Using glmnet to directly perform CV set.seed(849) cvob1=cv.glmnet(x=as.matrix(trainX),y=trainY,family="binomial",alpha=1, type.measure="auc", nfolds = 3,lambda = seq(0.001,0.1,by = …

1
GAM vs LOESS vsスプライン
コンテキスト:パラメトリックではない散布図に線を描画したいのでgeom_smooth()、ggplotin を使用していRます。geom_smooth: method="auto" and size of largest group is >=1000, so using gam with formula: y ~ s(x, bs = "cs"). Use 'method = x' to change the smoothing method.一般化された加法モデルのGAMスタンドを収集し、3次スプラインを使用して自動的に戻ります。 次の認識は正しいですか? レスは、特定の値で応答を推定します。 スプラインは、データ(一般化された加法モデルを構成する)に適合するさまざまな区分的関数を接続する近似であり、3次スプラインはここで使用される特定のタイプのスプラインです。 最後に、スプラインはいつ使用する必要があり、LOESSはいつ使用する必要がありますか?


2
KKTの概要
目的 KKTの理解が正しいかどうかを確認します。KKTに関する詳細な説明と確認を求めてください。 バックグラウンド KKTの条件、特に補完的な条件を理解しようとしています。これは、SVMの記事で常に青く表示されます。抽象式のリストは必要ありませんが、具体的で直感的でグラフィカルな説明が必要です。 質問 コスト関数f(X)を最小化するPが制約(g(P)> = 0)内にある場合、それは解です。この場合、KKTは関係ないようです。 Pが制約内にない場合、KKTが言うように、解Xは図の下で満たす必要があります。それはすべてKKTですか、それとも他の重要な側面を見逃していますか? その他の説明 KKTを適用するには、f(x)を凸にする必要がありますか? KKTを適用するには、g(x)を線形にする必要がありますか? λは、λ* g(X)= 0で必要ですか?なぜg(X)= 0またはg(Xi)= 0では不十分なのですか? 参照資料 ラグランジュ乗数KKT条件 SVMのすべてのガターポイントには正の乗数がありますか? http://fnorio.com/0136Lagrange_method_of_undetermined_multipliers/Lagrange_method_of_undetermined_multipliers.html アップデート1 答えてくれてありがとう、それでも理解するのに苦労しています。ここでのみ必要性に焦点を当てます。 マシュー・ガンの非最適点(緑色の円)に関する回答の条件(2)とKKTはそこで満たされませんか?そして、マーク・L・ストーンの答えのようにヘッシアンを見ると、その点が特定されるでしょうか? 別の状況は点であると思いますが、同じことが当てはまりますか? user23658

3
非線形データに可能な限りカーネルトリックを使用する必要がありますか?
私は最近、カーネルトリックの使用について学びました。カーネルトリックは、これらの次元のデータを線形化するために、データを高次元の空間にマップします。このテクニックの使用を避けるべきケースはありますか?適切なカーネル関数を見つけるだけの問題ですか? 線形データの場合、これはもちろん有用ではありませんが、非線形データの場合、これは常に有用であると思われます。線形分類器の使用は、トレーニング時間とスケーラビリティの点で非線形よりもはるかに簡単です。


2
e1071 libsvmの問題?
2つの重複するクラス(各クラスに7つのポイント、ポイントは2次元空間)を持つデータセットがあります。Rでは、これらのクラスの分離ハイパープレーンを構築するためにパッケージから実行svmしていe1071ます。私は次のコマンドを使用しています: svm(x, y, scale = FALSE, type = 'C-classification', kernel = 'linear', cost = 50000) ここにxは私のデータポイントとyそのラベルが含まれています。このコマンドはsvm-objectを返します。これを使用して、分離する超平面のパラメーター(法線ベクトル)とb(切片)を計算します。wwwbbb 下の図(a)は、私のポイントとsvmコマンドによって返された超平面を示しています(この超平面を最適なものと呼びましょう)。記号Oの付いた青い点はスペースの原点を示し、点線はマージンを示し、丸で囲まれた点は非ゼロの(スラック変数)を持ちます。ξξ\xi 図(b)は別の超平面を示しています。これは、最適な平面を5だけ平行移動したものです(b_new = b_optimal-5)。この超平面の目的関数 (C-分類SVMによって最小化される)は、図()に示す最適な超平面の場合よりも低い値を有するであろう。この機能に問題があるように見えますか?または、どこかでミスをしましたか?0.5 || w | |2+ C O S T Σ ξ私0.5||w||2+cost∑ξ私 0.5||w||^2 + cost \sum \xi_i svm 以下は、この実験で使用したRコードです。 library(e1071) get_obj_func_info <- function(w, b, c_par, x, y) { xi <- rep(0, …

1
サポートベクターマシンを大きなデータで使用できますか?
SVMに関する知識が限られているため、短くて太いデータマトリックス(機能が多く、インスタンスが多すぎない)には適していますが、ビッグデータには適していません。XXX 1つの理由は、カーネルマトリックスがマトリックスであることを理解しています。ここで、はデータ内のインスタンスの数です。100Kデータと言った場合、カーネル行列は要素を持ち、約80Gのメモリを必要とする場合があります。KKKn×nn×nn \times nnnnKKK1010101010^{10} 大きなデータで使用できるSVMの変更はありますか?(100Kから100万のデータポイントのスケールで言うと?)


3
ブースティング法が外れ値に敏感な理由
ブースティング方法は外れ値に敏感であると述べている記事を多く見つけましたが、その理由を説明する記事はありません。 私の経験では、外れ値はどの機械学習アルゴリズムにとっても悪いのですが、なぜブースティング法が特に敏感であると特定されているのですか? ブースターツリー、ランダムフォレスト、ニューラルネットワーク、SVM、ロジスティック回帰などの単純な回帰法など、外れ値に対する感度の観点から、次のアルゴリズムはどのようにランク付けされますか?


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.