タグ付けされた質問 「svm」

サポートベクターマシンは、「分類と回帰分析に使用される、データを分析してパターンを認識する一連の関連する教師あり学習方法」を指します。


5
SVMまたはニューラルネットワークを使用しているときにカテゴリ変数を数値変数に再コーディングする方法
SVMまたはニューラルネットワークを使用するには、カテゴリ変数を数値変数に変換(エンコード)する必要があります。この場合の通常の方法は、0-1番目のバイナリ値を使用し、k番目のカテゴリ値を(0,0、.. 。、1,0、... 0)(1はk番目の位置にあります)。これを行う他の方法はありますか?特に、0-1表現がニューラルネットワークに多数の追加の次元(入力単位)を導入するようなカテゴリ値(eg10000など)が多数ある場合、これはまったく望ましくない、または予期されないようです? 私は一般的な戦略について尋ねています。

3
分類のための半教師あり学習、能動学習、および深層学習
すべてのリソースが更新された最終編集: プロジェクトでは、機械学習アルゴリズムを分類に適用しています。 課題: 非常に限られたラベル付きデータと、より多くのラベルなしデータ。 目標: 半教師付き分類を適用する 何らかの方法で半教師付きのラベル付けプロセスを適用します(アクティブラーニングとして知られています) EM、Transductive SVM、S3VM(Semi Supervised SVM)の適用、またはLDAの使用など、研究論文から多くの情報を見つけました。このトピックに関する本はほとんどありません。 質問: 実装と実際のソースはどこにありますか? 最終更新(mpiktas、bayer、およびDikran Marsupialが提供するヘルプに基づく) 半教師付き学習: TSVM:SVMligthおよびSVMlinで。 PythonのEM Naive Bayes LinePipeプロジェクトのEM 能動的学習: Dualist:テキスト分類に関するソースコードを使用した能動学習の実装 このWebページは、アクティブラーニングの素晴らしい概要を提供しています。 実験的なデザインワークショップ:ここ。 深層学習: ここで紹介ビデオ。 一般サイト。 スタンフォード教師なし機能学習および深層学習チュートリアル。

1
カテゴリ属性を持つSVMを扱う方法
35次元(属性)のスペースがあります。私の分析上の問題は単純な分類です。 35のディメンションのうち、25を超えるものがカテゴリカルであり、各属性は50を超えるタイプの値を取ります。 そのシナリオでは、ダミー変数の導入も機能しません。 カテゴリ属性が多数あるスペースでSVMを実行するにはどうすればよいですか?

3
マルチクラス分類器の構築は、いくつかのバイナリ分類器よりも優れていますか?
URLをカテゴリに分類する必要があります。すべてのURLをゼロにする15のカテゴリがあるとします。 15ウェイ分類器の方が良いですか?15個のラベルがあり、各データポイントの機能を生成します。 または、15種類のバイナリ分類子を作成します。たとえば、映画または非映画で、これらの分類から取得した数値を使用して、ランキングを作成し、最適なカテゴリを選択します。


2
マルチクラスSVMを実行する最良の方法
SVMはバイナリ分類子であることを知っています。マルチクラスSVMに拡張したいと思います。それを実行するための最良の、そしておそらく最も簡単な方法はどれですか? コード:MATLAB u=unique(TrainLabel); N=length(u); if(N>2) itr=1; classes=0; while((classes~=1)&&(itr<=length(u))) c1=(TrainLabel==u(itr)); newClass=double(c1); tst = double((TestLabel == itr)); model = svmtrain(newClass, TrainVec, '-c 1 -g 0.00154'); [predict_label, accuracy, dec_values] = svmpredict(tst, TestVec, model); itr=itr+1; end itr=itr-1; end これはどのように改善できますか?

1
ランダムキッチンシンクはどのように機能しますか?
昨年のNIPS 2017では、アリラヒミとベンレヒトが論文「大規模カーネルマシンのランダム機能」で時間賞を受賞し、ランダムキッチンシンクアルゴリズムとして体系化されました。彼らの論文を公表する一環として、彼らは彼らのモデルが5行のmatlabで実装できることを示しました。 % Approximates Gaussian Process regression % with Gaussian kernel of variance gamma^2 % lambda: regularization parameter % dataset: X is dxN, y is 1xN % test: xtest is dx1 % D: dimensionality of random feature % training w = randn(D,d); b = 2 * pi * rand(D, 1); …

1
「機能空間」とは何ですか?
「機能空間」の定義は何ですか? たとえば、SVMについて読むとき、「機能空間へのマッピング」について読みます。CARTについて読むとき、「機能空間へのパーティション分割」について読みます。 何が起こっているのか、特にCARTについては理解していますが、見落としている定義があると思います。 「機能空間」の一般的な定義はありますか? SVMカーネルお​​よび/またはCARTについてより多くの洞察を与える定義がありますか?

3
SVM以外に、どのアルゴリズムが機能のスケーリングを必要としますか?
RandomForest、DecisionTrees、NaiveBayes、SVM(kernel = linear and rbf)、KNN、LDA、XGBoostなどの多くのアルゴリズムを使用しています。SVMを除き、それらはすべて非常に高速でした。それは、機能のスケーリングを高速化する必要があることを知ったときです。それから、他のアルゴリズムにも同じことをすべきかと思い始めました。

1
クイズ:判定境界で分類器に通知する
以下に6つの決定境界を示します。決定境界はスミレ線です。点と十字は2つの異なるデータセットです。どちらを決定する必要があります: 線形SVM カーネル化SVM(次数2の多項式カーネル) パーセプトロン ロジスティック回帰 ニューラルネットワーク(10の修正線形ユニットを含む1つの隠れ層) ニューラルネットワーク(10タン単位の1つの隠れ層) 解決策があります。しかし、もっと重要なのは、違いを理解することです。たとえば、c)は線形SVMです。決定境界は線形です。しかし、線形SVM決定境界の座標を均質化することもできます。d)多項式化された次数2であるため、カーネル化されたSVM。f)「粗い」エッジにより修正されたニューラルネットワーク。たぶんa)ロジスティック回帰:線形分類器でもありますが、確率に基づいています。

1
Naive BayesはSVMよりも優れたパフォーマンスを発揮しますか?
私が探していた小さなテキスト分類の問題で、Naive BayesはSVMと同等以上のパフォーマンスを示しており、非常に混乱していました。 あるアルゴリズムが他のアルゴリズムよりも勝つことを決定する要因は何かと思いまして。SVMでNaive Bayesを使用しても意味がない状況はありますか?誰かがこれに光を当てることができますか?

1
RBF SVMの効果を理解する方法
SVMのRBFカーネルの機能を理解するにはどうすればよいですか?私は数学を理解しているという意味ですが、このカーネルがいつ役に立つのかを知る方法はありますか? RBFにはベクトル距離が含まれているため、kNNの結果はSVM / RBFに関連しますか? 多項式カーネルの感覚を得る方法はありますか?私は次元が高ければ高いほど、それがウィグリーであることを知っています。しかし、可能性のあるすべてのカーネルを試して最も成功したものを選ぶのではなく、カーネルが何をするのか直観を得たいと思います。
17 svm  kernel-trick 

5
SVMの最適なメタパラメータを見つけるための高速な方法(グリッド検索よりも高速)
SVMモデルを使用して、大気汚染物質の短期予測を行っています。新しいモデルをトレーニングするには、SVMモデルに適切なメタパラメーターを見つける必要があります(C、ガンマなどを意味します)。 Libsvmのドキュメント(および私が読んだ他の多くの本)は、グリッド検索を使用してこれらのパラメーターを見つけることを提案しています。したがって、基本的に特定のセットからこれらのパラメーターの組み合わせごとにモデルをトレーニングし、最適なモデルを選択します。 最適な(または最適に近い)メタパラメーターを見つけるより良い方法はありますか?私にとっては、主に計算時間の問題です-この問題の1回のグリッド検索には約2時間かかります(最適化を行った後)。 グリッド検索の長所: 簡単に並列化することができます-20個のCPUがある場合、20倍高速になり、他のメソッドの並列化は難しくなります メタパラメータ空間の大部分をチェックするため、適切なソリューションがあればそれを見つけることができます。

2
ワンクラスSVMと典型的なSVM
負のデータがないことを念頭に置いて1クラスのSVM(OSVM)が提案され、正の集合と負のアンカーポイントを分離する決定境界を見つけようとしていることを理解しています。 2011年の研究では、OSVMとは異なると主張する「単一のカテゴリごとの分類子」をトレーニングするExemplar SVM(ESVM)を提案しています。計算」。これが何を意味するのか、ESVMがOSVMとどのように異なるのか、私にはよくわかりません。それで、それらはどのように違いますか?そして、ESVMでこの類似度カーネル計算はどのように回避されますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.