タグ付けされた質問 「machine-learning」

機械学習アルゴリズムに関する実装の質問。機械学習に関する一般的な質問は、特定のコミュニティに投稿する必要があります。

7
機能とラベルの違いは何ですか?
私は機械学習の基本についてのチュートリアルに従っていますが、何かが機能またはラベルである可能性があると述べられています。 私が知っていることから、機能は使用されているデータのプロパティです。ラベルが何であるかわからない。言葉の意味はわかっているが、機械学習の文脈でそれが何を意味するのか知りたい。

7
Tensorflowバックエンドを使用するKerasは、CPUまたはGPUを自由に使用するように強制できますか?
TensorflowバックエンドとCUDAでKerasをインストールしました。ときどきオンデマンドでKerasにCPUの使用を強制したいのですが。これは、仮想環境に別のCPUのみのTensorflowをインストールすることなく実行できますか?もしそうなら?バックエンドがTheanoの場合、フラグを設定できますが、Kerasを介してアクセス可能なTensorflowフラグについては聞いたことがありません。

6
TensorFlowでグラデーションクリッピングを適用する方法は?
サンプルコードを考えてみましょう。 グラデーションが爆発する可能性があるRNN上のこのネットワークにグラデーションクリッピングを適用する方法を知りたいです。 tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) これは使用できる例ですが、どこに導入すればよいですか?RNNのデフォルトで lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0) # Split data because rnn cell needs a list of inputs for the RNN inner loop _X = tf.split(0, n_steps, _X) # n_steps tf.clip_by_value(_X, -1, 1, name=None) しかし、テンソル_Xは入力であり、何がクリップされる卒業生ではないので、これは意味がありませんか? これに対して独自のオプティマイザを定義する必要がありますか、それともより簡単なオプションがありますか?

5
KerasのHDF5ファイルからモデルをロードする方法は?
KerasのHDF5ファイルからモデルをロードする方法は? 私が試したこと: model = Sequential() model.add(Dense(64, input_dim=14, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(64, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(2, init='uniform')) model.add(Activation('softmax')) sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True) model.compile(loss='binary_crossentropy', optimizer=sgd) checkpointer = ModelCheckpoint(filepath="/weights.hdf5", verbose=1, save_best_only=True) model.fit(X_train, y_train, nb_epoch=20, batch_size=16, show_accuracy=True, validation_split=0.2, verbose = 2, callbacks=[checkpointer]) 上記のコードは、最適なモデルをweights.hdf5という名前のファイルに正常に保存します。次に、そのモデルをロードします。以下のコードは、私がそうしようとした方法を示しています。 model2 …

9
機械学習とは何ですか?[閉まっている]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? Stack Overflowのトピックとなるように質問を更新します。 7年前休業。 この質問を改善する 機械学習とは何ですか? 機械学習コードは何をしますか? 機械が学習すると言うとき、それはそれ自体のコードを変更しますか、それとも、与えられた入力セットのコードの経験を含む履歴(データベース)を変更しますか?

3
ケラで2つのレイヤーを連結する方法は?
2つのレイヤーを持つニューラルネットワークの例があります。最初のレイヤーは2つの引数を取り、1つの出力を持ちます。2番目は、最初のレイヤーの結果として1つの引数と1つの追加の引数を取る必要があります。次のようになります。 x1 x2 x3 \ / / y1 / \ / y2 そのため、2つのレイヤーを持つモデルを作成してそれらをマージしようとしましたが、エラーが返されます:The first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.行にresult.add(merged)。 モデル: first = Sequential() first.add(Dense(1, input_shape=(2,), activation='sigmoid')) second = Sequential() second.add(Dense(1, input_shape=(1,), activation='sigmoid')) result = Sequential() merged = Concatenate([first, second]) ada_grad = Adagrad(lr=0.1, epsilon=1e-08, …


4
値の反復とポリシーの反復の違いは何ですか?
強化学習では、ポリシーの反復と値の反復の違いは何ですか? 私が理解している限り、値の反復では、ベルマン方程式を使用して最適なポリシーを解きますが、ポリシーの反復では、ポリシーπをランダムに選択し、そのポリシーの報酬を見つけます。 私の疑問は、PIでランダムポリシーπを選択している場合、複数のランダムポリシーを選択している場合でも、それが最適なポリシーであることがどのように保証されるかということです。

3
クロスエントロピーとは何ですか?
クロスエントロピーとは何かについて多くの説明があることは知っていますが、それでも混乱しています。 損失関数を説明するための唯一の方法ですか?勾配降下アルゴリズムを使用して、損失関数を使用して最小値を見つけることはできますか?


4
np.meanとtf.reduce_meanの違いは何ですか?
でMNIST初心者チュートリアル、ステートメントがあります accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) tf.cast基本的にオブジェクトがあるが、違いは何であるテンソルの種類を変更tf.reduce_meanしてはnp.mean? ここにドキュメントがありtf.reduce_meanます: reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None) input_tensor:削減するテンソル。数値型である必要があります。 reduction_indices:削減する寸法。None(デフォルト)の場合、すべての寸法が縮小されます。 # 'x' is [[1., 1. ]] # [2., 2.]] tf.reduce_mean(x) ==> 1.5 tf.reduce_mean(x, 0) ==> [1.5, 1.5] tf.reduce_mean(x, 1) ==> [1., 2.] 1Dベクトルの場合はのように見えますがnp.mean == tf.reduce_mean、で何が起こっているのか理解できませんtf.reduce_mean(x, 1) ==> [1., 2.]。tf.reduce_mean(x, 0) ==> [1.5, 1.5]種類作るのは、平均するので、感知[1, 2]と[1, 2]ある[1.5, 1.5]が、何をして起こっているのtf.reduce_mean(x, 1)?

6
Python:tf-idf-cosine:ドキュメントの類似性を見つける
私はパート1とパート2で利用可能なチュートリアルに従っていました。残念ながら、著者には、コサイン類似度を使用して2つのドキュメント間の距離を実際に見つけることを含む最後のセクションの時間はありませんでした。私は記事内の例に従って、stackoverflowからの次のリンクの助けを借りて、上記のリンクで言及されているコードが含まれています(人生を楽にするために) from sklearn.feature_extraction.text import CountVectorizer from sklearn.feature_extraction.text import TfidfTransformer from nltk.corpus import stopwords import numpy as np import numpy.linalg as LA train_set = ["The sky is blue.", "The sun is bright."] # Documents test_set = ["The sun in the sky is bright."] # Query stopWords = stopwords.words('english') vectorizer = CountVectorizer(stop_words …

2
カクテルパーティーアルゴリズムSVDの実装…1行のコードで?
スタンフォード大学のAndrewNgによるCourseraでの機械学習の入門講義のスライドで、オーディオソースが2つの空間的に分離されたマイクで録音されている場合、カクテルパーティーの問題に対する次の1行のオクターブソリューションを示します。 [W,s,v]=svd((repmat(sum(x.*x,1),size(x,1),1).*x)*x'); スライドの下部には「出典:Sam Roweis、Yair Weiss、Eero Simoncelli」があり、前のスライドの下部には「Te-WonLeeの好意によるオーディオクリップ」があります。ビデオの中で、Ng教授は次のように述べています。 「それで、あなたはこのような教師なし学習を見て、 『これを実装するのはどれほど複雑ですか?』と尋ねるかもしれません。このアプリケーションを構築するために、このオーディオ処理を行うように思われます。大量のコードを記述するか、オーディオを処理するC ++またはJavaライブラリの束にリンクする可能性があります。本当にそうだと思われます。このオーディオを実行するための複雑なプログラム:オーディオの分離など。今聞いたことを実行するアルゴリズムが判明しました。これは、ここに示す1行のコードで実行できます。研究者には長い時間がかかりました。このコード行を思い付くために。だから、これが簡単な問題だと言っているわけではありません。しかし、適切なプログラミング環境を使用すると、多くの学習アルゴリズムが本当に短いプログラムになることがわかります。」 ビデオ講義で再生された個別のオーディオ結果は完璧ではありませんが、私の意見では驚くべきものです。その1行のコードがどのようにうまく機能するかについて誰かが何か洞察を持っていますか?特に、その1行のコードに関して、Te-Won Lee、Sam Roweis、Yair Weiss、およびEero Simoncelliの作業を説明するリファレンスを知っている人はいますか? 更新 マイク分離距離に対するアルゴリズムの感度を示すために、次のシミュレーション(Octave)は、2つの空間的に分離されたトーンジェネレーターからトーンを分離します。 % define model f1 = 1100; % frequency of tone generator 1; unit: Hz f2 = 2900; % frequency of tone generator 2; unit: Hz Ts = 1/(40*max(f1,f2)); % sampling period; unit: s dMic …

6
Tensorflowテンソルの次元(形状)をint値として取得するにはどうすればよいですか?
Tensorflowテンソルがあるとします。テンソルの寸法(形状)を整数値として取得するにはどうすればよいですか?私は2つの方法があります知っている、tensor.get_shape()そしてtf.shape(tensor)、私は、整数として形状値を取得することはできませんint32値。 たとえば、以下では2次元テンソルを作成しました。int32呼び出しreshape()て形状のテンソルを作成できるように、行と列の数を取得する必要があります(num_rows * num_cols, 1)。ただし、このメソッドtensor.get_shape()はDimension、ではなく型として値を返しますint32。 import tensorflow as tf import numpy as np sess = tf.Session() tensor = tf.convert_to_tensor(np.array([[1001,1002,1003],[3,4,5]]), dtype=tf.float32) sess.run(tensor) # array([[ 1001., 1002., 1003.], # [ 3., 4., 5.]], dtype=float32) tensor_shape = tensor.get_shape() tensor_shape # TensorShape([Dimension(2), Dimension(3)]) print tensor_shape # (2, 3) num_rows = tensor_shape[0] # ??? num_cols …


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.