タグ付けされた質問 「lstm」

長期短期記憶(LSTM)は、任意の時間の長さの値を記憶できる反復NNブロックを含むニューラルネットワークアーキテクチャです。

2
2DマトリックスをLSTMレイヤーにフィードするとどうなりますか
LSTMレイヤーへの入力として、形状(99,13)の2Dマトリックスをフィードしているとします。n個のファイルがあり、それぞれに(99,13)サイズのベクトルが含まれています。特徴の数として13を、タイムステップとして99を検討することにしました。 (Kerasを使用して実装するときに、LSTMレイヤーを最初のレイヤーとして追加しました。そして、レイヤーのoutput_dimを100に設定しました) しかし、上記のように入力すると、ネットワーク内で実際にどのように動作するかを理解できません。以下の質問がありますが、自分では答えられません。 LSTMセルへの入力としてどのような値を提供しますか?(xt、セルへの入力として使用されるht-1は常にベクトルです?私の場合、xtは[1,13]の形をしていますか?) モード lの最初のレイヤーとしてLSTMレイヤーがあるとすると、それは最初の入力ベクトルを指定されたレイヤーのすべてのセルに供給しますか?(例:最初のレイヤーのすべてのn LSTMセルに(99フレームから)サイズ13の最初のフレームをフィードしますか?)同様に、各タイムステップで入力行列のすべての行をフィードし続けますか? LSTMセルは各タイムステップでどのような値を出力しますか?(セルの状態をノードからの正しい出力と見なしますか?それは単一の値ですか、それともベクトルですか?それがベクトルの場合、次元は何ですか?次元を推測できる方法はありますか?htをベクター) 特定のレイヤーのoutput_dim(出力次元)とはどういう意味ですか?常に次のレイヤーのノード数である必要がありますか? これを保留にしたり、他のグループに誘導したりしないでください。これらの質問は機械学習とrnnに関連していると思います。私は研究論文を読みましたが、LSTMネットワーク内で実際にどのように機能するかについて明確なアイデアを得ることができませんでした。

2
LSTMがバニラリカレントニューロンネットワークよりも情報ラッチングのパフォーマンスが悪い理由
ベンジオらによる「勾配降下法による長期依存性の学習は難しい」という論文から実験をやり直すことで、LSTMがバニラ/単純リカレントニューラルネットワーク(SRNN)よりも長い期間情報を記憶できる理由をよく理解したいと思います。1994。 その論文の図1と2を参照してください。シーケンスが指定されている場合、タスクは単純です。高い値(1など)で始まる場合、出力ラベルは1です。低い値(たとえば-1)で始まる場合、出力ラベルは0です。中央はノイズです。このタスクは、モデルが正しいラベルを出力するためにミドルノイズを通過するときに開始値を覚えておく必要があるため、情報ラッチと呼ばれます。単一ニューロンRNNを使用して、このような動作を示すモデルを作成しました。図2(b)は結果を示しています。このようなモデルのトレーニングの成功頻度は、シーケンスの長さが増加するにつれて劇的に減少します。LSTMは、1994年にまだ発明されていないため、結果はありませんでした。 それで、私は好奇心が強くなり、LSTMが実際にそのようなタスクに対してより良いパフォーマンスを発揮するかどうかを見たいと思います。同様に、バニラセルとLSTMセルの両方に単一のニューロンRNNを構築して、情報ラッチをモデル化しました。驚いたことに、LSTMのパフォーマンスが低下していることがわかりました。理由はわかりません。誰かが私を説明するのを手伝ってもらえますか、または私のコードに何か問題がある場合はどうですか? これが私の結果です: これが私のコードです: import matplotlib.pyplot as plt import numpy as np from keras.models import Model from keras.layers import Input, LSTM, Dense, SimpleRNN N = 10000 num_repeats = 30 num_epochs = 5 # sequence length options lens = [2, 5, 8, 10, 15, 20, 25, 30] + np.arange(30, 210, …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.