LSTMニューラルネットワークに関する次のブログをご覧ください:http ://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/
著者は、LSTMのさまざまな構成のために、入力ベクトルXを[サンプル、タイムステップ、フィーチャ]として再形成します。
著者は書いている
実際、文字のシーケンスは、個別の機能の1つのタイムステップではなく、1つの機能のタイムステップです。ネットワークにより多くのコンテキストを与えましたが、期待したほど多くのシーケンスを与えていません
これは何を意味するのでしょうか?