時系列のたたみ込みニューラルネットワーク?


21

時系列分類を行うたたみ込みニューラルネットをトレーニングするコードが存在するかどうかを知りたいです。

最近の論文(http://www.fer.unizg.hr/_download/repository/KDI-Djalto.pdf)を見てきましたが、何かが存在するのか、自分でコーディングしたのかはわかりません。


1
男、それは非常に奇妙です。CNNはイメージのための非常に素晴らしいツール(信号)であり、それらを使用して在庫予測に関するほとんどの論文がある...すべて私が見つけることができます...一度に何のためによかった古いニューラルネットワークについてです
MasterID

回答:


21

オープンソースのブラックボックスソリューションが必要な場合は、MLアルゴリズムのJavaライブラリであるWekaをご覧ください。この男はWekaのCovolutional Layersも使用しており、時系列分類タスクに合わせて分類コードを編集できます。

独自のコーディングについては... pythonライブラリtheanoを使用して同じ問題に取り組んでいます(近いうちにクラックする場合は、この投稿をコードへのリンクで編集します)。ウェブ検索の良い時間から私を助けるために使用するすべての論文の包括的なリストを以下に示します。

出発点として、ここにあるコードを編集して異なる数のカテゴリに分類したり、分類から回帰まで編集したりできます-最終的なsoftmaxレイヤーを削除して1つの出力ノードのみを作成しました。y=sin(x)テストのような関数のスライスでそれを訓練しました。


参考までに、これらのいくつかに多くのエラーが見つかったため、盲目的に適用しないでください。特に、それらのいくつかは公開されていない論文です。しかし、これは基本を学ぶための良い出発点です
アレクサンダーマクファーレン

あなたがここで言及したどの論文に問題があるかについてあなたの習得した知識を共有できれば幸いです?
bicepjai 16

1

CNNを使用して、回帰または分類の時系列予測を行うことは完全に可能です。CNNはローカルパターンを見つけるのが得意であり、実際、CNNはローカルパターンがどこでも関連しているという前提で機能します。また、畳み込みは時系列および信号処理でよく知られた操作です。RNNに対するもう1つの利点は、RNNのシーケンシャルな性質とは対照的に、並列化できるため、計算が非常に高速になることです。

以下のコードでは、ケラスを使用してRの電力需要を予測できるケーススタディを示します。これは分類の問題ではないことに注意してください(便利な例はありません)が、分類の問題を処理するためにコードを変更することは難しくありません(線形出力とクロスエントロピー損失の代わりにsoftmax出力を使用します)。

データセットはfpp2ライブラリで利用可能です:

library(fpp2)
library(keras)

data("elecdemand")

elec <- as.data.frame(elecdemand)

dm <- as.matrix(elec[, c("WorkDay", "Temperature", "Demand")])

次に、データジェネレーターを作成します。これは、トレーニングプロセス中に使用されるトレーニングおよび検証データのバッチを作成するために使用されます。このコードは、マニング出版物の書籍「Rを使用したディープラーニング」(およびビデオバージョンの「Rを使用したディープラーニング」)にあるデータジェネレーターのより単純なバージョンであることに注意してください。

data_gen <- function(dm, batch_size, ycol, lookback, lookahead) {

  num_rows <- nrow(dm) - lookback - lookahead
  num_batches <- ceiling(num_rows/batch_size)
  last_batch_size <- if (num_rows %% batch_size == 0) batch_size else num_rows %% batch_size
  i <- 1
  start_idx <- 1
  return(function(){
    running_batch_size <<- if (i == num_batches) last_batch_size else batch_size
    end_idx <- start_idx + running_batch_size - 1
    start_indices <- start_idx:end_idx

    X_batch <- array(0, dim = c(running_batch_size,
                                lookback,
                                ncol(dm)))
    y_batch <- array(0, dim = c(running_batch_size, 
                                length(ycol)))

    for (j in 1:running_batch_size){
      row_indices <- start_indices[j]:(start_indices[j]+lookback-1)
      X_batch[j,,] <- dm[row_indices,]
      y_batch[j,] <- dm[start_indices[j]+lookback-1+lookahead, ycol]
    }
    i <<- i+1
    start_idx <<- end_idx+1 
    if (i > num_batches){
      i <<- 1
      start_idx <<- 1
    }

    list(X_batch, y_batch)

  })
}

次に、データジェネレーターに渡すパラメーターを指定します(トレーニング用と検証用の2つのジェネレーターを作成します)。

lookback <- 72
lookahead <- 1
batch_size <- 168
ycol <- 3

ルックバックパラメーターは、過去をどれだけ遠くまで見たいか、そして先読みをどの程度未来まで予測したいかを示します。

次に、データセットを分割し、2つのジェネレーターを作成します。

train_dm <-dm [1:15000、]

val_dm <- dm[15001:16000,]
test_dm <- dm[16001:nrow(dm),]

train_gen <- data_gen(
  train_dm,
  batch_size = batch_size,
  ycol = ycol,
  lookback = lookback,
  lookahead = lookahead
)


val_gen <- data_gen(
  val_dm,
  batch_size = batch_size,
  ycol = ycol,
  lookback = lookback,
  lookahead = lookahead
)

次に、畳み込み層を持つニューラルネットワークを作成し、モデルをトレーニングします。

model <- keras_model_sequential() %>%
  layer_conv_1d(filters=64, kernel_size=4, activation="relu", input_shape=c(lookback, dim(dm)[[-1]])) %>%
  layer_max_pooling_1d(pool_size=4) %>%
  layer_flatten() %>%
  layer_dense(units=lookback * dim(dm)[[-1]], activation="relu") %>%
  layer_dropout(rate=0.2) %>%
  layer_dense(units=1, activation="linear")


model %>% compile(
  optimizer = optimizer_rmsprop(lr=0.001),
  loss = "mse",
  metric = "mae"
)

val_steps <- 48

history <- model %>% fit_generator(
  train_gen,
  steps_per_epoch = 50,
  epochs = 50,
  validation_data = val_gen,
  validation_steps = val_steps
)

最後に、Rコメントで説明されている簡単な手順を使用して、24個のデータポイントのシーケンスを予測するコードを作成できます。

####### How to create predictions ####################

#We will create a predict_forecast function that will do the following: 
#The function will be given a dataset that will contain weather forecast values and Demand values for the lookback duration. The rest of the MW values will be non-available and 
#will be "filled-in" by the deep network (predicted). We will do this with the test_dm dataset.

horizon <- 24

#Store all target values in a vector
goal_predictions <- test_dm[1:(lookback+horizon),ycol]
#get a copy of the dm_test
test_set <- test_dm[1:(lookback+horizon),]
#Set all the Demand values, except the lookback values, in the test set to be equal to NA.
test_set[(lookback+1):nrow(test_set), ycol] <- NA

predict_forecast <- function(model, test_data, ycol, lookback, horizon) {
  i <-1
  for (i in 1:horizon){
    start_idx <- i
    end_idx <- start_idx + lookback - 1
    predict_idx <- end_idx + 1
    input_batch <- test_data[start_idx:end_idx,]
    input_batch <- input_batch %>% array_reshape(dim = c(1, dim(input_batch)))
    prediction <- model %>% predict_on_batch(input_batch)
    test_data[predict_idx, ycol] <- prediction
  }

  test_data[(lookback+1):(lookback+horizon), ycol]
}

preds <- predict_forecast(model, test_set, ycol, lookback, horizon)

targets <- goal_predictions[(lookback+1):(lookback+horizon)]

pred_df <- data.frame(x = 1:horizon, y = targets, y_hat = preds)

そして出来上がり:

ここに画像の説明を入力してください

悪くない。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.