ケラで2つのレイヤーを連結する方法は?


93

2つのレイヤーを持つニューラルネットワークの例があります。最初のレイヤーは2つの引数を取り、1つの出力を持ちます。2番目は、最初のレイヤーの結果として1つの引数と1つの追加の引数を取る必要があります。次のようになります。

x1  x2  x3
 \  /   /
  y1   /
   \  /
    y2

そのため、2つのレイヤーを持つモデルを作成してそれらをマージしようとしましたが、エラーが返されます:The first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.行にresult.add(merged)

モデル:

first = Sequential()
first.add(Dense(1, input_shape=(2,), activation='sigmoid'))

second = Sequential()
second.add(Dense(1, input_shape=(1,), activation='sigmoid'))

result = Sequential()
merged = Concatenate([first, second])
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
result.add(merged)
result.compile(optimizer=ada_grad, loss=_loss_tensor, metrics=['accuracy'])

回答:


120

result次のように定義されているため、エラーが発生しますSequential()はモデルの単なるコンテナーであり、モデルの入力を定義していない。

あなたが構築しようとしているものを考えるとresult、3番目の入力を取るように設定されていますx3

first = Sequential()
first.add(Dense(1, input_shape=(2,), activation='sigmoid'))

second = Sequential()
second.add(Dense(1, input_shape=(1,), activation='sigmoid'))

third = Sequential()
# of course you must provide the input to result with will be your x3
third.add(Dense(1, input_shape=(1,), activation='sigmoid'))

# lets say you add a few more layers to first and second.
# concatenate them
merged = Concatenate([first, second])

# then concatenate the two outputs

result = Concatenate([merged,  third])

ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)

result.compile(optimizer=ada_grad, loss='binary_crossentropy',
               metrics=['accuracy'])

ただし、このタイプの入力構造を持つモデルを構築するための私の好ましい方法は、関数型APIを使用することです。

ここにあなたが始めるためのあなたの要件の実装があります:

from keras.models import Model
from keras.layers import Concatenate, Dense, LSTM, Input, concatenate
from keras.optimizers import Adagrad

first_input = Input(shape=(2, ))
first_dense = Dense(1, )(first_input)

second_input = Input(shape=(2, ))
second_dense = Dense(1, )(second_input)

merge_one = concatenate([first_dense, second_dense])

third_input = Input(shape=(1, ))
merge_two = concatenate([merge_one, third_input])

model = Model(inputs=[first_input, second_input, third_input], outputs=merge_two)
ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0)
model.compile(optimizer=ada_grad, loss='binary_crossentropy',
               metrics=['accuracy'])

コメントの質問に答えるには:

1)結果とマージはどのように関連していますか?あなたがそれらがどのように連結されるかを意味すると仮定します。

連結は次のように機能します。

  a        b         c
a b c   g h i    a b c g h i
d e f   j k l    d e f j k l

つまり、行が結合されます。

2)では、x1が最初にx2入力され、2番目にx3入力され、3 番目に入力されます。


resultおよびmerged(またはmerged2)レイヤーは、回答の最初の部分でどのように相互に接続されていますか?
rdo 2017

そして2番目の質問。私が理解x1x2、の入力であるようにfirst_inputx3third_input。何についてsecond_input
rdo 2017

1
second_inputDenseレイヤーを通過し、first_inputこれもレイヤーを通過したもの と連結されDenseます。 third_input密な層を通過し、前の連結(merged)の結果と連結されます
parsethis

2
@putonspectacles関数APIを使用する2番目の方法は機能しますが、Sequentialモデルを使用する最初の方法はKeras 2.0.2では機能しません。実装を大まかに確認しましたが、 "Concatenate([...])"を呼び出してもあまり効果がなく、さらにシーケンシャルモデルに追加できません。Kerasを更新するまでは、低価格のメソッド「Merge([...]、 'concat')」を使用する必要があると私は実際に考えています。どう思いますか?
LFish 2017年

2
違いは何であるConcatenate()concatenate()Keras中の層は?
Leevo

8

上記の回答に加えて、使用している人を助ける tensorflow 2.0


import tensorflow as tf

# some data
c1 = tf.constant([[1, 1, 1], [2, 2, 2]], dtype=tf.float32)
c2 = tf.constant([[2, 2, 2], [3, 3, 3]], dtype=tf.float32)
c3 = tf.constant([[3, 3, 3], [4, 4, 4]], dtype=tf.float32)

# bake layers x1, x2, x3
x1 = tf.keras.layers.Dense(10)(c1)
x2 = tf.keras.layers.Dense(10)(c2)
x3 = tf.keras.layers.Dense(10)(c3)

# merged layer y1
y1 = tf.keras.layers.Concatenate(axis=1)([x1, x2])

# merged layer y2
y2 = tf.keras.layers.Concatenate(axis=1)([y1, x3])

# print info
print("-"*30)
print("x1", x1.shape, "x2", x2.shape, "x3", x3.shape)
print("y1", y1.shape)
print("y2", y2.shape)
print("-"*30)

結果:

------------------------------
x1 (2, 10) x2 (2, 10) x3 (2, 10)
y1 (2, 20)
y2 (2, 30)
------------------------------

7

試すことができますmodel.summary()(concatenate_XX(連結)レイヤーサイズに注意してください)

# merge samples, two input must be same shape
inp1 = Input(shape=(10,32))
inp2 = Input(shape=(10,32))
cc1 = concatenate([inp1, inp2],axis=0) # Merge data must same row column
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()

# merge row must same column size
inp1 = Input(shape=(20,10))
inp2 = Input(shape=(32,10))
cc1 = concatenate([inp1, inp2],axis=1)
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()

# merge column must same row size
inp1 = Input(shape=(10,20))
inp2 = Input(shape=(10,32))
cc1 = concatenate([inp1, inp2],axis=1)
output = Dense(30, activation='relu')(cc1)
model = Model(inputs=[inp1, inp2], outputs=output)
model.summary()

詳細については、こちらのノートブックをご覧ください。https//nbviewer.jupyter.org/github/anhhh11/DeepLearning/blob/master/Concanate_two_layer_keras.ipynb


3
違いは何であるConcatenate()concatenate()Keras中の層は?
Leevo

1
違いを理解しましたか、1つはKerasクラス、もう1つはテンソルフローメソッド
abacusreader
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.