1
アクティベーション機能を混在させるとどうなりますか?
ReLU、シグモイド、タンなど、いくつかのアクティベーション関数があります。タンタン\tanh。アクティベーション機能を混在させるとどうなりますか? 最近、Googleが(x * sigmoid)のSwishアクティベーション関数を開発したことを発見しました。アクティベーション関数を変更することにより、XOR問題などの小さなニューラルネットワーク問題の精度を向上させることができますか?