タグ付けされた質問 「automatic-differentiation」

1
リバースモード自動微分のステップバイステップの例
この質問がここに属するかどうかはわかりませんが、最適化における勾配法と密接に関連しています。これはここではトピックのようです。とにかく、他のコミュニティがこのトピックについてより良い専門知識を持っていると思うなら、気軽に移行してください。 要するに、私は逆モード自動微分の段階的な例を探しています。トピックに関する文献はそれほど多くなく、既存の実装(TensorFlowのようなもの)は、その背後にある理論を知らずに理解するのは困難です。したがって、私たちが何を渡し、どのように処理し、計算グラフから何を取り出すかを誰かが詳細に示すことができれば、非常に感謝しています。 私が最も苦労しているいくつかの質問: 種 -なぜそれらが必要なのですか? 逆微分ルール -前方微分を行う方法を知っていますが、どのように後方に進みますか?たとえば、このセクションの例では、をどのように知ることがますか?w2¯=w3¯w1w2¯=w3¯w1\bar{w_2}=\bar{w_3}w_1 我々はして作業を行うだけで、シンボルの実際を介して、またはパス値は?たとえば、同じ例では、と記号または値はありますか?wiwiw_iwi¯wi¯\bar{w_i}

1
Tensorflowで実装されているような自動微分の使用例は何ですか?なぜそれが重要なのですか?
ニューラルネットワーク、バックプロパゲーション、チェーンルールを適切に理解していますが、自動微分を理解するのに苦労しています。 以下は、逆伝播のコンテキスト外の自動微分に言及しています。 自動微分は行列から勾配をどのように計算しますか? 勾配を計算するための要件は何ですか?関数を指定する必要がありますか? これの使用例は何ですか(それ以外の場合は逆伝播)? なぜそれが重要であり、代替案は何ですか? 何か不足していますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.