バックプロパゲーション – 誤差勾配

バックプロパゲーションの説明として正しくないものを選択肢から選んでください.

[選択肢]
1. DNN モデルの出力層に sigmoid 関数を適用すると、合成関数の微分に置いて成り立つ連鎖率が成立しなくなるため、
 バックプロパゲーションは適用できない.
2. DNN モデルの活性化関数がステップ関数だと、活性化関数前後で勾配が消失してしまうため、バックプロパゲーションを適用できない.
3. DNN モデルの各ニューロンで行われている入力と重みの行列演算は Affine 変換と呼ばれており、バックプロパゲーションの際にも、
 この行列の各要素に対して偏微分をすることで勾配を計算することができる.
4. 活性化関数に ReLU を用いると、ReLU に与えられる入力が負の場合、それ以降の層に誤差の逆伝搬は行われない.

Leave a comment

Your email address will not be published. Required fields are marked *