Glorot (Xaiver) の初期値

Xaiver の初期値を説明している以下の文で空欄に入る適切な単語を選択肢からそれぞれ選んでください. バックプロパゲーションをする時には順方向と逆方向で適切に信号を流す必要がある. しかし、適切に信号を流すためには、各層の入力と出力の接続数を統一するなどし、層を通過する前と後での勾配の ( Q1 ___ ) を等しくしておく必要がある. 実際には、各層の入力と出力の接続数は異なるため、接続部の ( Q2 ___ ) をランダムに初期化することで妥協する. [Q1の選択肢] 1. 平均値 2. 初期値 3. 中央値 4. 分散 [Q2の選択肢] 1. 重み 2. ニューロン数 3. 活性化関数 4. 勾配

活性化関数の選択

活性化関数を説明している文として正しくないものを選択肢 1 ~ 3 から選んでください. 1. ANN アーキテクチャに使用する活性化関数に迷った時は、計算にかかる時間コストを抑えられる ReLU 関数を使ってみるとよい. 2. 分類タスクに置いて予測するクラスが相互排他的な場合、一般的にはソフトマックス関数を使用する. 3. ReLU 関数を用いて学習がうまくいかな時は、勾配降下方と相性も良いロジスティック関数や双極接線関数を試してみると良い.

活性化関数の選択

活性化関数を説明している文として正しいものを選択肢 1 ~ 3 から選んでください. 1. ReLU 活性化関数は出力層によく用いられる. 2. sigmoid 関数はバックプロパゲーションとの相性がよくないため、中間層の活性化関数として用いれることはほとんどない. 3. 隠れ層にはロジスティック関数を活性化関数として用いることで、バックプロパゲーションにかかる計算コストを抑えられる.

勾配消失問題

勾配降下法を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください. ロジスティック関数の出力は 0 か 1 で飽和するため、ロジスティック関数への ( Q1 ___ ) の絶対値が大きいとすぐに飽和してしまう. よって、導関数は極端に( Q2 ___ ) に近くなってしまうため、( Q3 __ ) するために必要な勾配がほとんど消滅してしまう. また、( Q3 ___ ) が始まったとしても上位層から徐々に勾配が消滅していくため、下位層ではほぼ完全に勾配が消滅してしまう. [Q1の選択肢] 1. 入力 2. 特徴量 3. 重み [Q2の選択肢] 1. 1 2. 0.5 3. 0 [Q3の選択肢] 1. 次元削減 2. 正則化 3. バックプロパゲーション

バックプロパゲーション – 誤差勾配

バックプロパゲーションの説明として正しくないものを選択肢から選んでください. [選択肢] 1. DNN モデルの活性化関数がステップ関数だと、活性化関数前後で勾配が消失してしまうため、バックプロパゲーションを適用できない. 2. 活性化関数に ReLU を用いると、ReLU に与えられる入力が負の場合、それ以降の層に誤差の逆伝搬は行われない. 3. DNN モデルの出力層に sigmoid 関数を適用すると、合成関数の微分に置いて成り立つ連鎖率が成立しなくなるため、  バックプロパゲーションは適用できない. 4. DNN モデルの各ニューロンで行われている入力と重みの行列演算は Affine 変換と呼ばれており、バックプロパゲーションの際にも、  この行列の各要素に対して偏微分をすることで勾配を計算することができる.

バックプロパゲーション – 誤差勾配

バックプロパゲーションの説明として正しくないものを選択肢から選んでください. [選択肢] 1. DNN モデルの出力層に sigmoid 関数を適用すると、合成関数の微分に置いて成り立つ連鎖率が成立しなくなるため、  バックプロパゲーションは適用できない. 2. DNN モデルの活性化関数がステップ関数だと、活性化関数前後で勾配が消失してしまうため、バックプロパゲーションを適用できない. 3. DNN モデルの各ニューロンで行われている入力と重みの行列演算は Affine 変換と呼ばれており、バックプロパゲーションの際にも、  この行列の各要素に対して偏微分をすることで勾配を計算することができる. 4. 活性化関数に ReLU を用いると、ReLU に与えられる入力が負の場合、それ以降の層に誤差の逆伝搬は行われない.

双極線正接関数、ReLU関数、ソフトマックス関数、ロジスティック関数

次の選択肢にあるそれぞれのグラフは、双極接線関数 ( Q1 )、ReLU 関数 ( Q2 )、ソフトマックス関数 ( Q3 )、 ロジスティック関数 ( Q4 ) のうち、どの関数を表しているかを選択肢 1 ~ 4からそれぞれ選んでください. 1. ロジスティック関数 2. ReLU 関数 3. ソフトマックス関数 4. 双極接線関数 ( tanh )

順伝播型ニューラルネットワーク

順伝播型ニューラルネットワークを説明している以下の文で空欄に入る適切な単語を選択肢から選んでください. MLP では出力がバイナリクラスとなっているが、出力クラスが相互排他的な場合には個々のニューロンの出力値は対応する クラスに属する確率であり、出力層に用いられる活性化関数は共有の ( Q1 ___ ) となる. 1. tanh 関数 2. ロジスティック関数 3. ソフトマックス関数 4. sigmoid 関数

順伝播型ニューラルネットワーク

順伝播型ニューラルネットワークを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. MLP では出力がバイナリクラスとなっているが、出力クラスが相互排他的な場合には個々のニューロンの出力値は対応する クラスに属する確率であり、出力層に用いられる活性化関数は共有の ( Q1 ___ ) となる. 1. ソフトマックス関数 2. ロジスティック関数 3. tanh 関数 4. sigmoid 関数

順伝播型ニューラルネットワーク

順伝播型ニューラルネットワークの説明として正しいものを選択肢から選んでください. 1. ニューラルネットワークの実装に用いられる代表的なライブラリは、scikit-learn である. 2. 順伝搬型ニューラルネットワークとは、重みの更新のためにバックプロパゲーションをしない DNN モデルの総称である. 3. 順伝搬型ニューラルネットワークは、バイナリークラス分類だけでなく他クラス分類が可能である. 4. 決定木は代表的な順伝搬型ニューラルネットワークといえる.