隠れ層あたりのニューロン数

以下の文の中で、その説明が正しくないものを選択肢から選んでください.

1. 一層あたりのニューロン数が多く、層の数が少ないアーキテクチャよりも、一層あたりのニューロン数は少ないが多層であるアーキテクチャの方が訓練スピードは早くなる.
2. DNN の訓練では、最初は多層のアーキテクチャで実装し、モデルの精度が上がらない場合は層を増やしユニット数を増やしみるとよい.
3. モデルが訓練セットに対して過学習ぎみな場合、一層当たりのニューロン数を減らすことで汎化性能を向上させる必要がある.

隠れ層あたりのニューロン数

以下の文の中で、その説明が正しくないものを選択肢から選んでください.

1. 一層あたりのニューロン数が多く、層の数が少ないアーキテクチャよりも、一層あたりのニューロン数は少ないが多層であるアーキテクチャの方が訓練スピードは早くなる.
2. モデルが訓練セットに対して過学習ぎみな場合、一層当たりのニューロン数を減らすことで汎化性能を向上させる必要がある.
3. DNN の訓練では、最初は多層のアーキテクチャで実装し、モデルの精度が上がらない場合は層を増やしユニット数を増やしみるとよい.

隠れ層の数

ANN の隠れ層を説明している以下の文で空欄に入る適切な単語を選択肢から選んでください.

一般的に単層だがユニット数(ニューロンの数)が十分多い ANN アーキテクチャとユニット数は多いわけではないが
十分な数の層をもつ ANN アーキテクチャでは、同じ複雑な関数を表現した場合に、それぞれのアーキテクチャのパラメータ効率を比べると ( Q1 ___ ) .

1. 多層のアーキテクチャの方が高い
2. 多数ユニットの方が高い
3. どちらも大して変わらない

順伝播型ニューラルネットワーク

順伝播型ニューラルネットワークの説明として正しいものを選択肢から選んでください.

1. ニューラルネットワークの実装に用いられる代表的なライブラリは、scikit-learn である.
2. 順伝搬型ニューラルネットワークとは、重みの更新のためにバックプロパゲーションをしない DNN モデルの総称である.
3. 順伝搬型ニューラルネットワークは、バイナリークラス分類だけでなく他クラス分類が可能である.
4. 決定木は代表的な順伝搬型ニューラルネットワークといえる.

隠れ層の数

ANN の隠れ層を説明している以下の文で空欄に入る適切な単語を選択肢から選んでください.

一般的に単層だがユニット数(ニューロンの数)が十分多い ANN アーキテクチャとユニット数は多いわけではないが
十分な数の層をもつ ANN アーキテクチャでは、同じ複雑な関数を表現した場合に、それぞれのアーキテクチャのパラメータ効率を比べると ( Q1 ___ ) .

1. 多数ユニットの方が高い
2. どちらも大して変わらない
3. 多層のアーキテクチャの方が高い

MLP – 隠れ層

MLP を説明している以下の文で正しいものを選択肢から選んでください.

1. 単相のパーセプトロンと比べて、MLP の演算にかかる時間は非常に短くなる.
2. MLP では、パーセプトロンと異なり、最終的な出力を決定するために活性化関数としてステップ関数してはいけない.
3. MLP は隠れ層を持たない.
4. MLP は複数のパーセプトロンによって構成される.

バックプロパゲーション – 誤差勾配

バックプロパゲーションを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください.

バックプロパゲーションでは、まず、個々の訓練インスタンスに対して予測を行う ( Q1 ___ )から始まる.
続いて、( Q1 ___ )で得られた予測結果(ネットワークの出力)と予測値の ( Q2 ___ ) を測定する.
その後、入力層へ向かって各層の ( Q2 ___ ) の影響を測定しながら後退する ( Q3 ___ ) へ移る.
最後に、( Q2 ___ ) を最小に抑えられるように接続部の ( Q4 ___ ) に調整を加える.

[※Q1,Q3の選択肢]
1. 前進パス
2. 後退パス
3. 学習ステップ
4. 訓練ステップ

[※Q2,Q4の選択肢]
1. 特徴量
2. 出力
3. 誤差
4. 重み

バックプロパゲーション – 誤差勾配

バックプロパゲーションを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください.

バックプロパゲーションでは、まず、個々の訓練インスタンスに対して予測を行う ( Q1 ___ )から始まる.
続いて、( Q1 ___ )で得られた予測結果(ネットワークの出力)と予測値の ( Q2 ___ ) を測定する.
その後、入力層へ向かって各層の ( Q2 ___ ) への影響を測定しながら後退していく ( Q3 ___ ) へ移る.
最後に、( Q2 ___ ) を最小に抑えられるように接続部の ( Q4 ___ ) に調整を加える.

[※Q1,Q3の選択肢]
1. 学習ステップ
2. 訓練ステップ
3. 前進パス
4. 後退パス

[※Q2,Q4の選択肢]
1. 誤差
2. 特徴量
3. 重み
4. 出力

パーセプトロンの弱点 – XOR

XOR 問題を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.

パーセプトロンは ( Q1 ___ ) のような簡単なタスクを解決することができない.
しかし、複数のパーセプトロンを ( Q2 ___ ) ことでこの問題を解決できる.

[Q1 選択肢]
1. OR 分類問題
2. AND 分類問題
3. XOR 分類問題

[Q2 選択肢]
1. 積み重ねる
2. 共通の重みを適用する
3. 並列に接続する

MLP – 隠れ層

MLP を説明している以下の文で正しいものを選択肢から選んでください.

1. MLP はひとつの入力層と隠れ層からなり、複数の出力層を持つ.
2. MLP を構成する入力層は LTU で構成され、出力層はパススルーニューロンから構成される.
3. MLP の隠れ層が複数個の場合、その人工ニューラルネットワーク ( ANN ) のことを深層ニューラルネットワーク ( DNN ) と呼ぶ.
4. パーセプトロンの限界から、MLP はパーセプトロンとは全く異なる数学理論に基づくニューラルモデルである.