順伝播型ニューラルネットワーク

順伝播型ニューラルネットワークの説明として正しいものを選択肢から選んでください. 1. 順伝搬型ニューラルネットワークは、バイナリークラス分類だけでなく他クラス分類が可能である. 2. 決定木は代表的な順伝搬型ニューラルネットワークといえる. 3. ニューラルネットワークの実装に用いられる代表的なライブラリは、scikit-learn である. 4. 順伝搬型ニューラルネットワークとは、重みの更新のためにバックプロパゲーションをしない DNN モデルの総称である.

隠れ層の数

ANN の隠れ層を説明している以下の文で空欄に入る適切な単語を選択肢から選んでください. 一般的に単層だがユニット数(ニューロンの数)が十分多い ANN アーキテクチャとユニット数は多いわけではないが 十分な数の層をもつ ANN アーキテクチャでは、同じ複雑な関数を表現した場合に、それぞれのアーキテクチャのパラメータ効率を比べると ( Q1 ___ ) . 1. 多層のアーキテクチャの方が高い 2. 多数ユニットの方が高い 3. どちらも大して変わらない

隠れ層の数

ANN の隠れ層を説明している以下の文で空欄に入る適切な単語を選択肢から選んでください. 一般的に単層だがユニット数(ニューロンの数)が十分多い ANN アーキテクチャとユニット数は多いわけではないが 十分な数の層をもつ ANN アーキテクチャでは、同じ複雑な関数を表現した場合に、それぞれのアーキテクチャのパラメータ効率を比べると ( Q1 ___ ) . 1. 多数ユニットの方が高い 2. どちらも大して変わらない 3. 多層のアーキテクチャの方が高い

隠れ層あたりのニューロン数

以下の文の中で、その説明が正しくないものを選択肢から選んでください. 1. 一層あたりのニューロン数が多く、層の数が少ないアーキテクチャよりも、一層あたりのニューロン数は少ないが多層であるアーキテクチャの方が訓練スピードは早くなる. 2. モデルが訓練セットに対して過学習ぎみな場合、一層当たりのニューロン数を減らすことで汎化性能を向上させる必要がある. 3. DNN の訓練では、最初は多層のアーキテクチャで実装し、モデルの精度が上がらない場合は層を増やしユニット数を増やしみるとよい.

隠れ層あたりのニューロン数

以下の文の中で、その説明が正しくないものを選択肢から選んでください. 1. 一層あたりのニューロン数が多く、層の数が少ないアーキテクチャよりも、一層あたりのニューロン数は少ないが多層であるアーキテクチャの方が訓練スピードは早くなる. 2. DNN の訓練では、最初は多層のアーキテクチャで実装し、モデルの精度が上がらない場合は層を増やしユニット数を増やしみるとよい. 3. モデルが訓練セットに対して過学習ぎみな場合、一層当たりのニューロン数を減らすことで汎化性能を向上させる必要がある.

バックプロパゲーション – 誤差勾配

バックプロパゲーションを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください. バックプロパゲーションでは、まず、個々の訓練インスタンスに対して予測を行う ( Q1 ___ )から始まる. 続いて、( Q1 ___ )で得られた予測結果(ネットワークの出力)と予測値の ( Q2 ___ ) を測定する. その後、入力層へ向かって各層の ( Q2 ___ ) への影響を測定しながら後退していく ( Q3 ___ ) へ移る. 最後に、( Q2 ___ ) を最小に抑えられるように接続部の ( Q4 ___ ) に調整を加える. [※Q1,Q3の選択肢] 1. 学習ステップ 2. 訓練ステップ 3. 前進パス 4. 後退パス [※Q2,Q4の選択肢] 1. 誤差 2. 特徴量 3. […]

バックプロパゲーション – 誤差勾配

バックプロパゲーションを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください. バックプロパゲーションでは、まず、個々の訓練インスタンスに対して予測を行う ( Q1 ___ )から始まる. 続いて、( Q1 ___ )で得られた予測結果(ネットワークの出力)と予測値の ( Q2 ___ ) を測定する. その後、入力層へ向かって各層の ( Q2 ___ ) の影響を測定しながら後退する ( Q3 ___ ) へ移る. 最後に、( Q2 ___ ) を最小に抑えられるように接続部の ( Q4 ___ ) に調整を加える. [※Q1,Q3の選択肢] 1. 前進パス 2. 後退パス 3. 学習ステップ 4. 訓練ステップ [※Q2,Q4の選択肢] 1. 特徴量 2. 出力 3. […]

パーセプトロンの収束定理

パーセプトロンの収束定理を説明している以下の文で空欄に入る適切な単語を選択肢から選んでください. 複数の LTU から構成されるパーセプトロンは、各出力ニューロンの決定境界が ( Q1 ____ ) なので、 訓練データが ( Q2 ____ ) であれば解はもとまらない. [Q1–2選択肢] 1. 非線形分離不可能 2. 線形分離不可能 3. カーネル 4. 非線形 5. 線形 6. 高次元

パーセプトロンの訓練

次のコードで空欄になっている行に入る適切なものを選択肢から選び、 パーセプトロンを用いた iris データの分類アルゴリズムを実装してください. import numpy as np from sklearn.datasets import load_iris # Q1:scikit-learn ライブラリから、パーセプトロン用のクラスを importしてください. ########## [Q1の選択肢] 1. from sklearn.metrics import Perceptron 2. from sklearn.model_selelction import Perceptron 3. from sklearn.linear_model import Perceptron 4. from sklearn.neural_model import Perceptron iris = load_iris() X = iris.data[:, (2, 3)] y = (iris.target == 0).astype(np.int) # Q2:許容誤差を無限大、訓練回数を 100 回と設定してください. […]

パーセプトロンの訓練

次のコードで空欄になっている行に入る適切なものを選択肢から選び、 パーセプトロンを用いた iris データの分類アルゴリズムを実装してください. import numpy as np from sklearn.datasets import load_iris # Q1:scikit-learn ライブラリから、パーセプトロン用のクラスを importしてください. ########## [Q1の選択肢] 1. from sklearn.model_selelction import Perceptron 2. from sklearn.linear_model import Perceptron 3. from sklearn.neural_model import Perceptron 4. from sklearn.metrics import Perceptron iris = load_iris() X = iris.data[:, (2, 3)] y = (iris.target == 0).astype(np.int) # Q2:許容誤差を無限大、訓練回数を 100 回と設定してください. […]