重みの均等化

スタックオートエンコーダを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.

オートエンコーダのエンコーダとデコーダが対象的に作られている時,エンコーダ層の ( Q1 ___ ) を均等化できる.
こうすると,オートエンコーダ全体の ( Q1 ___ ) を半分にすることができ,時間コストの節約や ( Q2 ___ ) の抑制につながる.

[Q1の選択肢]
1. 層の数
2. 入力のサイズ
3. 重み

[Q2の選択肢]
1. 過小適合
2. 過学習
3. 特徴量の次元

不完線形オートエンコーダによる PCA

次のコードで空欄になっている行に入る適切な選択肢を 1 ~ 3 から選び,オートエンコーダによる PCA を実装してください.

import tensorflow as tf

n_inputs = 3
n_hidden = 2
n_outputs = n_inputs

learning_rate = 0.01

X = tf.placeholder(tf.float32, shape=[None, n_inputs])

# Q1:コーディング層を定義してください.
hidden = ##########

[Q1の選択肢]
1. tf.layers.dense(X, n_hidden)
2. tf.layers.dense(n_hidden)
3. tf.placeholder(X, n_hidden)

# Q2:出力層を定義してください.
outputs = ##########

reconstruction_loss = tf.reduce_mean(tf.square(outputs – X))

optimizer = tf.train.AdamOptimizer(learning_rate)
training_op = optimizer.minimize(reconstruction_loss)

init = tf.global_variables_initializer()

[Q2の選択肢]
1. tf.placeholder(hidden, n_outputs)
2. tf.layers.dense(n_hidden, n_outputs)
3. tf.layers.dense(hidden, n_outputs)

デコーダ – 生成ネットワーク

デコーダを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.

デコーダは、エンコーダが入力から抽出した特徴量に基づいて圧,エンコーダの入力を再構築する.
もし,デコーダで入力を再構築できれば,入力の不要な特徴量を削除した ( Q1 ___ ) を得ることができる.

1. 潜在変数
2. 確率的勾配
3. カーネル

エンコーダ – 認識ネットワーク

エンコーダの説明として正しいものを選んでください.

1. 入力の内部表現を復元するネットワーク.
2. 入力を内部表現へ変換するネットワーク.
3. 入力ノイズからゲーム理論に従ってデータを生成するネットワーク
4.自然言語を別の自然言語に変換するネットワーク

デコーダ – 生成ネットワーク

エンコーダの説明として正しいものを選んでください.

1. 入力の内部表現を復元するネットワーク.
2. 入力を内部表現へ変換するネットワーク.
3. 入力ノイズからゲーム理論に従ってデータを生成するネットワーク
4.自然言語を別の自然言語に変換するネットワーク

デコーダ – 生成ネットワーク

デコーダを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.

デコーダは、エンコーダが入力から抽出した特徴量に基づいて圧,エンコーダの入力を再構築する.
もし,デコーダで入力を再構築できれば,入力の不要な特徴量を削除した ( Q1 ___ ) を得ることができる.

1. カーネル
2. 潜在変数
3. 確率的勾配

再構築ロス

再構築ロスを説明している以下の文で空欄に入る適切な単語を選択肢からそれぞれ選んでください.

オートエンコーダの出力は ( Q1 ___ ) と呼ばれることがある.
オートエンコーダのコスト関数には,( Q1 ___ ) と入力の間に大きな差があると、 ( Q2 ___ ) と呼ばれるペナルティが与えられる.

[Q1の選択肢]
1. 再構築
2. ミラー入力
3. 特徴量
4. 出力誤差

[Q2の選択肢]
1. l1 ノルム
2. 潜在誤差
3. 再構築ロス
4. ノイズ勾配