GRU の説明として正しいものを選択肢から選んでください. 1. GRU は LSTM と比べて計算量が小さい. 2. GRU には LSTM のようなゲートは存在ない. 3. GRU は LSTM よりもパラメータ数が大きい. 4. GRU は記憶セルを用いて勾配消失を抑制する.
Category Archives: 未分類
GRU セル
GRU の説明として正しくないものを選択肢から選んでください. 1. GRU は LSTM と比べて計算量が小さい. 2. GRU には LSTM のようなゲートは存在ない. 3. GRU は LSTM よりもパラメータ数が小さい. 4. GRU には記憶セルが存在しない.
NLP
NLP の応用例として誤っているものを選択肢 1 ~ 3 から選んでください. 1. 機械翻訳 2. 感情分析 3. 自動運転 4. 音声の書き起こし
NLP
NLP の応用例として誤っているものを選択肢 1 ~ 3 から選んでください. 1. 自動運転 2. 感情分析 3. 機械翻訳 4. 音声の書き起こし
単語の表現
NLP における単語の表現方法を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. 単語の表現方法として,( Q1 ___ ) で個々の単語を表現する方法がある.しかし,語彙が多い場合には効率的ではない. そこで,小さく密なベクトルを使って大きな語彙の中の個々の単語を表現する方法として ( Q2 ___ ) と呼ばれる手法がある. [Q1の選択肢] 1. ワンホットベクトル 2. 単位行列 3. KL Divergence [Q2の選択肢] 1. 埋め込み 2. 畳み込み 3. 外積
単語の表現
NLP における単語の表現方法を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. 単語の表現方法として,( Q1 ___ ) で個々の単語を表現する方法などがある.しかし,語彙が多い場合には効率的ではない. そこで,小さく密なベクトルを使って大きな語彙の中の個々の単語を表現する方法として ( Q2 ___ ) と呼ばれる手法がある. [Q1の選択肢] 1. 単位行列 2. KL Divergence 3. ワンホットベクトル [Q2の選択肢] 1. 外積 2. 畳み込み 3. 埋め込み
深層 RNN
次のコードで空欄になっている行に入る適切な選択肢を 1 ~ 3 から選び、深層 RNN を実装してください. import tensorflow as tf import numpy as np learning_rate = 0.001 X = tf.placeholder(tf.float32, [None, n_steps, n_inputs]) y = tf.placeholder(tf.int32, [None]) n_neurons = 100 n_layers = 3 # Q1:3 層の RNN レイヤを定義してください. layers = ########## [Q1の選択肢] 1. [tf.nn.rnn_cell.BasicRNNCell(num_units=n_neurons, activation=tf.nn.relu) for layer in range(n_outputs)] 2. [tf.nn.stastic_rnn(num_units=n_neurons, activation=tf.nn.relu) for layer […]
深層 RNN
次のコードで空欄になっている行に入る適切な選択肢を 1 ~ 3 から選び、深層 RNN を実装してください. import tensorflow as tf import numpy as np learning_rate = 0.001 X = tf.placeholder(tf.float32, [None, n_steps, n_inputs]) y = tf.placeholder(tf.int32, [None]) n_neurons = 100 n_layers = 3 # Q1:3 層の RNN レイヤを定義してください. layers = ########## [Q1の選択肢] 1. [tf.nn.stastic_rnn(num_units=n_neurons, activation=tf.nn.relu) for layer in range(n_layers)] 2. [tf.nn.rnn_cell.BasicRNNCell(num_units=n_neurons, activation=tf.nn.relu) for layer […]
LSTM セル
LSTM を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. RNN の中間層のユニットを LSTM block と呼ばれるメモリと ( Q1 ___ ) つのゲートを持つブロックに置き換える. LSTM では,RNN で学習することのできなかった ( Q2 ___ ) を学習できる. [Q1の選択肢] 1. 1 2. 2 3. 3 [Q2の選択肢] 1. 短期依存 2. 中期依存 3. 長期依存
シーケンス・シーケンス, シーケンス・ベクトル ベクトル・シーケンス, 遅延シーケンス・シーケンス
様々な RNN の用途を説明している以下の選択肢のうち、Q1 ~ 4 それぞれの RNN モデルに対応する説明を選んでください. Q1:シーケンス・シーケンス Q2:シーケンス・ベクトル Q3:ベクトル・シーケンス Q4:遅延シーケンス・シーケンス 1. 画像の中に写っている人や動物にキャプションをつける RNN 2. 過去 20 日分の株価から翌日の株価を予測する RNN 3. 過去の株価から、未来に向かって 1 日ずらした株価を予測し続ける RNN 4. 日本語を英語に機械翻訳する RNN