以下の選択肢から選択肢を選んでください. 1. LSTM 2. BERT 3. Autoencoder 4. VGG
Monthly Archives: June 2020
再構築ロス
再構築ロスを説明している以下の文で空欄に入る適切な単語を選択肢からそれぞれ選んでください. オートエンコーダの出力は ( Q1 ___ ) と呼ばれることがある. オートエンコーダのコスト関数には,( Q1 ___ ) と入力の間に大きな差があると、 ( Q2 ___ ) と呼ばれるペナルティが与えられる. [Q1の選択肢] 1. 再構築 2. ミラー入力 3. 特徴量 4. 出力誤差 [Q2の選択肢] 1. l1 ノルム 2. 潜在誤差 3. 再構築ロス 4. ノイズ勾配
デコーダ – 生成ネットワーク
エンコーダの説明として正しいものを選んでください. 1. 入力の内部表現を復元するネットワーク. 2. 入力を内部表現へ変換するネットワーク. 3. 入力ノイズからゲーム理論に従ってデータを生成するネットワーク 4.自然言語を別の自然言語に変換するネットワーク
デコーダ – 生成ネットワーク
デコーダを説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. デコーダは、エンコーダが入力から抽出した特徴量に基づいて圧,エンコーダの入力を再構築する. もし,デコーダで入力を再構築できれば,入力の不要な特徴量を削除した ( Q1 ___ ) を得ることができる. 1. カーネル 2. 潜在変数 3. 確率的勾配
忘却ゲート、入力ゲート、出力ゲート
忘却ゲート (Q1),入力ゲート (Q2),出力ゲート (Q3) を説明している文として合うものを選択肢 1 ~3 からそれぞれ選んでください. 1. 入力ゲート,出力ゲートの情報を組み合わせたものに tanh を適用し値を圧縮する.このゲートでは,tanh 層で得られた出力と, セル状態のどの部分を出力するかを決定するためのシグモイド出力を掛け合わせることで,最後にどの情報を出力するかを決定する. 2. 誤差信号を入力として受け取り,長期状態のどの部分を学習するかを決める. 3. 入力層にある,シグモイド層で更新する情報を決定する.続いて,tanh 層で新たに追加する候補値をベクトルで生成する. このゲートでは,それぞれの層からの出力を組み合わせて入力のどの部分を新たに長期状態に加えるかを決定する.
LSTM セル
LSTM の説明として正しくないものを選択肢から選んでください. 1. LSTM では勾配消失問題を抑制することができる. 2. LSTM には記憶セルと呼ばれる記憶部が存在する. 3. LSTM は 4 つのゲートから構成される. 4. RNN とは一般的に LSTM を指すことがある.
GRU セル
GRU を説明している以下の文で正しいものを選択肢 1 ~ 3 から選んでください. 1. 出力ゲートが複数存在し,その個数は忘却ゲートによって決定される. 2. 1 つのゲートコントローラで,忘却ゲートと入力ゲートの両方を制御している. 3. GRU は LSTM を複雑化したもので、設定すべべきハイパーパラメータの数は LSTM の約 3 倍である.
忘却ゲート、入力ゲート、出力ゲート
忘却ゲート (Q1),入力ゲート (Q2),出力ゲート (Q3) を説明している文として合うものを選択肢 1 ~3 からそれぞれ選んでください. 1. 入力層にある,シグモイド層で更新する情報を決定する.続いて,tanh 層で新たに追加する候補値をベクトルで生成する. このゲートでは,それぞれの層からの出力を組み合わせて入力のどの部分を新たに長期状態に加えるかを決定する. 2. 入力ゲート,出力ゲートの情報を組み合わせたものに tanh を適用し値を圧縮する.このゲートでは,tanh 層で得られた出力と, セル状態のどの部分を出力するかを決定するためのシグモイド出力を掛け合わせることで,最後にどの情報を出力するかを決定する. 3. 誤差信号を入力として受け取り,長期状態のどの部分を学習するかを決める.
GRU セル
GRU を説明している以下の文で正しいものを選択肢 1 ~ 3 から選んでください. 1. GRU は LSTM を複雑化したもので、設定すべべきハイパーパラメータの数は LSTM の約 3 倍である. 2. 出力ゲートが複数存在し,その個数は忘却ゲートによって決定される. 3. 1 つのゲートコントローラで,忘却ゲートと入力ゲートの両方を制御している.
単語の表現
NLP における単語の表現方法を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. 単語の表現方法として,( Q1 ___ ) で個々の単語を表現する方法がある.しかし,語彙が多い場合には効率的ではない. そこで,小さく密なベクトルを使って大きな語彙の中の個々の単語を表現する方法として ( Q2 ___ ) と呼ばれる手法がある. [Q1の選択肢] 1. ワンホットベクトル 2. 単位行列 3. KL Divergence [Q2の選択肢] 1. 埋め込み 2. 畳み込み 3. 外積