収束、学習率

学習率について説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 4 からそれぞれ選んでください.

勾配効果法において重要なハイパーパラメータの 1 つである (Q1____ ) はステップのサイズを表している.
(Q1____ ) が ( Q2____ ) と、モデルは最適化解へ収束できずに発散してしまう.

[Q1の選択肢]
1. 説明変数
2. F 値
3. 学習率
4. ドロップアウト率

[Q2の選択肢]
1. 大きすぎる
2. ランダムである
3. 小さすぎる
4. 0

scikit-learn による線形回帰の実装 – 正規方程式

以下のコードでは、Numpy の random モジュールを用いてガウス分布に従う乱数を変数 X に定義しています.
また、関数 y = 4 + 3*X + ガウスノイズ を用いてデータを生成しています.
下記の設問に対する答えとして相応しものを選択肢から選び、次のコードの空欄(##########)を埋めて、
線形回帰モデルで変数 X、y を訓練データとして、 y を予測するモデルを用意してください.

import numpy as np

# Q1:scikit-learn ライブラリから線形回帰モデルをインポートしてください.
##########
[Q1 選択肢]
1. from sklearn.linear_model import LinearRegression
2. from sklearn.linear_model import LinearRegressionClassifier
3. from sklearn.model_selection import LinearRegression
4. from sklearn.model_selection import LinearRegressionClassifier

np.randomseed(0)
X = 2 * np.random.rand(100,1)
y = 4 + 3 * X + np.random.rand(100,1)

# Q2:変数 model に線形回帰モデルを定義してください.
model = ##########

[Q2の選択肢]
1. LinearRegression()
2. LinearRegression
3. LinearRegression(X, y)
4. LinearRegression().fit(X, y)

# Q3:訓練データを用いてモデルを学習させてください.
##########

[Q3の選択肢]
1. model.fit()
2. model.fit(X,y)
3. model.predict()
4. model.predict(X, y)

# Q4:求められた切片を出力してください.
print(##########)
print()

# Q5:求められた説明変数を出力してください
print(##########)

[Q4、5 の選択肢]
1. model.intercept_
2. model.coef_
3. model.bias_
4. model.best_

勾配降下法

勾配降下法について説明している以下の文の空欄 Q1、Q2 に入る適切な単語を選択肢1 ~ 3 からそれぞれ選んでください.

訓練セットに対して ( Q1 ____ ) が最小となるように θ を少しずつ操作し、最終的に、
正規方程式と同じ同じパラメータセットに ( Q2____ ) するまで反復処理を行う.

1. コスト関数
2. 発散
3. F 値
4. 収束

勾配降下法

勾配降下法について説明している以下の文の空欄に入る適切な単語を選択肢からそれぞれ選んでください.

勾配降下では、まず( Q1 ____ ) に重みの初期値を設定し、その重みにおけるコスト関数を(Q2 ___ )で算出する.
続いて、コスト関数から ( Q3 ____ ) を用いて、その重みにおける勾配を(コスト関数の傾き)を算出する.
その得られた勾配と、(Q4 ___ )と呼ばれるハイパーパラメータの値に従って重みの値を更新する.最終的に、勾配の値が 0 となる点がもとまるまで
この一連の処理を繰り返すことで、最適な重みパラメータが決定される.

[選択肢]
1. 確度
2. MSE
3. 単変回帰
4. 経験的
5. 畳み込み
6. ポアソン分布
7. 学習率
8. ランダム
9. 偏微分
10. 偽陽性率

勾配降下法

勾配降下法について説明している以下の文の空欄に入る適切な単語を選択肢からそれぞれ選んでください.
(同じ選択肢を複数回選ぶことができます)

勾配降下では、まず( Q1 ____ ) に重みの初期値を設定し、その重みにおけるコスト関数を(Q2 ___ )で算出する.
続いて、コスト関数から偏微分を用いて、その重みにおける ( Q3 ____ ) を算出する.
その得られた ( Q3 ____ ) が負の場合は重みが ( Q4 ___ ) なるように、正の場合は( Q5 ___ )なるようにそれぞれ更新する.
この時、学習率と呼ばれるハイパーパラメータを用いて、重みを更新するときの( Q6 ____ )を調整することができる.
一般的に、学習率が大きくなると最適解に収束するまでにかかる時間は(Q7 ____ )なる.

[選択肢]
1. MSE
2. 大きく
3. 誤差
4. 経験的
5. 小さく
6. 勾配
7. ステップ
8. ランダム
9. 偏微分
10. グリッドサーチ

線形回帰モデルとは – 特徴ベクトル、重みベクトル

式 6.2.1 では線形回帰モデルを数式で表しています.次の方程式の変数 $$n$$ 、$$x_i$$ 、$$theta_i$$ は何を表しているか、最も適切なものを 1 ~ 4 からそれぞれ選んでください.

式 6.2.1
$${LARGE
[
hat{y}=theta_0+theta_1x_1+theta_2x_2+ cdots +theta_nx_n
]}$$

Q1:$$n$$
Q2:$$x_i$$
Q3:$$theta_i$$

[選択肢]
1. モデルのパラメータ(重み)
2. 特徴量値
3. 特徴量数
4. 予測値

線形回帰モデルとは – 特徴ベクトル、重みベクトル

式 6.2.1 では線形回帰モデルを数式で表しています.次の方程式の変数 $$n$$ 、$$x_i$$ 、$$theta_i$$ は何を表しているか、最も適切なものを 1 ~ 4 からそれぞれ選んでください.

式 6.2.1
$${LARGE
[
hat{y}=theta_0+theta_1x_1+theta_2x_2+ cdots +theta_nx_n
]}$$

Q1:$$n$$
Q2:$$hat{y}$$
Q3:$$theta_i$$

[選択肢]
1. モデルのパラメータ(重み)
2. 特徴量値
3. 特徴量数
4. 予測値