リッジ回帰の説明として正しいものを選択肢から選んでください. [Q1の選択肢] 1. 正則化項として、パラメータの絶対値の和である L1 ペナルティを用いる. L1 ペナルティを用いると、説明変数の数を出来るだけ減らすようにモデルは訓練される. 2. 正則化項として、パラメータの二乗和である L2 ペナルティを用いる. L2 ペナルティを用いると、モデルは重みを出来るだけ小さくするように訓練される. しかし、入力特徴量のスケールの影響を受けるため、訓練セットをスケーリングするなどの対策が必要である. 3. 正則化項として、L1 ペナルティと L2 ペナルティの重み和を用いる. 訓練セットの性質が読みづらいときには、とりあえず、このモデルを使用すると良い.
Author Archives: admin_uhs64
リッジ回帰 – 閉形式解、正規化項
次のコードで空欄になっている行に入る適切な選択肢を 1 ~ 3 から選び、 変数 X、y を用いてリッジ回帰モデルを訓練してください. # Q1:コスト関数に SGD を用いた線形回帰モデルをインポートしてください. ########## [Q1 選択肢] 1. from sklearn.decomposition import SGDRegressor 2. from sklearn.ensemble import SGDRegressor 3. from sklearn.linear_model import SGDRegressor np.random.seed(0) m = 20 X = np.random.rand(m, 1) y = 3 + 2 * X + np.random.randn(m, 1) / 5 ridge.fit(X, y) print(ridge.predict([[0]])) #Q2:SGDRegressor() クラスを用いて […]
リッジ回帰 – 閉形式解、正規化項
次のコードで空欄になっている行に入る適切な選択肢を 1 ~ 3 から選び、 変数 X、y を用いてリッジ回帰モデルを訓練してください.また、最適なハイパーパラメータ α の値を探索してください. # Q1:RidgeCV モデルをインポートしてください ########## [Q1 選択肢] 1. from sklearn.linear_model import RidgeCV 2. from sklearn.ensemble import RidgeCV 3. from sklearn.decomposition import RidgeCV np.random.seed(0) m = 20 X = np.random.rand(m, 1) y = 3 + 2 * X + np.random.randn(m, 1) / 5 # Q2:1e-3, 1e-2, 1e-1, […]
Lasso 回帰 とは
Lasso 回帰の説明として正しいものを選択肢から選んでください. [Q1の選択肢] 1. 正則化項として、パラメータの絶対値の和である L1 ペナルティを用いる. L1 ペナルティを用いると、説明変数の数を出来るだけ減らすようにモデルは訓練される. 2. 正則化項として、パラメータの二乗和である L2 ペナルティを用いる. L2 ペナルティを用いると、モデルは重みを出来るだけ小さくするように訓練される. しかし、入力特徴量のスケールの影響を受けるため、訓練セットをスケーリングするなどの対策が必要である. 3. 正則化項として、L1 ペナルティと L2 ペナルティの重み和を用いる. 訓練セットの性質が読みづらいときには、とりあえず、このモデルを使用すると良い.
Lasso 回帰 とは
Lasso 回帰の正則化項として正しいものを選択肢から選んでください. [Q1の選択肢] 1. $${LARGE [ alpha|mathbf{w}|_{1} ]}$$ 2. $${LARGE [ alpha|mathbf{w}|_{2}^{2} ]}$$ 3. $${LARGE [ ralpha|mathbf{w}|_{1}+frac{1-r}{2}alpha|mathbf{w}|_{2}^{2} ]}$$
リッジ回帰 – 閉形式解、正規化項
次のコードで空欄になっている行に入る適切な選択肢を 1 ~ 3 から選び、 変数 X、y を用いてリッジ回帰モデルを訓練してください. # Q1:リッジ回帰のクラスをインポートしてください. ########## [Q1 選択肢] 1. from sklearn.linear_model import Ridge 2. from sklearn.ensemble import Ridge 3. from sklearn.decomposition import Ridge np.random.seed(0) m = 20 X = np.random.rand(m, 1) y = 3 + 2 * X + np.random.randn(m, 1) / 5 ridge = Ridge(alpha=1.0) ridge.fit(X, y) print(ridge.predict([[0]]))
リッジ回帰 とは
リッジ回帰の正則化項として正しいものを選択肢から選んでください. [Q1の選択肢] 1. $${LARGE [ alpha|mathbf{w}|_{1} ]}$$ 2. $${LARGE [ alpha|mathbf{w}|_{2}^{2} ]}$$ 3. $${LARGE [ ralpha|mathbf{w}|_{1}+frac{1-r}{2}alpha|mathbf{w}|_{2}^{2} ]}$$
正則化とは
正則化について説明している以下の文の空欄に入る最も適切なものを選択肢からそれぞれ選んでください. 線形回帰モデルを正則化するためには、( Q1 ___ ) などの手法がある. [選択肢] 1. より自由度の高いモデルを選択する 2. よりバイアスの低いモデルを選択する 3. 説明変数の数を増やす 4. コスト関数に正則化項を追加する
正則化とは
正則化について説明している以下の文の空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください. 正則化とはモデルの (Q1____ ) を緩和するために、モデルの(Q2 ____ ) を下げることである. 例えば、多項式回帰モデルは (Q3 ____ ) ことで正則化できる. [Q1の選択肢] 1. 過学習 2. 汎化 3. 過小適合 [Q2の選択肢] 1. 自由度 2. 精度 3. F 値 [Q3の選択肢] 1. 特徴量を増やす 2. 次元を減らす 3. 確率的勾配降下法を使う
正則化とは
正則化について説明している以下の文の空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください. 正則化とはモデルの (Q1____ ) を緩和するために、モデルの(Q2 ____ ) を下げることである. 例えば、多項式回帰モデルは (Q3 ____ ) ことで正則化できる. [Q1の選択肢] 1. 過学習 2. 汎化 3. 過小適合 [Q2の選択肢] 1. 自由度 2. 精度 3. F 値 [Q3の選択肢] 1. 特徴量を増やす 2. 次元を減らす 3. 確率的勾配降下法を使う