ランダム化 PCA を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.
ランダム化 PCA では、主成分の数が ( Q1 ___ ) の数よりも小さいときには高速に計算が行える.
1. 重み
2. 特徴量
3. ハイパーパラメータ
Just another WordPress site
ランダム化 PCA を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.
ランダム化 PCA では、主成分の数が ( Q1 ___ ) の数よりも小さいときには高速に計算が行える.
1. 重み
2. 特徴量
3. ハイパーパラメータ
追加学習型 PCA を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください.
追加学習型 PCA では、訓練セットをミニバッチに分割して 1 つずつ学習していく.
よって、追加学習型 PCA は ( Q1 ___ ) な訓練セットによる学習や、PCA を ( Q2 ____ ) するときに役立つ.
[Q1の選択肢]
1. 大規模
2. 小規模
3. 極小規模(特徴量数が 100 以下)
[Q2の選択肢]
1. 分散処理
2. オフライン学習
3. オンライン学習
ランダム化 PCA を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.
ランダム化 PCA では、主成分の数が ( Q1 ___ ) の数よりも小さいときには高速に計算が行える.
1. ハイパーパラメータ
2. 特徴量
3. 重み
下記の設問に対する答えとして相応しものを選択肢から選び、次のコードの空欄(##########)を埋めてください.
追加学習型 PCA のクラスをインポートしてください.
1. from skleran.decomposition import PCA
2. from skleran.decomposition import RandomPCA
3. from skleran.decomposition import IncrementalPCA
4. from skleran.decomposition import KernelPCA
カーネル PCA を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.
カーネル PCA はカーネルトリックを利用した PCA で、次元削減のために複雑な ( Q1 ___ ) を実行できる.
1. 非線形射影
2. 勾配計
3. 算線形写射影
下記の設問に対する答えとして相応しものを選択肢から選び、次のコードの空欄(##########)を埋めてください.
追加学習型 PCA のクラスをインポートしてください.
1. from skleran.decomposition import PCA
2. from skleran.decomposition import RandomPCA
3. from skleran.decomposition import IncrementalPCA
4. from skleran.decomposition import KernelPCA
LLE を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 からそれぞれ選んでください.
LLE は非常に強力な ( Q1 ___ ) のテクニックで、PCA のように ( Q2 ___ )に依存しない多様体学習テクニックである.
[Q1の選択肢]
1. 線形次元削減
2. 非線形次元削減
3. 高次元圧縮
[Q2の選択肢]
1. 射影
2. 特徴量
3. ランダムサーチ
カーネル PCA を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.
カーネル PCA はカーネルトリックを利用した PCA で、次元削減のために複雑な ( Q1 ___ ) を実行できる.
1. 勾配計算
2. 線形写射影
3. 非線形射影
PCA による次元圧縮を説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください.
PCA では次元削減ができるが、PCA 射影の逆変換を行えば次元削減されたデータセットを再構築できる.
オリジナルデータと再構築されたデータの平均二乗誤差を ( Q1 ___ ) と呼ぶ.
1. 圧縮誤差
2. PCA 誤差
3. 再構築誤差
次のコードで空欄になっている行に入る適切な選択肢を 1 ~ 3 から選び、変数 pca から各軸の因子寄与率を求めてください.
import numpy as np
from sklearn.decomposition import PCA
np.random.seed(0)
m = 60
w1, w2 = 0.1, 0.3
noise = 0.1
angles = np.random.rand(m) * 3 * np.pi / 2 – 0.5
X = np.empty((m, 3))
X[:, 0] = np.cos(angles) + np.sin(angles)/2 + noise * np.random.randn(m) / 2
X[:, 1] = np.sin(angles) * 0.7 + noise * np.random.randn(m) / 2
X[:, 2] = X[:, 0] * w1 + X[:, 1] * w2 + noise * np.random.randn(m)
pca = PCA(n_components = 2)
X2D = pca.fit_transform(X)
print(X2D[:5])
# Q1
##########
[Q1の選択肢]
1. pca.explained_ratio_
2. pca.explained_variance_ratio_
3. pca.explained_variance_