対策 – 多数決

決定木の訓練について説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. 決定木は訓練セットの小さな変化に対して敏感すぎる. 決定木では random_state ハイパーパラメータの設定をしない限り、 同じ訓練セットを使っていたとしても大きく異なるモデルが作られることがある. よって、最適なモデルを選ぶために 多数の木を用いて予測し、その予測の ( Q1 ____ ) を求めると良い 1. 中央値 2. 平均値 3. 最大値

対策 – 多数決

決定木の訓練について説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. 決定木は訓練セットの小さな変化に対して敏感すぎる. 決定木では random_state ハイパーパラメータの設定をしない限り、 同じ訓練セットを使っていたとしても大きく異なるモデルが作られることがある. よって、最適なモデルを選ぶために 多数の木を用いて予測し、その予測の ( Q1 ____ ) を求めると良い 1. 最大値 2. 平均値 3. 中央値

エントロピー

不純度の指標としてのエントロピーの説明として正しいものを選択肢 1 ~ 3 から選んでください. [選択肢] 1. インスタンスのセットが単一のクラスに属する場合、エントロピーは 0 となる. 2. 基本的には、エントロピーよりもジニ係数の方が不純度の指標として適している. 3. ジニ係数よりもエントロピーを用いた方が、わずかに計算が速くなる.

CART 訓練アルゴリズム – NP 完全問題

CART アルゴリズムについて説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. CART アルゴリズムでは最適な分割位置を随時探索していくが、 この探索によって求まる決定境界はよい解であるが、最適な解とは言えない. このように最適な決定木を見つけることは不可能であり、 ( Q1 _____ ) と呼ばれる. [選択肢] 1. P 2. NP 3. NP 困難 4. NP 完全

CART 訓練アルゴリズム – NP 完全問題

CART アルゴリズムについて説明している以下の文で空欄に入る適切な単語を選択肢 1 ~ 3 から選んでください. CART アルゴリズムでは最適な分割位置を随時探索していくが、 この探索によって求まる決定境界はよい解であるが、最適な解とは言えない. このように最適な決定木を見つけることは不可能であり、 ( Q1 _____ ) と呼ばれる. [選択肢] 1. 勾配の発散 2. エントロピー増大則 3. NP 完全問題

CART 訓練アルゴリズム – NP 完全問題

CART アルゴリズムについて説明している以下の文のうち、正しくものを選んでください. [選択肢] 1. CART アルゴリズムは binary tree しか作らない. 2. scikit-learn の決定木用のクラスには CART アルゴリズムが最小されている. 3. CART アルゴリズムでは、ツリーを深くした方が正則化される. 4. CART アルゴリズムで最適な気を見つけるとき、NP 完全問題が発生するため、最適な木は見つからない.

ノンパラメトリックモデル

次の説明文のうち、 文の内容が正しいものを選択肢 1 ~ 3 から選んでください. 1. パラメトリックモデである線形回帰モデルは、決定木と比べて過学習しやすい. 2. 決定木は訓練データに過度に適合しや酢炒め、ノンパラメトリックモデルと言える. 3. 決定木の自由度は低く、パラメトリックモデルといえる. 4. 決定木モデルの分散は、線形回帰モデルと比べて小さい.

ノンパラメトリックモデル

次の説明文のうち、 文の内容が正しいものを選択肢 1 ~ 3 から選んでください. 1. パラメトリックモデである線形回帰モデルは、決定木と比べて過学習しやすい. 2. 決定木モデルの分散は、線形回帰モデルと比べて小さい. 3. 決定木の自由度は低く、パラメトリックモデルといえる. 4. 決定木は訓練データに過度に適合しや酢炒め、ノンパラメトリックモデルと言える.

正規化ハイパーパラメータ – 深さ、 ノード数

決定木の正則化に関する説明として正しいものを選択肢 1 ~ 3 から選んでください. 1. 深さを小さくすると自由度が下がり正則化される. 2. 葉ノードの数を減らすと自由度が上がり過学習が起きやすくなる. 3. ノード数を決定するための特徴量を分割する回数を増やすと正則化される.

正規化ハイパーパラメータ – 深さ、 ノード数

決定木の正則化に関する説明として正しくないものを選択肢 1 ~ 4 から選んでください. 1. 決定木はバイアスが低いモデルである. 2. 決定木は外れ値に敏感に反応してしまう. 3. scikit-learn では、min_samples_leaf を大きくすることで正則化できる. 4. scikit-learn では、max_depth を小さくすることで正則化できる.