Pythonと機械学習ライブラリ「scikit-learn」を用いて、決定木分析で学習を行う方法について解説します。
決定木分析とは
決定木分析 (Decision Tree Analysis)とは、決定木と呼ばれるデータ構造を用いて分類や回帰を行う学習手法です。
アルゴリズムがシンプルで、学習結果を可視化たり、事前にデータを正規化する手間を省けるといった利点があります。
決定木分析はCART法ともいいます。
404 NOT FOUND | Python入門速報
今回は、Python言語とscikit-learnモジュールで決定木分析で実装してきます。
scikit-learnでは、sklearn.tree.DecisionTreeClassifierクラスを使うことで決定木分析を実装できます。
その使い方は下記の通りです。
書式
sklearn.tree.DecisionTreeClassifier(criterion='gini', splitter='best', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, class_weight=None, presort=False)
※各パラメータに設定されてる値(=の後)はデフォルト値
パラメータ | 内容 |
---|---|
criterion | ジニ係数「gini」か情報量「entropy」のどちらで分割するかを指定 |
splitter | 各ノードの分割を「best (最適)」と「random (ランダム最適)」のどちらで行うか選択 |
max_features | 最適な分割を探索する際に用いる特徴数の最大値 |
max_depth | 決定木の深さの最大値 |
min_samples_split | サンプルを枝に分割する数の最小値 |
min_samples_leaf | サンプル1つが属する葉の数の最小値 |
min_weight_fraction_leaf | 1つの葉に属する必要のあるサンプルの割合の最小値 |
max_leaf_nodes | 作成する葉の数の最大値(指定した場合max_depthは無効化) |
class_weight | 各説明変数の重み |
random_state | 乱数のシードを指定(指定しない場合はnp.randomを利用) |
presort | 高速化の目的で事前に入力データのソートを行うかどうか |
参考文献 | http://scikit-learn.org/stable/modules/generated/sklearn.tree.DecisionTreeClassifier.html |
ソースコード
サンプルプログラムのソースコードは下記の通りです。
【data.csv】
実行結果
サンプルプログラムの実行結果は下記の通りです。
出力したファイル(dot形式)の中身のコードを以下のサイトに貼り付け、「Generate Graph」ボタンを押すと決定木のグラフを表示できます。
http://www.webgraphviz.com/
このように得られた学習結果を可視化しやすいのが決定木の特徴です。
【Scikit-learn】決定木分析でデータ予測 (識別率の計算)
Pythonと機械学習ライブラリ「scikit-learn」を用いて、決定木分析で学習とデータ予測を行う方法について解説します。
【Scikit-learn】決定木分析で学習したモデルを出力・保存
この記事では、Pythonと機械学習ライブラリ「scikit-learn」を用いて、決定木分析で学習したモデルを出力・保存する方法について解説します。
301 Moved Permanently
コメント