Pythonモジュール「scikit-learn」で糖尿病患者のデータセットを読み込み、過学習を改善しながら回帰分析(重回帰、ラッソ回帰、リッジ回帰)する方法についてまとめました。
【重回帰分析とは】Scikit-learnで実装
重回帰分析とは、以下のような線形回帰モデルを用いて予測する手法です。
式
(1) ![]()
| 変数 | 説明 |
|---|---|
| 目的変数(予測したい値) | |
| 説明変数(予測に利用するデータ) | |
| 回帰係数(相関係数) |
例えば、「景気動向指数」「若者の平均年収」から「ガチャの売上」を予測しようと考えたとき、「目的変数=ガチャの売上」「説明変数=景気動向指数、若者の平均年収」となります。
書式
「scikit-learn」では、sklearn.linear_model.LinearRegressionクラスで重回帰分析を行うことが出来ます。
その使い方は以下の通りです。
sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=1)
| 引数 | 内容 |
|---|---|
| fit_interceptz | Trueで切片を求めます。目的変数が原点を必ず通るデータを用いる場合はFalseにします。 |
| normalize | Trueで説明変数を事前に正規化します。 |
| copy_X | Trueでメモリ内でデータを複製してから実行します。 |
| n_jobs | CPUで計算する際のジョブの数です。(-1ですべてのジョブを使用) |
その他メソッド
「sklearn.linear_model.LinearRegression」クラスの各メソッドの使い方は次の通りです。
| メソッド | 内容 |
|---|---|
| fit(x, y[, sample_weight]) | 説明変数x、目的変数yとして線形回帰モデルを求めます。 |
| get_params([deep]) | 推定に用いたパラメータを取得します。 |
| predict(x) | 生成した線形回帰モデルとデータxを用いて予測します。 |
| score(X, y[, sample_weight]) | 決定係数を求めます。 |
| set_params(**params) | パラメータを設定します。 |
| coef_ | 偏回帰係数を取得します。 |
| intercept_ | 切片の値を取得します。 |
| 参考文献 | 公式ドキュメント(英語) |
CSVファイルを読み込んで、そのデータから重回帰分析を行い、結果(モデル)をファイルに出力(エクスポート)します。
読み込むデータ
data.csv
今回はdata.csvの
を説明変数、
を目的変数として重回帰分析を行いました。
その結果、
は以下の式で推測できるようになります。

【過学習とは】本番データに対する認識率が逆に下がってしまう現象
過学習とは、同じようなデータを使って学習し続けると、そのデータだけに強いモデルとなり、本番データに対する認識率が逆に下がってしまう現象です。
受験生で例えると、「ある特定の過去問ばかりを勉強した結果、過去問と傾向が異なる未知の問題が出てきたときに全く点がとれなくなる」ことです。
そのため学習する際は、評価データで精度向上度合いを確認し、ある程度飽和したところで学習を終了することが必要になります。
そのため、作成したモデルの精度は、学習に用いたデータではなく、未知のテストデータで測定してやる必要があります。
未知のデータに対する誤りを「汎化誤差」といい、汎化誤差が小さいことを「汎化能力が高い」といいます。
動画解説版
本記事の内容は動画でも解説しています。
【データセットの取得】糖尿病患者
まずは、load_diabetes()で糖尿病患者のデータセットを取得します。
データセットの中身は次のとおり。
| 種別 | 概要 |
|---|---|
| 説明変数 | sepal length(ガクの長さ)、sepal width(ガクの幅)、petal length(花弁の長さ)、petal width(花弁の幅)の4種類のデータ |
| 目的変数 | 糖尿病患者の1年後の進行状況(25~346) |
【データ特性の検証】散布図、ヒストグラム、ヒートマップ
データセット(説明変数、目的変数)の特性を散布図、ヒストグラム、ヒートマップなどで観察してみます。
散布図

ヒストグラム

相関ヒートマップ

真ん中付近に「0.9」「-0.74」と説明変数同士でかなり高い相関値をもつものがあります。
この現象を「多重共線性」といいます。
多重共線性になると、変数間が独立ではないため解が計算できなかったり、信頼性が低下してしまいます。
そのため、高い相関値をもつ説明変数を取り除くなどの対策を取る必要があります。
【回帰】重回帰分析
まずは、何の工夫もせずにそのまま重回帰分析をしてみます。
今回はホールド・アウト方でデータセットを訓練用とテスト用に2分割して精度検証しています。
「ホールドアウト法」「交差検証法」はともに機械学習におけるデータのテスト方法の1つです。
それぞれの違いは以下のとおりです。
| 種別 | 概要 |
|---|---|
| ホールドアウト法 | 機械学習におけるデータのテスト方法の1つです。教師データ(訓練データ)を「学習用」「評価用」に6対4などに割合で2分割して、学習済みモデルの精度を測定します。 |
| 交差検証法 | 教師データ(訓練データ)を3分割以上して、学習済みモデルの精度を測定します。 |

結果(予測精度)は学習データで57%、テストデータでは43%となり過学習に陥っています。
過学習とは、訓練データにモデルが稼業適合(オーバーフィッティング)しすぎているため、学習データとテストデータの結果に差が大きく出て、精度が落ちてしまう現象です。
過学習を防ぐには、「訓練データの数を増やす」「正則化などで学習時に一定の制約を与える」「質の良い説明変数のみを使う」などの対策を施します。
訓練データを増やすという対策は実際には難しいので、正則化や説明変数の選択という手法をまず取ることが多いです。
【過学習防止法①】相関値の高い説明変数を除外
相関値の高い説明変数を除外してみましょう。
# -*- coding: utf-8 -*-
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import linear_model
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
sns.set() # seabornのスタイルをセット
# 糖尿病患者のデータセットをロード
dataset = datasets.load_diabetes()
# 説明変数
X = dataset.data
# 相関の高い4番目~7番目の説明変数を除外
X = np.hstack((X[:, 0:5], X[:, 8:10]))
# 目的変数
y = dataset.target
# 学習用、テスト用にデータを分割(1:1)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.7, random_state=0)
# 予測モデルを作成(リッジ回帰)
clf = linear_model.Ridge()
# 学習
clf.fit(X_train, y_train)
# 回帰係数と切片の抽出
a = clf.coef_
b = clf.intercept_
# 回帰係数
print("回帰係数:", a)
print("切片:", b)
print("決定係数(学習用):", clf.score(X_train, y_train))
print("決定係数(テスト用):", clf.score(X_test, y_test))
"""
回帰係数: [ 56.45348132 -12.64593807 198.05710012 126.36651865 45.32494485
211.8317115 85.95664122]
切片: 151.37723470691103
決定係数(学習用): 0.36218623451960075
決定係数(テスト用): 0.30393630855490333
"""
学習データとテストデータの結果の差が小さくなり、過学習が改善されています。

【過学習防止法②】Lasso回帰(L1正則化)、リッジ回帰(L2正則化)
リッジ回帰は、直線回帰に正則化項(L2ノルム)を加えて、稼業適合(オーバーフィッティング)をしにくくした回帰分析です。
# -*- coding: utf-8 -*-
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import linear_model
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
sns.set() # seabornのスタイルをセット
# 糖尿病患者のデータセットをロード
dataset = datasets.load_diabetes()
# 説明変数
X = dataset.data
# 目的変数
y = dataset.target
# 学習用、テスト用にデータを分割(1:1)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.7, random_state=0)
# 予測モデルを作成(リッジ回帰)
clf = linear_model.Ridge()
# 学習
clf.fit(X_train, y_train)
# 回帰係数と切片の抽出
a = clf.coef_
b = clf.intercept_
# 回帰係数
print("回帰係数:", a)
print("切片:", b)
print("決定係数(学習用):", clf.score(X_train, y_train))
print("決定係数(テスト用):", clf.score(X_test, y_test))
"""
回帰係数: [ -20.41129305 -265.88594023 564.64844662 325.55650029 -692.23796104
395.62249978 23.52910434 116.37102129 843.98257585 12.71981044]
切片: 154.3589882135515
決定係数(学習用): 0.3983270129832158
決定係数(テスト用): 0.3345645490979842
"""
学習データとテストデータの結果の差が小さくなり、過学習が改善されています。
# -*- coding: utf-8 -*-
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import linear_model
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
sns.set() # seabornのスタイルをセット
# 糖尿病患者のデータセットをロード
dataset = datasets.load_diabetes()
# 説明変数
X = dataset.data
# 目的変数
y = dataset.target
# 学習用、テスト用にデータを分割(1:1)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.7, random_state=0)
# 予測モデルを作成(Lasso回帰)
clf = linear_model.Lasso()
# 学習
clf.fit(X_train, y_train)
# 回帰係数と切片の抽出
a = clf.coef_
b = clf.intercept_
# 回帰係数
print("回帰係数:", a)
print("切片:", b)
print("決定係数(学習用):", clf.score(X_train, y_train))
print("決定係数(テスト用):", clf.score(X_test, y_test))
"""
回帰係数: [ 0. -0. 397.28850539 0. 0.
0. -0. 0. 472.25346364 0. ]
切片: 151.99424541715777
決定係数(学習用): 0.4765923813915492
決定係数(テスト用): 0.3743169923017488
"""
過学習が少し改善されています。また、相関値の高い変数のうち一方が排除されやすいためモデル式も簡単になります。

【過学習防止法③】ヒストグラムから改善

ヒストグラムを見てみると、オレンジ色の棒(2番目の説明変数)は、2つの値のみを取っています。
よって、2番目の説明変数が正か負のどちらの値になっているかでデータを分けて分析できそうです。
# -*- coding: utf-8 -*-
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import linear_model
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
sns.set() # seabornのスタイルをセット
# 糖尿病患者のデータセットをロード
dataset = datasets.load_diabetes()
# 説明変数
X = dataset.data
# 2番目の説明変数が正の場合の値を抽出
new_X = X[X[:,1]>0]
new_X = np.hstack((new_X[:,0:1], new_X[:,2:10]))
# 目的変数
y = dataset.target
new_y = np.ones(new_X.shape[0])
j = 0
for i in range(X.shape[0]):
if X[i, 1] > 0:
new_y[j] = y[i]
j += 1
# 学習用、テスト用にデータを分割(1:1)
X_train, X_test, y_train, y_test = train_test_split(new_X, new_y, test_size=0.5, random_state=0)
# 予測モデルを作成(重回帰)
clf = linear_model.LinearRegression(normalize=True)
# 学習
clf.fit(X_train, y_train)
# 回帰係数と切片の抽出
a = clf.coef_
b = clf.intercept_
# 回帰係数
print("回帰係数:", a)
print("切片:", b)
print("決定係数(学習用):", clf.score(X_train, y_train))
print("決定係数(テスト用):", clf.score(X_test, y_test))
"""
回帰係数: [ 277.29294234 500.31554998 439.68983117 -475.51950795 173.84452198
-150.86666125 78.63507256 593.28585922 92.17250636]
切片: 136.50904152851012
決定係数(学習用): 0.584086429999823
決定係数(テスト用): 0.5808777752389886
"""
学習データとテストデータの結果の差がほとんどなくなり、過学習が改善されています。



コメント