Python數(shù)據(jù)科學(xué):決策樹
決策樹呈樹形結(jié)構(gòu),是一種基本的回歸和分類方法。
決策樹模型的優(yōu)點(diǎn)在于可讀性強(qiáng)、分類速度快。
下面通過從「譯學(xué)館」搬運(yùn)的兩個(gè)視頻,來簡(jiǎn)單了解下決策樹。
最后來實(shí)戰(zhàn)一波,建立一個(gè)簡(jiǎn)單的決策樹模型。
/ 01 / 決策樹算法
本次主要涉及兩類決策樹,Quinlan系列決策樹和CART決策樹。
前者涉及的算法包括ID3算法、C4.5算法及C5.0算法,后者則是CART算法。
前者一系列算法的步驟總體可以概括為建樹和剪樹。
在建樹步驟中,首先選擇最有解釋力度的變量,接著對(duì)每個(gè)變量選擇最優(yōu)的分割點(diǎn)進(jìn)行剪樹。
剪樹,去掉決策樹中噪音或異常數(shù)據(jù),在損失一定預(yù)測(cè)精度的情況下,能夠控制決策樹的復(fù)雜度,提高其泛化能力。
在剪樹步驟中,分為前剪枝和后剪枝。
前剪枝用于控制樹的生成規(guī)模,常用方法有控制決策樹最大深度、控制樹中父結(jié)點(diǎn)和子結(jié)點(diǎn)的最少樣本量或比例。
后剪枝用于刪除沒有意義的分組,常用方法有計(jì)算結(jié)點(diǎn)中目標(biāo)變量預(yù)測(cè)精度或誤差、綜合考慮誤差與復(fù)雜度進(jìn)行剪樹。
此外在ID3算法中,使用信息增益挑選最有解釋力度的變量。
其中信息增益為信息熵減去條件熵得到,增益越大,則變量的影響越大。
C4.5算法則是使用信息增益率作為變量篩選的指標(biāo)。
CART算法可用于分類或數(shù)值預(yù)測(cè),使用基尼系數(shù)(gini)作為選擇最優(yōu)分割變量的指標(biāo)。
/ 02/ Python實(shí)現(xiàn)
慣例,繼續(xù)使用書中提供的數(shù)據(jù)。
一份汽車違約貸款數(shù)據(jù)集。
讀取數(shù)據(jù),并對(duì)數(shù)據(jù)進(jìn)行清洗處理。
import os
import pydotplus
import numpy as np
import pandas as pd
import sklearn.tree as tree
import matplotlib.pyplot as plt
from IPython.display import Image
import sklearn.metrics as metrics
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split, ParameterGrid, GridSearchCV
# 消除pandas輸出省略號(hào)情況
pd.set_option('display.max_columns', None)
# 設(shè)置顯示寬度為1000,這樣就不會(huì)在IDE中換行了
pd.set_option('display.width', 1000)
# 讀取數(shù)據(jù),skipinitialspace:忽略分隔符后的空白
accepts = pd.read_csv('accepts.csv', skipinitialspace=True)
# dropna:對(duì)缺失的數(shù)據(jù)進(jìn)行刪除
accepts = accepts.dropna(axis=0, how='any')
# 因變量,是否違約
target = accepts['bad_ind']
# 自變量
data = accepts.ix[:, 'bankruptcy_ind':'used_ind']
# 業(yè)務(wù)處理,loan_amt:貸款金額,tot_income:月均收入
data['lti_temp'] = data['loan_amt'] / data['tot_income']
data['lti_temp'] = data['lti_temp'].map(lambda x: 10 if x >= 10 else x)
# 刪除貸款金額列
del data['loan_amt']
# 替換曾經(jīng)破產(chǎn)標(biāo)識(shí)列
data['bankruptcy_ind'] = data['bankruptcy_ind'].replace({'N': 0, 'Y': 1})
接下來使用scikit-learn將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集。
# 使用scikit-learn將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集
train_data, test_data, train_target, test_target = train_test_split(data, target, test_size=0.2, train_size=0.8, random_state=1234)
初始化一個(gè)決策樹模型,使用訓(xùn)練集進(jìn)行訓(xùn)練。
采用基尼系數(shù)作為樹的生長(zhǎng)依據(jù),樹的最大深度為3,每一類標(biāo)簽的權(quán)重一樣。
# 初始化一個(gè)決策樹模型
clf = DecisionTreeClassifier(criterion='gini', max_depth=3, class_weight=None, random_state=1234)
# 輸出決策樹模型信息
print(clf.fit(train_data, train_target))
輸出的模型信息如下。
對(duì)生成的決策樹模型進(jìn)行評(píng)估。
# 輸出決策樹模型的決策類評(píng)估指標(biāo)
print(metrics.classification_report(test_target, clf.predict(test_data)))
# 對(duì)不同的因變量進(jìn)行權(quán)重設(shè)置
clf.set_params(**{'class_weight': {0: 1, 1: 3}})
clf.fit(train_data, train_target)
# 輸出決策樹模型的決策類評(píng)估指標(biāo)
print(metrics.classification_report(test_target, clf.predict(test_data)))
# 輸出決策樹模型的變量重要性排序
print(list(zip(data.columns, clf.feature_importances_)))
輸出如下。
可以看出對(duì)因變量標(biāo)簽進(jìn)行權(quán)重設(shè)置后,模型對(duì)違約用戶的f1-score(精確率和召回率的調(diào)和平均數(shù))提高了,為0.46。
違約用戶被識(shí)別的靈敏度也從0.24提高到了0.46。
此外決策樹模型的變量重要性排序?yàn)椤窮ICO打分」、「信用卡授權(quán)額度」、「貸款金額/建議售價(jià)*100」。

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
6月20日立即下載>> 【白皮書】精準(zhǔn)測(cè)量 安全高效——福祿克光伏行業(yè)解決方案
-
7月3日立即報(bào)名>> 【在線會(huì)議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報(bào)名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會(huì)
-
7.30-8.1火熱報(bào)名中>> 全數(shù)會(huì)2025(第六屆)機(jī)器人及智能工廠展
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身機(jī)器人動(dòng)力電池技術(shù)應(yīng)用大會(huì)
-
免費(fèi)參會(huì)立即報(bào)名>> 7月30日- 8月1日 2025全數(shù)會(huì)工業(yè)芯片與傳感儀表展
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語(yǔ)權(quán)
- 3 深度報(bào)告|中國(guó)AI產(chǎn)業(yè)正在崛起成全球力量,市場(chǎng)潛力和關(guān)鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級(jí)獨(dú)角獸:獲上市公司戰(zhàn)投,干人形機(jī)器人
- 5 國(guó)家數(shù)據(jù)局局長(zhǎng)劉烈宏調(diào)研格創(chuàng)東智
- 6 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 7 百億AI芯片訂單,瘋狂傾銷中東?
- 8 Robotaxi新消息密集釋放,量產(chǎn)元年誰(shuí)在領(lǐng)跑?
- 9 格斗大賽出圈!人形機(jī)器人致命短板曝光:頭腦過于簡(jiǎn)單
- 10 一文看懂視覺語(yǔ)言動(dòng)作模型(VLA)及其應(yīng)用