国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python數(shù)據(jù)分析之用sklearn預測糖尿病

瀏覽:4日期:2022-06-21 16:26:24
一、數(shù)據(jù)集描述

本數(shù)據(jù)集內(nèi)含十個屬性列

Pergnancies: 懷孕次數(shù)

Glucose:血糖濃度

BloodPressure:舒張壓(毫米汞柱)

SkinThickness:肱三頭肌皮膚褶皺厚度(毫米)

Insulin:兩個小時血清胰島素(μU/毫升)

BMI:身體質(zhì)量指數(shù),體重除以身高的平方

Diabets Pedigree Function: 疾病血統(tǒng)指數(shù)

是否和遺傳相關,Height:身高(厘米)

Age:年齡

Outcome:0表示不患病,1表示患病。

任務:建立機器學習模型以準確預測數(shù)據(jù)集中的患者是否患有糖尿病

二、準備工作

查閱資料得知各屬性的數(shù)據(jù)值要求,方面后期對于數(shù)據(jù)的分析與處理過程。

屬性列名稱 數(shù)據(jù)值要求

Pergnancies(懷孕次數(shù)) 符合常理即可(可為0)

Glucose(血糖濃度) 正常值為:80~120

BloodPressure(舒張壓(毫米汞柱)) 正常值為:60~80

SkinThickness(肱三頭肌皮膚褶皺厚度(毫米)) 不為0

Insulin(兩個小時血清胰島素(/毫升)) 正常值為:35~145

BMI(身體質(zhì)量指數(shù):體重除以身高的平方) 正常值為:18.5~24.9

Diabets Pedigree Function:(疾病血統(tǒng)指數(shù):是否和遺傳相關) 無特殊值要求

Height(身高(厘米)) 不為0 符合常理即可

Age(年齡) 符合常理即可

Outcome(0表示不患病,1表示患病) 標簽值

三、實驗環(huán)境和工具

python3.5.6 + jupyter

數(shù)據(jù)處理 pandas、numpy

可視化 matplotlib、seaborn

模型構(gòu)建 sklearn

四、預測分析4.1探索性數(shù)據(jù)分析

數(shù)據(jù)描述

首先觀察基本的數(shù)據(jù)類型,以及數(shù)據(jù)是否存在缺失情況,簡要統(tǒng)計信息

all_data.shapeall_data.info()

<class ’pandas.core.frame.DataFrame’>RangeIndex: 768 entries, 0 to 767Data columns (total 10 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 Pregnancies 768 non-null int64 1 Glucose 768 non-null int64 2 BloodPressure 768 non-null int64 3 SkinThickness 768 non-null int64 4 Insulin 768 non-null int64 5 BMI 768 non-null float64 6 DiabetesPedigreeFunction 768 non-null float64 7 Age 768 non-null int64 8 Height 766 non-null object 9 Outcome 768 non-null int64 dtypes: float64(2), int64(7), object(1)memory usage: 60.1+ KB

數(shù)據(jù)總量時比較少的只有768個例子,可以看到除Height外的屬性都為數(shù)值型屬性。在后續(xù)數(shù)據(jù)預處理過程需要對Height屬性進行類型轉(zhuǎn)換操作。目前沒有缺失值的出現(xiàn)。

# height 數(shù)值類型 為object 需要轉(zhuǎn)化為 數(shù)值型all_data = all_data.astype({’Height’:’float64’})

all_data.describe()

python數(shù)據(jù)分析之用sklearn預測糖尿病

發(fā)現(xiàn)兩個問題:

1.缺失值

從其中的min值可以很直觀地觀察到,Glucose, BloodPressure, SkinTinckness, Insulin, BMI等特征存在0值的情況(當然Pregnancies根據(jù)常識判斷是可以為0的)。而根據(jù)常規(guī)范圍明顯可以判定這些0值是不合理的,所以也是一種缺失值缺失值,后續(xù)數(shù)據(jù)預處理需要對這些缺失值進行填充處理。

2.離群值/異常值

Glucose,BloodPressure,SkinTinckness,Insulin等特征的max值和75%分位點值或者min值和25%分位點值之間的差距比較大,初步判斷可能存在離群值/異常值。尤其是SkinThickness和Insulin特征(具體見圖4紅色框部分),后續(xù)可以通過可視化進一步直觀地觀察判斷。

為了方便后序?qū)θ笔е档慕y(tǒng)一處理,將異常值統(tǒng)一替換為np.nan。

import numpy as np#缺失值替換 經(jīng)分析,除懷孕次數(shù),其他特征的0值表示缺失值 替換為np.nanreplace_list = [’Glucose’, ’BloodPressure’, ’SkinThickness’, ’Insulin’, ’BMI’, ’Height’]all_data.loc[:,replace_list] = all_data.loc[:,replace_list].replace({0:np.nan})

#各特征缺失數(shù)量統(tǒng)計null_count = all_data.isnull().sum().values# 缺失值情況plt.figure()sns.barplot(x = null_count, y = all_data.columns)for x, y in enumerate(null_count): plt.text(y, x, '%s' %y, horizontalalignment=’center’, verticalalignment=’center’)plt.show()

python數(shù)據(jù)分析之用sklearn預測糖尿病

可以觀察到Glucose,Insulin,SkinThickness,BMI,Height等特征都存在缺失值。并且 Insulin,SkinThickness缺失值比較多,分別占到了48%,30%的比例。所以后期數(shù)據(jù)預處理也是很關鍵的。

五、可視化分析

接下來通過更多針對性的可視化,來進一步探索特征值的分布以及特征和預測變量之間的關系

# 患病和不患病情況下 箱線圖查看數(shù)據(jù)分散情況for col in all_data.columns: plt.figure(figsize = (10,6)) if all_data[col].unique().shape[0] > 2:sns.boxplot(x='Outcome', y=col, data=all_data.dropna()) else:sns.countplot(col,hue = ’Outcome’,data = all_data.dropna()) plt.title(col) plt.show()

部分輸出:

python數(shù)據(jù)分析之用sklearn預測糖尿病

python數(shù)據(jù)分析之用sklearn預測糖尿病

觀察患病和不患病情況下 各特征值或者人數(shù)分布label接近2:1 存在一定的分布不平衡 像insulin之類的特征離群值是比較多的,由于離群值會對模型評估產(chǎn)生影響,所以后續(xù)可能要做處理,剔除偏離較大的離群值

# 患病和不患病情況下 各特征的分布情況for col in all_data.drop(’Outcome’,1).columns: plt.figure() sns.displot(data = all_data, x = col,hue = ’Outcome’,kind=’kde’) plt.show()

部分輸出:

python數(shù)據(jù)分析之用sklearn預測糖尿病

python數(shù)據(jù)分析之用sklearn預測糖尿病python數(shù)據(jù)分析之用sklearn預測糖尿病

1.從數(shù)據(jù)樣本本身出發(fā)研究數(shù)據(jù)分布特征,可以發(fā)現(xiàn)在患病和不患病兩種情況下,部分特征的密度分布比較相近,特別是height的分布圖,發(fā)現(xiàn)兩曲線基本相近。感覺和label之間的相關性都不是很強。

2.同時,可以發(fā)現(xiàn)部分特征存在右偏的現(xiàn)象(skewness (偏度) 描述數(shù)據(jù)分布形態(tài)的統(tǒng)計量,其描述的是某總體取值分布的對稱性),考慮到需要數(shù)據(jù)盡量服從正態(tài)分布,所以后續(xù)數(shù)據(jù)預處理需要對存在一定偏度的特征進行相關處理。

# 觀察各特征分布和患病的關系corr = all_data.corr()plt.figure(figsize = (8,6))sns.heatmap(corr,annot = True,cmap = ’Blues’)plt.show()

python數(shù)據(jù)分析之用sklearn預測糖尿病

heatmap()函數(shù)可以直觀地將數(shù)據(jù)值的大小以定義的顏色深淺表示出來。

1.可以發(fā)現(xiàn)顏色相對來說都比較淺,也就是說無論是特征和特征之間還是特征和outcome標簽之間的相關性都沒有很高。

2.發(fā)現(xiàn)其余各特征變量中與outcome的相關度中最高的是Glucose 屬性值為0.49,最低的是Height屬性值為0.059。

3.同時觀察特征與特征之間的關系,發(fā)現(xiàn)Insulin與Glucose,BMI和SkinThickness之間的相關度分別為0.58,0.65屬于比較高的相關性,由于Insulin是一個確實比較嚴重的特征,而相關性可以是一種協(xié)助填充缺失值的方法。

plt.figure()sns.scatterplot(x = ’Insulin’, y = ’Glucose’, data = all_data)plt.show()sns.scatterplot(x = ’Insulin’, y = ’BMI’, data = all_data)plt.show()sns.scatterplot(x = ’Insulin’, y = ’Age’, data = all_data)plt.show()plt.figure()sns.scatterplot(x = ’SkinThickness’, y = ’BMI’, data = all_data)plt.show()sns.scatterplot(x = ’SkinThickness’, y = ’Glucose’, data = all_data)plt.show()sns.scatterplot(x = ’SkinThickness’, y = ’BloodPressure’, data = all_data)plt.show()

部分輸出:

python數(shù)據(jù)分析之用sklearn預測糖尿病python數(shù)據(jù)分析之用sklearn預測糖尿病

六、構(gòu)建baseline

因為決策樹幾乎不需要數(shù)據(jù)預處理。其他方法經(jīng)常需要數(shù)據(jù)標準化,創(chuàng)建虛擬變量和刪除缺失值。

# 讀取數(shù)據(jù)all_data = pd.read_csv(’data.csv’)# height 數(shù)值類型 為object 需要轉(zhuǎn)化為 數(shù)值型all_data = all_data.astype({’Height’:’float64’})# all_data.dropna(inplace = True)# 特征feature_data = all_data.drop(’Outcome’,1)# 標簽label = all_data[’Outcome’]base_model = DecisionTreeClassifier()base_scores = cross_validate(base_model, feature_data, label,cv=5,return_train_score=True)print(base_scores[’test_score’].mean())

0.6954248366013072

七、數(shù)據(jù)預處理

綜合前面分析,先做了以下處理

# 讀取數(shù)據(jù)all_data = pd.read_csv(’data.csv’)# height 數(shù)值類型 為object 需要轉(zhuǎn)化為 數(shù)值型all_data = all_data.astype({’Height’:’float64’})# 理論缺失值0替換為np.nanreplace_list = [’Glucose’, ’BloodPressure’, ’SkinThickness’, ’Insulin’, ’BMI’, ’Height’]all_data.loc[:,replace_list] = all_data.loc[:,replace_list].replace({0:np.nan})# 刪除相關性低的Heightall_data.drop(’Height’,1,inplace = True)八、離群值處理

1.經(jīng)過前面的分析發(fā)現(xiàn)數(shù)據(jù)是存在部分離群值的,雖然實驗本身就是關于疾病預測,異常值的存在屬于正常現(xiàn)象。但是對于一些可能超出人體接受范圍的值,衡量對預測的影響之后,由于數(shù)據(jù)量比較小,這里選擇刪除極端異常點。

2.極端異常點 :上限的計算公式為Q3+3(Q3-Q1) 下界的計算公式為Q1-3(Q3-Q1))。

# remove the outliers# 異常點 上須的計算公式為Q3+1.5(Q3-Q1);下須的計算公式為Q1-1.5(Q3-Q1)# 極端異常點 :上限的計算公式為Q3+3(Q3-Q1) 下界的計算公式為Q1-3(Q3-Q1)# 由于數(shù)據(jù)量比較少 所以選擇刪除極端異常值def remove_outliers(feature,all_data): first_quartile = all_data[feature].describe()[’25%’] third_quartile = all_data[feature].describe()[’75%’] iqr = third_quartile - first_quartile # 異常值下標 index = all_data[(all_data[feature] < (first_quartile - 3*iqr)) | (all_data[feature] > (first_quartile + 3*iqr))].index all_data = all_data.drop(index) return all_dataoutlier_features = [’Insulin’, ’Glucose’, ’BloodPressure’, ’SkinThickness’, ’BMI’, ’DiabetesPedigreeFunction’]for feat in outlier_features: all_data = remove_outliers(feat,all_data)

處理之后的數(shù)據(jù)基本的統(tǒng)計信息

python數(shù)據(jù)分析之用sklearn預測糖尿病

九、缺失值處理

1.直接刪除處理

def drop_method(all_data): median_fill = [’Glucose’, ’BloodPressure’,’SkinThickness’, ’BMI’,’Height’] for column in median_fill:median_val = all_data[column].median()all_data[column].fillna(median_val, inplace=True) all_data.dropna(inplace = True) return all_data

2.中值填充

def median_method(): for column in list(all_data.columns[all_data.isnull().sum() > 0]):median = all_data[column].median()all_data[column].fillna(median, inplace=True)

3.KNNImputer填充

def knn_method(): # 先將缺失值比較少的特征用中值填充 values = {’Glucose’: all_data[’Glucose’].median(),’BloodPressure’:all_data[’BloodPressure’].median(),’BMI’:all_data[’BMI’].median()} all_data.fillna(value=values,inplace=True) # 用KNNImputer 填充 Insulin SkinThickness corr_SkinThickness = [’BMI’, ’Glucose’,’BloodPressure’, ’SkinThickness’] # 權(quán)重按距離的倒數(shù)表示。在這種情況下,查詢點的近鄰比遠處的近鄰具有更大的影響力 SkinThickness_imputer = KNNImputer(weights = ’distance’) all_data[corr_SkinThickness] = SkinThickness_imputer.fit_transform(all_data[corr_SkinThickness]) corr_Insulin = [’Glucose’, ’BMI’,’BloodPressure’, ’Insulin’] Insulin_imputer = KNNImputer(weights = ’distance’) all_data[corr_Insulin] = Insulin_imputer.fit_transform(all_data[corr_Insulin])

4.隨機森林填充

from sklearn.ensemble import RandomForestRegressorfrom sklearn.impute import SimpleImputer # 用來填補缺失值def predict_method(feature): # 復制一份數(shù)據(jù) 避免對原數(shù)據(jù)做出不必要的修改 copy_data = all_data.copy() # 缺失了的下標 predict_index = copy_data[copy_data[feature].isnull()].index # 沒缺失的下標 train_index = copy_data[feature].dropna().index # 用作預測 的訓練集標簽 train_label = copy_data.loc[train_index,feature] copy_data = copy_data.drop(feature,axis=1) # 對特征先用中值填充 imp_median = SimpleImputer(strategy=’median’) # 用作預測的訓練集特征 train_feature = copy_data.loc[train_index] train_feature = imp_median.fit_transform(train_feature) # 需要進行預測填充處理的缺失值 pre_feature = copy_data.loc[predict_index] pre_feature = imp_median.fit_transform(pre_feature) # 選取隨機森林模型 fill_model = RandomForestRegressor() fill_model = fill_model.fit(train_feature,train_label) # 預測 填充 pre_value = fill_model.predict(pre_feature) all_data.loc[predict_index,feature] = pre_value#用隨機森林的方法填充缺失值較多的 SkinThickness 和 Insulin 缺失值predict_method('Insulin')predict_method('SkinThickness')# 其余值中值填充for column in list(all_data.columns[all_data.isnull().sum() > 0]): median = all_data[column].median() all_data[column].fillna(median, inplace=True)十、特征工程

# 特征feture_data = all_data.drop(’Outcome’,1)# 標簽label = all_data[’Outcome’]

# 利用BMI和身高構(gòu)造weight特征# BMI = weight(kg) / height(m)**2feture_data[’weight’] = (0.01*feture_data[’Height’])**2 * feture_data[’BMI’]十一、數(shù)據(jù)標準化

# 標準化Std = StandardScaler()feture_data = Std.fit_transform(feture_data)十二、模型構(gòu)建與調(diào)參優(yōu)化

用到的模型

from sklearn.svm import SVC,SVRfrom sklearn.tree import DecisionTreeClassifierfrom sklearn.linear_model import LogisticRegressionfrom sklearn.ensemble import RandomForestClassifier,StackingClassifier

調(diào)參方法

from sklearn.model_selection import GridSearchCV

評估指標 Accuracy roc_auc

from sklearn.metrics import make_scorer from sklearn.metrics importaccuracy_score from sklearn.metrics import roc_auc_score

def train(model, params): grid_search = GridSearchCV(estimator = model, param_grid = params,scoring=scores,refit=’Accuracy’) grid_search.fit(feture_data,label) print(grid_search.best_estimator_) return grid_searchdef paint(x,y): plt.figure() sns.lineplot(x=x,y=y) plt.show()

SVC

#調(diào)參時先嘗試一個大范圍,確定比較小的范圍,然后在小范圍里搜索model = SVC()params = {’C’:np.linspace(0.1, 2, 100)}SVC_grid_search = train(model,params)paint([x for x in range(100)],SVC_grid_search.cv_results_[’mean_test_Accuracy’])paint([x for x in range(100)],SVC_grid_search.cv_results_[’mean_test_AUC’])print('test_Accuracy : {}ntest_AUC : {}'.format(SVC_grid_search.cv_results_[’mean_test_Accuracy’].mean(),SVC_grid_search.cv_results_[’mean_test_AUC’].mean()))

LogisticRegression

model = LogisticRegression()params = {'C':np.linspace(0.1,2,100)}LR_grid_search = train(model,params)paint([x for x in range(100)],LR_grid_search.cv_results_[’mean_test_Accuracy’])paint([x for x in range(100)],LR_grid_search.cv_results_[’mean_test_AUC’])print('test_Accuracy : {}ntest_AUC : {}'.format(LR_grid_search.cv_results_[’mean_test_Accuracy’].mean(),LR_grid_search.cv_results_[’mean_test_AUC’].mean()))

RandomForestClassifier

model = RandomForestClassifier()params = {'n_estimators':[x for x in range(30,50,2)],’min_samples_split’:[x for x in range(4,10)]}RFC_grid_search = train(model,params)print('test_Accuracy : {}ntest_AUC : {}'.format(RFC_grid_search.cv_results_[’mean_test_Accuracy’].mean(),RFC_grid_search.cv_results_[’mean_test_AUC’].mean()))

StackingClassifier

estimators = [ (’SVC’,SVC_grid_search.best_estimator_), (’NB’, LR_grid_search.best_estimator_), (’RFC’, RFC_grid_search.best_estimator_)]model = StackingClassifier(estimators=estimators, final_estimator=SVC())model_score = cross_validate(model,feture_data, label,scoring=scores)print('test_Accuracy : {}ntest_AUC : {}'.format(model_score[’test_Accuracy’].mean(),model_score[’test_AUC’].mean()))

SVC預測結(jié)果:

1.直接刪除缺失值以及異常值刪除公式上限Q3+1.5(Q3-Q1);下限計算公式為Q1-1.5(Q3-Q1)

SVC(C=1.097979797979798)test_Accuracy : 0.8549075391180654test_AUC : 0.511601411290322

python數(shù)據(jù)分析之用sklearn預測糖尿病python數(shù)據(jù)分析之用sklearn預測糖尿病

2.直接刪除缺失值以及異常值刪除公式上限Q3+3(Q3-Q1);下限計算公式為Q1-3(Q3-Q1)

SVC(C=1.405050505050505)test_Accuracy : 0.7953321596244133test_AUC : 0.7133755225726653

python數(shù)據(jù)分析之用sklearn預測糖尿病python數(shù)據(jù)分析之用sklearn預測糖尿病

3.中值填充以及異常值刪除公式上限Q3+3(Q3-Q1);下限計算公式為Q1-3(Q3-Q1)

SVC(C=1.7888888888888888)test_Accuracy : 0.7814101086443079test_AUC : 0.7248522348166069

python數(shù)據(jù)分析之用sklearn預測糖尿病python數(shù)據(jù)分析之用sklearn預測糖尿病

十三、總結(jié)

1.一些刪除數(shù)據(jù)值的處理方法導致樣本標簽的不均衡會導致對比例大的樣本造成過擬合,也就是說預測偏向樣本數(shù)較多的分類。這樣就會大大降低模型的泛化能力。表現(xiàn)在準確率很高,但roc_auc_score很低。上面SVC的預測結(jié)果就很好的說明了。

2.可以看出由于缺失值比較多,所以反而各種填充方法的效果比直接刪除的效果是要更差的(也有可能我沒找到合適的填充方法)

3.關于離群值的處理,主要方法有直接刪除法,替換為缺失值處理,以及中值填充法等。由于缺失值處理那里的效果不是很理想,所以就選擇了直接刪除,并且在平衡了roc_auc_score和accuracy兩個指標后,選擇只刪除極端異常點。

4.關于樣本0/1比例的問題,可以考慮上采樣或者下采樣的方法平衡樣本。本文不涉及。

到此這篇關于python數(shù)據(jù)分析之用sklearn預測糖尿病的文章就介紹到這了,更多相關用sklearn預測糖尿病內(nèi)容請搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持好吧啦網(wǎng)!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美亚洲国产片在线观看 | 亚洲精品欧美 | 日产一区两区三区四区 | 日韩中文字幕在线免费观看 | 国产人做人爱视频精品 | 美日韩一区二区 | a国产成人免费视频 | 男人女人做刺激视频免费 | 91香蕉视频成人 | 欧美日韩一区二区视频免费看 | 欧美日韩精品高清一区二区 | 亚洲精品成人7777在线观看 | 国产大乳孕妇喷奶水在线观看 | 国产成人亚洲日本精品 | 国产精自产拍久久久久久蜜 | 国产精品亲子乱子伦xxxx裸 | 亚洲性视频在线 | 久久精品国产亚洲a | 老司机精品影院一区二区三区 | 亚洲欧美日韩视频一区 | 狠狠色狠狠色综合久久一 | 精品一久久香蕉国产线看播放 | 久久国产精品99久久小说 | 亚洲小视频在线 | 亚洲最大看欧美片网站 | 99久久国内精品成人免费 | 精品国产网 | 大量愉拍情侣在线视频 | 成年人在线免费网站 | 亚洲三级在线观看 | 欧美xxxx成人免费网站 | 在线观看成年视频 | 一级做a爰全过程免费视频毛片 | 综合久久久久久中文字幕 | 一区二区三区免费在线观看 | 久久伊人男人的天堂网站 | 亚洲欧美成人综合久久久 | 亚洲精品国产综合久久一线 | 亚洲成人看片 | 欧美一级特黄aaaaaa在线看片 | 91精品国产薄丝高跟在线看 |