【数据科学】 推荐一个更高效的数据清洗方法,建议收藏
今天來分享一個高效率的數據清洗的方法,畢竟我們平常在工作和生活當中經常會遇到需要去處理雜七雜八的數據集,有一些數據集中有缺失值、有些數據集中有極值、重復值等等。
01
導入庫和讀取數據
我們首先導入所需要用到的庫,并且讀取數據
import pandas as pd import numpy as npdf = pd.read_csv("DirectMarketing.csv")我們先來大致地看一下數據集中各個特征值的情況,通過info()這個方法
df.info()02
去除掉缺失值和重復值
我們看到上面的“History”這一列,只有697條數據不是空值,那就意味著還有另外3條數據是空值,與之對應的方式有將含有缺失值的數據刪掉,或者將缺失值的部分替換為是中位數或者是平均數,
#?將缺失值給移除掉 df.dropna(axis = 0, inplace = True)要是數據集中存在大量的缺失值,只是簡簡單單地移除掉怕是會影響到數據的完整性,如果是數值類型的特征值,就用用平均值或者是中位數來替換,如果是離散類型的缺失值,就用眾數來替換
def fill_missing_values_num(df, col_name):val = df[col_name].median()df[col_name].fillna(val, inplace = True)return df def?fill_missing_values_cate(df,?col_name):val = df[col_name].value_counts().index.tolist()[0]df[col_name].fillna(val, inplace = True)return df而可能存在重復值的部分,pandas當中有drop_ducplicates()方法來進行處理
df.drop_duplicates(inplace?= True)最后我們封裝成一個函數,對于缺失值的處理小編這里選擇用中位數填充的方式來處理
def?fill_missing_values_and_drop_duplicates(df,?col_name):val = df[col_name].value_counts().index.tolist()[0]df[col_name].fillna(val, inplace = True)return df.drop_duplicates()03
數據類型的轉換
經常使用pandas的人可能都有這種體驗,它經常會將數據集中的變量類型直接變成object,這里我們可以直接使用“convert_dtypes”來進行批量的轉換,它會自動推斷數據原來的類型,并實現轉換,并且打印出來里面各列的數據類型,封裝成一個函數
def convert_dtypes(df):print(df.dtypes)return df.convert_dtypes()04
極值的檢測
對于極值的檢測有多種方式,例如我們可以通過箱型圖的方式來查看
sample = [11, 500, 20, 24, 400, 25, 10, 21, 13, 8, 15, 10] plt.boxplot(sample, vert=False) plt.title("箱型圖來檢測異常值",fontproperties="SimHei") plt.xlabel('樣本數據',fontproperties="SimHei")我們可以通過箱型圖來明顯的看出當中有兩個異常值,也就是400和500這兩個,箱型圖由最大值、上四分位數(Q3)、中位數(Q2)、下四分位數和最小值五個統計量組成,其中Q1和Q3之間的間距稱為是四分位間距(interquartile range,IQR),而通常若是樣本中的數據大于Q3+1.5IQR和小于Q1-1.5IQR定義為異常值
當然了除此之外,還可以通過z-score的方法來檢測,Z-score是以標準差為單位去度量某個數據偏離平均數的距離,計算公式為
我們用python來實現一下當中的步驟
outliers = [] def detect_outliers_zscore(data, threshold):mean = np.mean(data)std = np.std(data)for i in data:z_score = (i-mean)/stdif (np.abs(z_score) > threshold):outliers.append(i)return?outliers#?Driver?code而對待異常值的方式,首先最直接的就是將異常值給去掉,我們檢測到異常值所在的行數,然后刪掉該行,當然當數據集當中的異常值數量很多的時候,移除掉必然會影響數據集的完整性,從而影響建模最后的效果
def?remove_outliers1(df,?col_name):low?=?np.quantile(df[col_name],?0.05)high?=?np.quantile(df[col_name],?0.95)return?df[df[col_name].between(low,?high,?inclusive=True)]其次我們可以將異常值替換成其他的值,例如上面箱型圖提到的上四分位數或者是下四分位數
def remove_outliers2(df, col_name):low_num = np.quantile(df[col_name], 0.05)high_num = np.quantile(df[col_name], 0.95)df.loc[df[col_name]?>?high_num,?col_name]?=?high_num df.loc[df[col_name]?<?low_num?,?col_name]?=?low_numreturn df因此回到上面用到的樣本數據集,我們將之前數據清洗的函數統統整合起來,用pipe()的方法來串聯起來,形成一個數據清洗的標準模板
def fill_missing_values_and_drop_duplicates(df, col_name):val = df[col_name].value_counts().index.tolist()[0]df[col_name].fillna(val, inplace = True)return df.drop_duplicates()def remove_outliers2(df, col_name):low_num = np.quantile(df[col_name], 0.05)high_num = np.quantile(df[col_name], 0.95)df.loc[df[col_name] > float(high_num), col_name] = high_num return dfdef?convert_dtypes(df):print(df.dtypes)return df.convert_dtypes()df_cleaned?=?(df.pipe(fill_missing_values_and_drop_duplicates,?'History').pipe(remove_outliers2, 'Salary').pipe(convert_dtypes))06
寫在最后
所以我們之后再數據清洗的過程當中,可以將這種程序化的清洗步驟封裝成一個個函數,然后用pipe()串聯起來,用在每一個數據分析的項目當中,更快地提高我們工作和分析的效率。
往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯黃海廣老師《機器學習課程》視頻課 本站qq群851320808,加入微信群請掃碼:總結
以上是生活随笔為你收集整理的【数据科学】 推荐一个更高效的数据清洗方法,建议收藏的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 华硕主板如何u盘启动电脑
- 下一篇: NodeJS 模板 -- jade