a*算法的优缺点_K-近邻算法以及案例
生活随笔
收集整理的這篇文章主要介紹了
a*算法的优缺点_K-近邻算法以及案例
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
什么是K-近鄰算法(KNN)
根據鄰居判斷類型。如果一個樣本在特征空間中有K個最相似(距離相近)的樣本大多數屬于一個類別,則該樣品也屬于這個類別。
如何求距離呢?非常簡單,如圖。
a1,a2,a3代表樣本a的特征值 b1,b2,b3代表b的樣本值,根據公式可以計算出a和b兩個點的距離,各個特征值越相近,則距離越近。
K-近鄰算法需要做標準化。
k-近鄰算法的API(算法流程,無需考慮詳細數據)
from sklearn.neighbors import KNeighborsClassifier from sklearn.preprocessing import StandardScaler from sklearn.model_selection import train_test_splitimport pandas as pddata = pd.read_csv("路徑")# 縮小數據范圍 # data.query() 相當于sql語句,寫條件,進行篩選 data = data.query("x > 1.0 & x < 1.25") # 處理時間的數據 pd.to_datetime time_value = pd.to_datetime(data['time'], unit='s') # 把日期格式轉換為字典數據 time = pd.DatetimeIndex(time_value) # 構造一些特征, data['day'] = time.day data['hour'] = time.hour data['weekday'] = time.weekday # sklearn 1表示列 data = data.drop(['time'], axis=1) # 把簽到數量少于n的目標位置刪除 place_count = data.groupby('place_id').count() # reset_index() 把place_id當做一個屬性,以便獲取到 tf = place_count[place_count.row_id > 3].reset_index()# 判斷是否存在包含關系 ,果果數據中的 place_id 不在 tf.place_id 中,被過濾 data = data[data['place_id'].isin(tf.place_id)] # 去處數據中的特征值和目標值 y = data['place_id'] x = data.drop(['place_id'], axis=1) # 進行訓練值和特征值切分 x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)# 特征工程,標準化 std = StandardScaler() # 對測試集和訓練集進行標準化 x_train = std.fit_transform(x_train) # 因為前面已經fit一次了, fit會計算平均值和標準差,不用再計算一次,直接transform x_test = std.transform(x_test) # 進行算法流程 knn = KNeighborsClassifier(n_neighbors=5) # fit ,predict,score fit = knn.fit(x_train, y_train) # 得出預測結果 y_predict = fit.predict(x_test) # 評估預測結果,得出準確率 knn.score(x_test, y_test)K-近鄰算法優缺點
優點:
- 簡單,易于理解,易于實現,無需估計參數(超參數),無需訓練。
缺點:
- K值取值 , K值取很小容易受異常點影響 , K取值很大 , 容易受數量波動影響。
- 性能問題
總結
以上是生活随笔為你收集整理的a*算法的优缺点_K-近邻算法以及案例的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 大成卓享一年持有期混合型基金怎么样?大成
- 下一篇: 申请信用卡全部被拒是什么原因 申请信用卡