国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

Python機器學習之底層實現KNN

瀏覽:24日期:2022-06-16 11:07:57
一、導入數據

借助python自帶的pandas庫導入數據,很簡單。用的數據是下載到本地的紅酒集。

代碼如下(示例):

import pandas as pddef read_xlsx(csv_path): data = pd.read_csv(csv_path) print(data) return data二、歸一化

KNN算法中將用到距離,因此歸一化是一個重要步驟,可以消除數據的量綱。我用了歸一化,消除量綱也可以用標準化,但是作為新手,我覺得歸一化比較簡單。

其中最大最小值的計算用到了python中的numpy庫,pandas導入的數據是DateFrame形式的,np.array()用來將DateFrame形式轉化為可以用numpy計算的ndarray形式。

代碼如下(示例):

import numpy as npdef MinMaxScaler(data): col = data.shape[1] for i in range(0, col-1):arr = data.iloc[:, i]arr = np.array(arr) #將DataFrame形式轉化為ndarray形式,方便后續用numpy計算min = np.min(arr)max = np.max(arr)arr = (arr-min)/(max-min)data.iloc[:, i] = arr return data三、分訓練集和測試集

先將數據值和標簽值分別用x和y劃分開,設置隨機數種子random_state,若不設置,則每次運行的結果會不相同。test_size表示測試集比例。

def train_test_split(data, test_size=0.2, random_state=None): col = data.shape[1] x = data.iloc[:, 0:col-1] y = data.iloc[:, -1] x = np.array(x) y = np.array(y) # 設置隨機種子,當隨機種子非空時,將鎖定隨機數 if random_state:np.random.seed(random_state)# 將樣本集的索引值進行隨機打亂# permutation隨機生成0-len(data)隨機序列 shuffle_indexs = np.random.permutation(len(x)) # 提取位于樣本集中20%的那個索引值 test_size = int(len(x) * test_size) # 將隨機打亂的20%的索引值賦值給測試索引 test_indexs = shuffle_indexs[:test_size] # 將隨機打亂的80%的索引值賦值給訓練索引 train_indexs = shuffle_indexs[test_size:] # 根據索引提取訓練集和測試集 x_train = x[train_indexs] y_train = y[train_indexs] x_test = x[test_indexs] y_test = y[test_indexs] # 將切分好的數據集返回出去 # print(y_train) return x_train, x_test, y_train, y_test四、計算距離

此處用到歐氏距離,pow()函數用來計算冪次方。length指屬性值數量,在計算最近鄰時用到。

def CountDistance(train,test,length): distance = 0 for x in range(length):distance += pow(test[x] - train[x], 2)**0.5 return distance五、選擇最近鄰

計算測試集中的一條數據和訓練集中的每一條數據的距離,選擇距離最近的k個,以少數服從多數原則得出標簽值。其中argsort返回的是數值從小到大的索引值,為了找到對應的標簽值。

tip:用numpy計算眾數的方法

import numpy as np#bincount():統計非負整數的個數,不能統計浮點數counts = np.bincount(nums)#返回眾數np.argmax(counts)

少數服從多數原則,計算眾數,返回標簽值。

def getNeighbor(x_train,test,y_train,k): distance = [] #測試集的維度 length = x_train.shape[1] #測試集合所有訓練集的距離 for x in range(x_train.shape[0]):dist = CountDistance(test, x_train[x], length)distance.append(dist) distance = np.array(distance) #排序 distanceSort = distance.argsort() # distance.sort(key= operator.itemgetter(1)) # print(len(distance)) # print(distanceSort[0]) neighbors =[] for x in range(k):labels = y_train[distanceSort[x]]neighbors.append(labels)# print(labels) counts = np.bincount(neighbors) label = np.argmax(counts) # print(label) return label

調用函數時:

getNeighbor(x_train,x_test[0],y_train,3)六、計算準確率

用以上KNN算法預測測試集中每一條數據的標簽值,存入result數組,將預測結果與真實值比較,計算預測正確的個數與總體個數的比值,即為準確率。

def getAccuracy(x_test,x_train,y_train,y_test): result = [] k = 3 # arr_label = getNeighbor(x_train, x_test[0], y_train, k) for x in range(len(x_test)):arr_label = getNeighbor(x_train, x_test[x], y_train, k)result.append(arr_label) correct = 0 for x in range(len(y_test)):if result[x] == y_test[x]: correct += 1 # print(correct) accuracy = (correct / float(len(y_test))) * 100.0 print('Accuracy:', accuracy, '%') return accuracy總結

KNN算是機器學習中最簡單的算法,實現起來相對簡單,但對于我這樣的新手,還是花費了大半天時間才整出來。

在github上傳了項目:https://github.com/chenyi369/KNN

到此這篇關于Python機器學習之底層實現KNN的文章就介紹到這了,更多相關Python底層實現KNN內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 精品视频免费在线观看 | 久久免费视频在线观看 | 在线视频 日韩 | 一级特黄特黄的大片免费 | 精品国产自 | 久草.com| 在线视频中文字幕 | 大尺度福利视频奶水在线 | 免费看的一级片 | 亚洲精品久久一区二区无卡 | 日本一区二区三区高清在线观看 | 免费一级欧美片在线观免看 | 日韩欧美日本 | 99精品视频免费在线观看 | 一区二区三区国产精品 | 欧美日韩中文字幕在线观看 | 在线日本看片免费人成视久网 | 中国女警察一级毛片视频 | 很黄很暴力深夜爽爽无遮挡 | 欧美老妇69交 | 中文字幕精品一区二区2021年 | 欧美一区二区三区在线播放 | 国产精品综合一区二区三区 | 成人免费在线观看视频 | 黄色三级理沦片 | 国产亚洲欧美日韩综合综合二区 | 欧美精品另类hdvideo | 成熟女人免费一级毛片 | 国产成人一区二区三区影院免费 | 国产成人精品一区二三区 | 久久久久久久国产视频 | 一本久道久久综合婷婷五 | jyzzjyzzjyzz日本在线观看 | 成年女人免费观看 | 欧美一区二 | 美女张开腿让我桶 | 欧美一级片网站 | 福利视频美女国产精品 | 日韩一级片在线播放 | 美美女下面被cao爽 美女131爽爽爽做爰中文视频 | 3至13呦女毛片 |