生活随笔
收集整理的這篇文章主要介紹了
七层神经网络 PK logstic 回归
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
????
????logstic鏈接????在這 篇文章中,我們討論了logstic 回歸,但是logstic回歸的正確率太低了
在那個算例中,正確率只有66.2%
import pandas
as pdinputfile1=
'horseColicTraining.xlsx'
input1= pd.read_excel(inputfile1).valuesdata_train=input1
'''
data_max = data_train.max()
data_min = data_train.min()# data_std = data_train.std()
#data_train1 = (data_train-data_min)/(data_max-data_min) #數據標準化'''
train_input=data_train[:,
0:
21]
train_label=data_train[:,
21:
22]
from keras.models
import Sequential
from keras.layers.core
import Dense, Dropout, Activationmodel = Sequential()
model.add(Dense(input_dim =
21, output_dim =
48))
model.add(Activation(
'tanh')) model.add(Dense(input_dim =
48, output_dim =
48))
model.add(Activation(
'relu'))
model.add(Dropout(
0.2))model.add(Dense(input_dim =
48, output_dim =
36))
model.add(Activation(
'relu'))
model.add(Dropout(
0.2))
model.add(Dense(input_dim =
36, output_dim =
36))
model.add(Activation(
'relu')) model.add(Dense(input_dim =
36, output_dim =
12))
model.add(Activation(
'relu'))
model.add(Dense(input_dim =
36, output_dim =
36))
model.add(Activation(
'relu')) model.add(Dense(input_dim =
36, output_dim =
1))
model.add(Activation(
'sigmoid'))
model.compile(loss=
'mean_squared_error', optimizer=
'adam')
model.fit(train_input, train_label, nb_epoch =
1000, batch_size =
20) inputfile2=
'horseColicTest.xlsx'
input2= pd.read_excel(inputfile1).valuesdata_test=input2
'''
test_max = data_test.max()
test_min = data_test.min()# data_std = data_train.std()
test_train = (data_test-test_min)/(test_max-test_min) #數據標準化'''
test_input=data_test[:,
0:
21]
test_label=data_test[:,
21:
22]r = pd.DataFrame(model.predict_classes(test_input))print(
'/n')
print(
'I love tt and cc')
from sklearn.metrics
import accuracy_score
print(accuracy_score(test_label, r))
0.993288590604
????
????當我采用神經網絡時,正確率取得了驚人的提高
達到99.3%
????logstic 回歸 ,從本質上說,就是一個單層感知器,僅此而已。 一個輸入層 ,一個激活層的單層感知機。
????在本文中,我采用的是一個七層神經網絡,更深沉的大腦才能進行深度思考,單純的logstic 回歸 太淺薄了。
提取密碼 l1hr
github
總結
以上是生活随笔為你收集整理的七层神经网络 PK logstic 回归的全部內容,希望文章能夠幫你解決所遇到的問題。
如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。