ML.NET Cookbook:(12)我想看看模型的系数
生活随笔
收集整理的這篇文章主要介紹了
ML.NET Cookbook:(12)我想看看模型的系数
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
通常,一旦一個(gè)模型被訓(xùn)練出來(lái),我們也會(huì)對(duì)“它學(xué)到了什么”感興趣。
例如,如果線性模型為我們認(rèn)為重要的特征賦予零權(quán)重,則可能表明建模存在一些問(wèn)題。線性模型的權(quán)重也可用作對(duì)“特征重要性”的估計(jì)。
這是我們可以從訓(xùn)練的模型中提取學(xué)習(xí)到的參數(shù)的方法:
//?第一步:將數(shù)據(jù)加載為IDataView。 //??檢索訓(xùn)練數(shù)據(jù)。 var?trainData?=?mlContext.Data.LoadFromTextFile<IrisInput>(irisDataPath,//?默認(rèn)分隔符是tab,但數(shù)據(jù)集使用逗號(hào)。separatorChar:?',' );//?建立學(xué)習(xí)管道。 var?pipeline?=//?將所有特征串聯(lián)到一列“Features”中。mlContext.Transforms.Concatenate("Features",?"SepalLength",?"SepalWidth",?"PetalLength",?"PetalWidth")//?請(qǐng)注意,標(biāo)簽是文本,因此需要將其轉(zhuǎn)換為鍵。.Append(mlContext.Transforms.Conversion.MapValueToKey("Label"),?TransformerScope.TrainTest)//?在緩存檢查點(diǎn)階段之后的步驟中緩存內(nèi)存中的數(shù)據(jù)。.AppendCacheCheckpoint(mlContext)//?利用多類SDCA模型對(duì)標(biāo)簽進(jìn)行預(yù)測(cè)。.Append(mlContext.MulticlassClassification.Trainers.SdcaMaximumEntropy());//?訓(xùn)練模型。 var?trainedModel?=?pipeline.Fit(trainData);//?檢查模型參數(shù)。 var?modelParameters?=?trainedModel.LastTransformer.Model?as?MaximumEntropyModelParameters;//?現(xiàn)在我們可以使用“modelParameters”來(lái)查看權(quán)重。 //?“weights”是一個(gè)權(quán)重向量數(shù)組,每個(gè)類一個(gè)向量。 //?我們的問(wèn)題有3個(gè)類,所以numclass將是3,權(quán)重將包含3個(gè)向量(每個(gè)向量有4個(gè)值)。 VBuffer<float>[]?weights?=?default; modelParameters.GetWeights(ref?weights,?out?int?numClasses);//?numClasses //?3 //?weights //?{float[4]}???????{?float[4]}?????????{?float[4]} //?2.45233274???????0.181766108?????????-3.05772042 //?4.61404276???????0.0578986146????????-4.85828352 //?-?6.934741???????-0.0424297452???????6.63682 //?-?3.64960361?????-4.072106???????????7.55050659//?同樣,我們也可以檢查3個(gè)類的偏差。 var?biases?=?modelParameters.GetBiases(); //???[0]?1.151999?float //??????[1]?8.337694?float //???[2]?-9.709775?float歡迎關(guān)注我的個(gè)人公眾號(hào)”My IO“
總結(jié)
以上是生活随笔為你收集整理的ML.NET Cookbook:(12)我想看看模型的系数的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 用NSubstitute来mock
- 下一篇: Cloudera将被私有化,Hadoop