本文實例為大家分享了pytorch實現(xiàn)線性回歸的具體代碼,供大家參考,具體內(nèi)容如下
線性回歸都是包括以下幾個步驟:定義模型、選擇損失函數(shù)、選擇優(yōu)化函數(shù)、 訓(xùn)練數(shù)據(jù)、測試
import torch import matplotlib.pyplot as plt # 構(gòu)建數(shù)據(jù)集 x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]]) y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0],[12.0]]) #定義模型 class LinearModel(torch.nn.Module): def __init__(self): super(LinearModel, self).__init__() self.linear= torch.nn.Linear(1,1) #表示輸入輸出都只有一層,相當(dāng)于前向傳播中的函數(shù)模型,因為我們一般都不知道函數(shù)是什么形式的 def forward(self, x): y_pred= self.linear(x) return y_pred model= LinearModel() # 使用均方誤差作為損失函數(shù) criterion= torch.nn.MSELoss(size_average= False) #使用梯度下降作為優(yōu)化SGD # 從下面幾種優(yōu)化器的生成結(jié)果圖像可以看出,SGD和ASGD效果最好,因為他們的圖像收斂速度最快 optimizer= torch.optim.SGD(model.parameters(),lr=0.01) # ASGD # optimizer= torch.optim.ASGD(model.parameters(),lr=0.01) # optimizer= torch.optim.Adagrad(model.parameters(), lr= 0.01) # optimizer= torch.optim.RMSprop(model.parameters(), lr= 0.01) # optimizer= torch.optim.Adamax(model.parameters(),lr= 0.01) # 訓(xùn)練 epoch_list=[] loss_list=[] for epoch in range(100): y_pred= model(x_data) loss= criterion(y_pred, y_data) epoch_list.append(epoch) loss_list.append(loss.item()) print(epoch, loss.item()) optimizer.zero_grad() #梯度歸零 loss.backward() #反向傳播 optimizer.step() #更新參數(shù) print("w= ", model.linear.weight.item()) print("b= ",model.linear.bias.item()) x_test= torch.Tensor([[7.0]]) y_test= model(x_test) print("y_pred= ",y_test.data) plt.plot(epoch_list, loss_list) plt.xlabel("epoch") plt.ylabel("loss_val") plt.show()
使用SGD優(yōu)化器圖像:
使用ASGD優(yōu)化器圖像:
使用Adagrad優(yōu)化器圖像:
使用Adamax優(yōu)化器圖像:
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
標(biāo)簽:湖州 中山 呼和浩特 股票 畢節(jié) 衡水 江蘇 駐馬店
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《使用pytorch實現(xiàn)線性回歸》,本文關(guān)鍵詞 使用,pytorch,實現(xiàn),線性,回歸,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。