亚洲国产欧美一区二区三区f,亚洲A∨精品永久无码青草网,亚洲 暴爽 av人人爽日日碰,亚洲AV永久无码精心天堂久久_无码

系統城裝機大師 - 唯一官網:www.outletmksalestore.com!

當前位置:首頁 > 腳本中心 > python > 詳細頁面

Pytorch 神經網絡—自定義數據集上實現教程

時間:2020-01-07來源:系統城作者:電腦系統城

第一步、導入需要的包


 
  1. import os
  2. import scipy.io as sio
  3. import numpy as np
  4. import torch
  5. import torch.nn as nn
  6. import torch.backends.cudnn as cudnn
  7. import torch.optim as optim
  8. from torch.utils.data import Dataset, DataLoader
  9. from torchvision import transforms, utils
  10. from torch.autograd import Variable

 
  1. batchSize = 128 # batchsize的大小
  2. niter = 10 # epoch的最大值

第二步、構建神經網絡

設神經網絡為如上圖所示,輸入層4個神經元,兩層隱含層各4個神經元,輸出層一個神經。每一層網絡所做的都是線性變換,即y=W×X+b;代碼實現如下:


 
  1. class Neuralnetwork(nn.Module):
  2. def __init__(self, in_dim, n_hidden_1, n_hidden_2, out_dim):
  3. super(Neuralnetwork, self).__init__()
  4. self.layer1 = nn.Linear(in_dim, n_hidden_1)
  5. self.layer2 = nn.Linear(n_hidden_1, n_hidden_2)
  6. self.layer3 = nn.Linear(n_hidden_2, out_dim)
  7.  
  8. def forward(self, x):
  9. x = x.view(x.size(0), -1)
  10. x = self.layer1(x)
  11. x = self.layer2(x)
  12. x = self.layer3(x)
  13. return x
  14.  
  15. model = Neuralnetwork(1*3, 4, 4, 1)
  16.  
  17. print(model) # net architecture

 
  1. Neuralnetwork(
  2. (layer1): Linear(in_features=3, out_features=4, bias=True)
  3. (layer2): Linear(in_features=4, out_features=4, bias=True)
  4. (layer3): Linear(in_features=4, out_features=1, bias=True)
  5. )

??? 第三步、讀取數據

自定義的數據為demo_SBPFea.mat,是MATLAB保存的數據格式,其存儲的內容如下:包括fea(1000*3)和sbp(1000*1)兩個數組;fea為特征向量,行為樣本數,列為特征寬度;sbp為標簽


 
  1. class SBPEstimateDataset(Dataset):
  2.  
  3. def __init__(self, ext='demo'):
  4.  
  5. data = sio.loadmat(ext+'_SBPFea.mat')
  6. self.fea = data['fea']
  7. self.sbp = data['sbp']
  8.  
  9. def __len__(self):
  10.  
  11. return len(self.sbp)
  12.  
  13. def __getitem__(self, idx):
  14.  
  15. fea = self.fea[idx]
  16. sbp = self.sbp[idx]
  17. """Convert ndarrays to Tensors."""
  18. return {'fea': torch.from_numpy(fea).float(),
  19. 'sbp': torch.from_numpy(sbp).float()
  20. }
  21.  
  22. train_dataset = SBPEstimateDataset(ext='demo')
  23. train_loader = DataLoader(train_dataset, batch_size=batchSize, # 分批次訓練
  24. shuffle=True, num_workers=int(8))

整個數據樣本為1000,以batchSize = 128劃分,分為8份,前7份為104個樣本,第8份則為104個樣本。在網絡訓練過程中,是一份數據一份數據進行訓練的

第四步、模型訓練


 
  1. # 優化器,Adam
  2. optimizer = optim.Adam(list(model.parameters()), lr=0.0001, betas=(0.9,0.999),weight_decay=0.004)
  3. scheduler = optim.lr_scheduler.ExponentialLR(optimizer, gamma=0.997)
  4. criterion = nn.MSELoss() # loss function
  5.  
  6. if torch.cuda.is_available(): # 有GPU,則用GPU計算
  7. model.cuda()
  8. criterion.cuda()
  9.  
  10. for epoch in range(niter):
  11. losses = []
  12. ERROR_Train = []
  13. model.train()
  14. for i, data in enumerate(train_loader, 0):
  15. model.zero_grad()# 首先提取清零
  16. real_cpu, label_cpu = data['fea'], data['sbp']
  17.  
  18. if torch.cuda.is_available():# CUDA可用情況下,將Tensor 在GPU上運行
  19. real_cpu = real_cpu.cuda()
  20. label_cpu = label_cpu.cuda()
  21.  
  22.  
  23. input=real_cpu
  24. label=label_cpu
  25.  
  26. inputv = Variable(input)
  27. labelv = Variable(label)
  28.  
  29. output = model(inputv)
  30. err = criterion(output, labelv)
  31. err.backward()
  32. optimizer.step()
  33.  
  34. losses.append(err.data[0])
  35.  
  36. error = output.data-label+ 1e-12
  37. ERROR_Train.extend(error)
  38.  
  39. MAE = np.average(np.abs(np.array(ERROR_Train)))
  40. ME = np.average(np.array(ERROR_Train))
  41. STD = np.std(np.array(ERROR_Train))
  42.  
  43. print('[%d/%d] Loss: %.4f MAE: %.4f Mean Error: %.4f STD: %.4f' % (
  44. epoch, niter, np.average(losses), MAE, ME, STD))
  45.  

 
  1. ???
  2. [0/10] Loss: 18384.6699 MAE: 135.3871 Mean Error: -135.3871 STD: 7.5580
  3. [1/10] Loss: 17063.0215 MAE: 130.4145 Mean Error: -130.4145 STD: 7.8918
  4. [2/10] Loss: 13689.1934 MAE: 116.6625 Mean Error: -116.6625 STD: 9.7946
  5. [3/10] Loss: 8192.9053 MAE: 89.6611 Mean Error: -89.6611 STD: 12.9911
  6. [4/10] Loss: 2979.1340 MAE: 52.5410 Mean Error: -52.5279 STD: 15.0930
  7. [5/10] Loss: 599.7094 MAE: 22.2735 Mean Error: -19.9979 STD: 14.2069
  8. [6/10] Loss: 207.2831 MAE: 11.2394 Mean Error: -4.8821 STD: 13.5528
  9. [7/10] Loss: 189.8173 MAE: 9.8020 Mean Error: -1.2357 STD: 13.7095
  10. [8/10] Loss: 188.3376 MAE: 9.6512 Mean Error: -0.6498 STD: 13.7075
  11. [9/10] Loss: 186.8393 MAE: 9.6946 Mean Error: -1.0850 STD: 13.6332??
  12.  

以上這篇Pytorch 神經網絡—自定義數據集上實現教程就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持我們。

分享到:

相關信息

系統教程欄目

欄目熱門教程

人氣教程排行

站長推薦

熱門系統下載

亚洲国产欧美一区二区三区f,亚洲A∨精品永久无码青草网,亚洲 暴爽 av人人爽日日碰,亚洲AV永久无码精心天堂久久_无码 日本少妇又色又爽又高潮