Pytorch多层感知机的实现方法
发表于:2025-12-03 作者:千家信息网编辑
千家信息网最后更新 2025年12月03日,这篇文章主要讲解了"Pytorch多层感知机的实现方法",文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习"Pytorch多层感知机的实现方法"吧!impor
千家信息网最后更新 2025年12月03日Pytorch多层感知机的实现方法
这篇文章主要讲解了"Pytorch多层感知机的实现方法",文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习"Pytorch多层感知机的实现方法"吧!
import torchfrom torch import nnfrom torch.nn import initimport numpy as npimport sysimport torchvisionfrom torchvision import transformsnum_inputs=784num_outputs=10num_hiddens=256mnist_train = torchvision.datasets.FashionMNIST(root='~/Datasets/FashionMNIST', train=True, download=True, transform=transforms.ToTensor())mnist_test = torchvision.datasets.FashionMNIST(root='~/Datasets/FashionMNIST', train=False, download=True, transform=transforms.ToTensor())batch_size = 256train_iter = torch.utils.data.DataLoader(mnist_train, batch_size=batch_size, shuffle=True)test_iter = torch.utils.data.DataLoader(mnist_test, batch_size=batch_size, shuffle=False)def evalute_accuracy(data_iter,net): acc_sum,n=0.0,0 for X,y in data_iter: acc_sum+=(net(X).argmax(dim=1)==y).float().sum().item() n+=y.shape[0] return acc_sum/ndef train(net,train_iter,test_iter,loss,num_epochs,batch_size,params=None,lr=None,optimizer=None): for epoch in range(num_epochs): train_l_sum,train_acc_sum,n=0.0,0.0,0 for X,y in train_iter: y_hat=net(X) l=loss(y_hat,y).sum() if optimizer is not None: optimizer.zero_grad() elif params is not None and params[0].grad is not None: for param in params: param.grad.data.zero_() l.backward() optimizer.step() # "softmax回归的简洁实现"一节将用到 train_l_sum+=l.item() train_acc_sum+=(y_hat.argmax(dim=1)==y).sum().item() n+=y.shape[0] test_acc=evalute_accuracy(test_iter,net); print('epoch %d, loss %.4f, train acc %.3f, test acc %.3f' % (epoch + 1, train_l_sum / n, train_acc_sum / n, test_acc))class Faltten(nn.Module): def __init__(self): super(Faltten, self).__init__() def forward(self,x): return x.view(x.shape[0],-1)net =nn.Sequential( Faltten(), nn.Linear(num_inputs,num_hiddens), nn.ReLU(), nn.Linear(num_hiddens,num_outputs))for params in net.parameters(): init.normal_(params,mean=0,std=0.01)batch_size=256loss=torch.nn.CrossEntropyLoss()optimizer=torch.optim.SGD(net.parameters(),lr=0.5)num_epochs=5train(net,train_iter,test_iter,loss,num_epochs,batch_size,None,None,optimizer)感谢各位的阅读,以上就是"Pytorch多层感知机的实现方法"的内容了,经过本文的学习后,相信大家对Pytorch多层感知机的实现方法这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是,小编将为大家推送更多相关知识点的文章,欢迎关注!
多层
方法
学习
内容
简洁
就是
思路
情况
文章
更多
知识
知识点
篇文章
跟着
问题
实践
推送
研究
验证
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
教育部对幼儿园网络安全建议
plex本地服务器
网络技术科普
jeecms 数据库配置
思科网络技术学院教程二手
html格式获取数据库
湖南专业软件开发培训
徐州计算机网络技术学校
idc托管服务器价格
工信部谈网络安全
中国教育部青少年网络安全
斗鱼弹幕服务器怎么样
pc端和服务器网络不通
软件开发测试表
sql删除前几行数据库
卫生计生网络安全自查报告
网络安全规则意识
地图展示数据库
不属于全文数据库有哪些
武装突击怎么样自己开个服务器玩
u享u购软件开发鞋
应用宝服务器繁忙
湖南电力软件开发公司
diy 1u服务器
海南综合软件开发销售价格
sql删除多个id数据库
战地1怎么组队进入服务器
网络安全法法律责任解读
政务网络安全归公安管吗
wps新建数据库查询