位置: IT常识 - 正文

基于Pytorch的MNIST手写数字识别实现(含代码+讲解)(基于Pytorch的风格转换)

编辑:rootadmin
基于Pytorch的MNIST手写数字识别实现(含代码+讲解)

推荐整理分享基于Pytorch的MNIST手写数字识别实现(含代码+讲解)(基于Pytorch的风格转换),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:基于Pytorch的LSTM模型对股价的分析与预测,基于pytorch的图像分类算法,基于Pytorch的垃圾分类毕业论文,基于Pytorch的结构化剪枝,基于Pytorch的结构化剪枝,基于Pytorch的结构化剪枝,基于Pytorch的LSTM模型对股价的分析与预测,基于Pytorch的车道线检测,内容如对您有帮助,希望把文章链接给更多的朋友!

说明:本人也是一个萌新,也在学习中,有代码里也有不完善的地方。如果有错误/讲解不清的地方请多多指出

本文代码链接:

GitHub - Michael-OvO/mnist: mnist_trained_model with torch

明确任务目标:

使用pytorch作为框架使用mnist数据集训练一个手写数字的识别

换句话说:输入为

输出: 0

比较简单直观

1. 环境搭建 

需要安装Pytorch, 具体过程因系统而异,这里也就不多赘述了

具体教程可以参考这个视频 (这个系列的P1是环境配置)

PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】_哔哩哔哩_bilibili【已完结!!!已完结!!!2021年5月31日已完结】本系列教程,将带你用全新的思路,快速入门PyTorch。独创的学习思路,仅此一家。个人公众号:我是土堆各种资料,请自取。代码:https://github.com/xiaotudui/PyTorch-Tutorial蚂蚁蜜蜂/练手数据集:链接: https://pan.baidu.com/s/1jZoTmoFzaTLWh4lKBHVbEA 密码https://www.bilibili.com/video/BV1hE411t7RN?share_source=copy_web

2. 基本导入import torchimport torchvisionfrom torch.utils.data import DataLoaderimport torch.nn as nnimport torch.optim as optimfrom torch.utils.tensorboard import SummaryWriterimport timeimport matplotlib.pyplot as pltimport randomfrom numpy import argmax

不多解释,导入各种需要的包

3. 基本参数定义#Basic Params-----------------------------epoch = 1learning_rate = 0.01batch_size_train = 64batch_size_test = 1000gpu = torch.cuda.is_available()momentum = 0.5

epoch是整体进行几批训练

learning rate 为学习率

随后是每批训练数据大小和测试数据大小

gpu是一个布尔值,方便没有显卡的同学可以不用cuda加速,但是有显卡的同学可以优先使用cuda

momentum 是动量,避免找不到局部最优解的尴尬情况

这些都是比较基本的网络参数

4. 数据加载

使用Dataloader加载数据,如果是第一次运行将会从网上下载数据

如果下载一直不行的话也可以从官方直接下载并放入./data目录即可

基于Pytorch的MNIST手写数字识别实现(含代码+讲解)(基于Pytorch的风格转换)

​​​​​​MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges

 (有4个包都需要下载)

#Load Data-------------------------------train_loader = DataLoader(torchvision.datasets.MNIST('./data/', train=True, download=True, transform=torchvision.transforms.Compose([ torchvision.transforms.ToTensor(), torchvision.transforms.Normalize( (0.1307,), (0.3081,)) ])), batch_size=batch_size_train, shuffle=True)test_loader = DataLoader(torchvision.datasets.MNIST('./data/', train=False, download=True, transform=torchvision.transforms.Compose([ torchvision.transforms.ToTensor(), torchvision.transforms.Normalize( (0.1307,), (0.3081,)) ])), batch_size=batch_size_test, shuffle=True)train_data_size = len(train_loader)test_data_size = len(test_loader)5. 网络定义

接下来是重中之重

网络的定义

这边的网络结构参考了这张图:

有了结构图,代码就很好写了, 直接对着图敲出来就好了

非常建议使用sequential直接写网络结构,会方便很多

#Define Model----------------------------class Net(nn.Module): def __init__(self): super(Net,self).__init__() self.model = nn.Sequential( nn.Conv2d(in_channels=1, out_channels=32, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), nn.Conv2d(in_channels=32, out_channels=64, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), nn.Flatten(), nn.Linear(in_features=3136, out_features=128), nn.Linear(in_features=128, out_features=10), ) def forward(self, x): return self.model(x)if gpu: net = Net().cuda()else: net = Net()6.损失函数和优化器

交叉熵和SGD(随机梯度下降)

另外为了方便记录训练情况可以使用TensorBoard的Summary Writer

#Define Loss and Optimizer----------------if gpu: loss_fn = nn.CrossEntropyLoss().cuda()else: loss_fn = nn.CrossEntropyLoss()optimizer = optim.SGD(net.parameters(), lr=learning_rate, momentum=0.9)#Define Tensorboard-------------------writer = SummaryWriter(log_dir='logs/{}'.format(time.strftime('%Y%m%d-%H%M%S')))7. 开始训练#Train---------------------------------total_train_step = 0def train(epoch): global total_train_step total_train_step = 0 for data in train_loader: imgs,targets = data if gpu: imgs,targets = imgs.cuda(),targets.cuda() optimizer.zero_grad() outputs = net(imgs) loss = loss_fn(outputs,targets) loss.backward() optimizer.step() if total_train_step % 200 == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format( epoch, total_train_step, train_data_size, 100. * total_train_step / train_data_size, loss.item())) writer.add_scalar('loss', loss.item(), total_train_step) total_train_step += 1#Test---------------------------------def test(): correct = 0 total = 0 with torch.no_grad(): for data in test_loader: imgs,targets = data if gpu: imgs,targets = imgs.cuda(),targets.cuda() outputs = net(imgs) _,predicted = torch.max(outputs.data,1) total += targets.size(0) correct += (predicted == targets).sum().item() print('Test Accuracy: {}/{} ({:.0f}%)'.format(correct, total, 100.*correct/total)) return correct/total#Run----------------------------------for i in range(1,epoch+1): print("-----------------Epoch: {}-----------------".format(i)) train(i) test() writer.add_scalar('test_accuracy', test(), total_train_step) #save model torch.save(net,'model/mnist_model.pth') print('Saved model')writer.close()

注意这里必须要先在同一文件夹下创建一个叫做model的文件夹!!!不然模型目录将找不到地方保存!!!会报错!!!

Train函数作为训练,Test函数作为测试

注意每次训练需要梯度清零

模型测试时要写with torch.no_grad()

运行的过程如果有GPU加速会很快,运行结果应该如下

 正确率也还算是可以,一个epoch就能跑到98,如果不满意或者想调epoch次数可以在basic params区域直接进行修改

8. 模型验证和结果展示

小细节很多

首先是抽取样本的时候需要考虑转cuda的问题

其次如果直接将样本扔到网络里dimension不对,需要reshape

需要对结果进行argmax处理,因为结果是一个向量(有10个features,分别代表每个数字的概率),argmax会找到最大概率并输出模型的预测结果

使用matplotlib画图

#Evaluate---------------------------------model = torch.load("./model/mnist_model.pth")model.eval()print(model)fig = plt.figure(figsize=(20,20))for i in range(20): #随机抽取20个样本 index = random.randint(0,test_data_size) data = test_loader.dataset[index] #注意Cuda问题 if gpu: img = data[0].cuda() else: img = data[0] #维度不对必须要reshape img = torch.reshape(img,(1,1,28,28)) with torch.no_grad(): output = model(img) #plot the image and the predicted number fig.add_subplot(4,5,i+1) #一定要取Argmax!!! plt.title(argmax(output.data.cpu().numpy())) plt.imshow(data[0].numpy().squeeze(),cmap='gray')plt.show()

运行结果如下:

效果还是很不错的

至此我们就完成了一整个模型训练,保存,导入,验证的基本流程。

完整代码import torchimport torchvisionfrom torch.utils.data import DataLoaderimport torch.nn as nnimport torch.optim as optimfrom torch.utils.tensorboard import SummaryWriterimport timeimport matplotlib.pyplot as pltimport randomfrom numpy import argmax#Basic Params-----------------------------epoch = 1learning_rate = 0.01batch_size_train = 64batch_size_test = 1000gpu = torch.cuda.is_available()momentum = 0.5#Load Data-------------------------------train_loader = DataLoader(torchvision.datasets.MNIST('./data/', train=True, download=True, transform=torchvision.transforms.Compose([ torchvision.transforms.ToTensor(), torchvision.transforms.Normalize( (0.1307,), (0.3081,)) ])), batch_size=batch_size_train, shuffle=True)test_loader = DataLoader(torchvision.datasets.MNIST('./data/', train=False, download=True, transform=torchvision.transforms.Compose([ torchvision.transforms.ToTensor(), torchvision.transforms.Normalize( (0.1307,), (0.3081,)) ])), batch_size=batch_size_test, shuffle=True)train_data_size = len(train_loader)test_data_size = len(test_loader)#Define Model----------------------------class Net(nn.Module): def __init__(self): super(Net,self).__init__() self.model = nn.Sequential( nn.Conv2d(in_channels=1, out_channels=32, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), nn.Conv2d(in_channels=32, out_channels=64, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), nn.Flatten(), nn.Linear(in_features=3136, out_features=128), nn.Linear(in_features=128, out_features=10), ) def forward(self, x): return self.model(x)if gpu: net = Net().cuda()else: net = Net()#Define Loss and Optimizer----------------if gpu: loss_fn = nn.CrossEntropyLoss().cuda()else: loss_fn = nn.CrossEntropyLoss()optimizer = optim.SGD(net.parameters(), lr=learning_rate, momentum=0.9)#Define Tensorboard-------------------writer = SummaryWriter(log_dir='logs/{}'.format(time.strftime('%Y%m%d-%H%M%S')))#Train---------------------------------total_train_step = 0def train(epoch): global total_train_step total_train_step = 0 for data in train_loader: imgs,targets = data if gpu: imgs,targets = imgs.cuda(),targets.cuda() optimizer.zero_grad() outputs = net(imgs) loss = loss_fn(outputs,targets) loss.backward() optimizer.step() if total_train_step % 200 == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format( epoch, total_train_step, train_data_size, 100. * total_train_step / train_data_size, loss.item())) writer.add_scalar('loss', loss.item(), total_train_step) total_train_step += 1#Test---------------------------------def test(): correct = 0 total = 0 with torch.no_grad(): for data in test_loader: imgs,targets = data if gpu: imgs,targets = imgs.cuda(),targets.cuda() outputs = net(imgs) _,predicted = torch.max(outputs.data,1) total += targets.size(0) correct += (predicted == targets).sum().item() print('Test Accuracy: {}/{} ({:.0f}%)'.format(correct, total, 100.*correct/total)) return correct/total#Run----------------------------------for i in range(1,epoch+1): print("-----------------Epoch: {}-----------------".format(i)) train(i) test() writer.add_scalar('test_accuracy', test(), total_train_step) #save model torch.save(net,'model/mnist_model.pth') print('Saved model')writer.close()#Evaluate---------------------------------model = torch.load("./model/mnist_model.pth")model.eval()print(model)fig = plt.figure(figsize=(20,20))for i in range(20): #random number index = random.randint(0,test_data_size) data = test_loader.dataset[index] if gpu: img = data[0].cuda() else: img = data[0] img = torch.reshape(img,(1,1,28,28)) with torch.no_grad(): output = model(img) #plot the image and the predicted number fig.add_subplot(4,5,i+1) plt.title(argmax(output.data.cpu().numpy())) plt.imshow(data[0].numpy().squeeze(),cmap='gray')plt.show()
本文链接地址:https://www.jiuchutong.com/zhishi/300439.html 转载请保留说明!

上一篇:【yolov6系列一】深度解析网络架构(yolov5官方)

下一篇:【Spring】IOC,你真的懂了吗?(spring ioc di aop)

  • 2023小规模纳税人所得税税收优惠政策
  • 减免税款最终转到哪个科目?
  • 拆迁补偿款如何做账务处理
  • 10万以内免征增值税怎么做账
  • 企业所得税税款可以扣除吗
  • 个体户开公账户需要什么资料
  • 事务所纳税
  • 政府回购安置房几种模式
  • 固定资产丢失
  • 普通发票有没有有效期
  • 限售股流通股
  • 大病医疗专项附加扣除标准举例
  • 行政单位往来款项长期未清理
  • 借长期借款贷在建工程
  • 开票系统维护费计入什么科目
  • 酒店购买毛巾客房领用怎么做会计分录?
  • 核定征收小微企业
  • 园林绿化工程的分项工程有几个
  • 营改增金融商品范围
  • 贷款利息税前扣除比例
  • 固定资产评估增值递延所得税
  • 购进货物作为优秀员工的奖励是否可以进项抵扣?
  • 旅行社代订住宿发票能报销吗
  • 成本费用分配的原则方法
  • 累计折旧是备抵类科目吗
  • 个税是应发工资扣,还是实发工资扣
  • 1697509200
  • 无法收回的账务处理
  • 系统安全保障体系
  • 打方向咯噔一声已解决
  • 国库年终总结
  • 企业抄报税怎样操作
  • 小规模开票运费怎么开
  • win11怎么双击直接打开程序
  • php如何提高程序运行效率
  • 个人从事生产经营
  • 扣缴单位无有效的税费种认定信息
  • 深入理解php内核pdf
  • php生成随机6位数
  • 营业外支出准则
  • 金蝶财务软件总监是谁
  • 投资性房地产公允价值模式账务处理
  • 营业外支出的会计科目
  • 不同会计制度资产负债表金额不一样
  • 专票信息开户行少了一个字
  • 直接人工成本的计算公式
  • 企业低值易耗品的摊销方法有
  • sqlserver2008不存在或拒绝访问怎么办
  • 新公司申请一般纳税人流程
  • 增值税的视同销售行为有哪些?
  • 公司装修费用如何计算
  • 未付工程款范围内承担
  • 库存商品主要包括
  • 季度盈利弥补以前年度亏损的账务处理
  • 怎么取最大值函数
  • 普通发票作废影响额度吗
  • 食品加工企业成本核算方法和流程
  • 培训费用支出
  • 建账的要点
  • 把excel表格里的文字复制到word
  • 全面解析皮炎
  • sql需要哪些基础
  • win10系统提醒
  • 苹果电脑dock栏是什么意思
  • 运行方式包括什么方式
  • mac 鼠标调整
  • linux 判断语句
  • Win7升级win10后可以删除2345吗
  • linux ntp查看
  • dirsearch批量
  • 点击按钮显示
  • angular const
  • jquery遍历表单元素
  • python保存文件到指定文件夹
  • Android中的布局有哪些
  • 福建省地税局副局长 阮
  • 国家财政税务局
  • 深圳市税务网上注销流程图
  • 重置税务密码
  • 个体工商户银行卡是对公还是对私
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设