当前位置: 首页 > news >正文

帮做暑假作业网站可以免费领取会员的软件

帮做暑假作业网站,可以免费领取会员的软件,优化网站具体如何做,新化网站建设神经网络基本骨架的搭建 Module:给所有的神经网络提供一个基本的骨架,所有神经网络都需要继承Module,并定义_ _ init _ _方法、 forward() 方法在_ _ init _ _方法中定义,卷积层的具体变换,在forward() 方法中定义&am…

神经网络基本骨架的搭建

  • Module:给所有的神经网络提供一个基本的骨架,所有神经网络都需要继承Module,并定义_ _ init _ _方法、 forward() 方法
  • 在_ _ init _ _方法中定义,卷积层的具体变换,在forward() 方法中定义,神经网络的前向传播具体是什么样的
  • 官方代码样例如下:
import torch.nn as nn
import torch.nn.functional as Fclass Model(nn.Module):def __init__(self):super().__init__()self.conv1 = nn.Conv2d(1, 20, 5)self.conv2 = nn.Conv2d(20, 20, 5)def forward(self, x):x = F.relu(self.conv1(x))return F.relu(self.conv2(x))
  • 表明输入 x 经过一个卷积层A,一个非线性层a,一个卷积层B,一个非线性层b,最后输出,如下图:
    在这里插入图片描述
  • 简单模型代码如下:
from torch import nn
import torch# 定义一个简单的Module
class Tudui(nn.Module):def __init__(self): # 初始化函数super().__init__()  # 调用父类的初始化函数def forward(self, input):   # 前向传播函数output = input + 1  # 定义张量的加法运算return output   # 返回输出张量tudui = Tudui() # 实例化一个Tudui对象
x = torch.tensor(1.0)   # tensor()函数可以将任意数据转换为张量
print(tudui(x))
* 注意:可以在调试模式中,选择单步执行代码,一步一步执行更清晰

2D卷积操作(了解原理即可,实际直接使用卷积层)

在这里插入图片描述

  • 2D卷积操作:卷积核在输入图像上不断移动,并把对应位相乘再求和,最后得到输出结果,以下是参数设置:
    • input:输入张量的维数要是四维,batch表示一次输入多少张图像,channel表示通道数,RGB图像的通道数为3,灰度图像(一层二维张量)的通道数为1,H为高度,W为宽度
    • weight:卷积核,维数也要是四维,out_channel表示(输出通道数)卷积核的数量,in_channel表示输入图像的通道数,一般groups为1,H为高度,W为宽度
    • stride:卷积核每次移动的步长(为整数或者长度为2的元组),如果是整数,表示在水平和垂直方向上使用相同的步长。如果是元组,分别表示在水平和垂直方向上的步长。默认为1。
    • padding:控制在输入张量的边界周围添加的零填充的数量(为整数或长度为2的元组),如果是整数,表示在水平和垂直方向上使用相同的填充数量。如果是元组,分别表示在水平和垂直方向上的填充数量。默认为0
  • 例如,将一张灰度图经过2D卷积操作得到输出的代码,如下:
import torch# 因为想让输入数据是tensor类型的,所以使用torch.tensor
input = torch.tensor([[1,2,0,3,1],[0,1,2,3,1],[1,2,1,0,0],[5,2,3,1,1],[2,1,0,1,1]])# 因为想让卷积核是tensor类型的,所以使用torch.tensor
kernel = torch.tensor([[1,2,1],[0,1,0],[2,1,0]])
print(input.shape) # torch.Size([5, 5])
print(kernel.shape) # torch.Size([3, 3])# 由于卷积核的尺寸和输入的尺寸都不满足卷积运算的要求,所以需要对输入和卷积核进行维度的扩展
input = torch.reshape(input, [1,1,5,5]) # 输入是一张二维图片,所以batch_size=1(一张),通道数为1(二维张量)
kernel = torch.reshape(kernel, [1,1,3,3]) # 卷积核的个数为1,所以输出通道数为1,输入通道数由上可知为1print(input.shape) # torch.Size([1, 1, 5, 5])
print(kernel.shape) # torch.Size([1, 1, 3, 3])output = torch.nn.functional.conv2d(input, kernel, stride=1)   # 经过2D卷积运算后的输出 
print(output)
  • 可视化图如下:
    在这里插入图片描述
  • padding设置为1的可视化图如下:
    在这里插入图片描述

2D卷积层

在这里插入图片描述
在这里插入图片描述

  • 2D卷积层,通常我们直接使用卷积层即可,上一节仅供了解,以下是参数设置:
    • in_channels:输入通道数,RGB图像为3,灰度图像为1,一层二维张量为1
    • out_channels:输出通道数,即卷积核的个数
    • kernel_size:卷积核的高宽(整数或元组),整数时表示高宽都为该整数,元组时表示分别在水平和垂直方向上的长度。我们只需要设置卷积核的高宽,而卷积核内部的具体参数不需要我们指定,它是在神经网络的训练中不断地对分布进行采样,同时进行不断调整
    • stride:卷积核每次移动的步长(整数或元组),整数时表示在水平和垂直方向上使用相同的步长。元组时分别表示在水平和垂直方向上的步长。默认为1。
    • padding:控制在输入张量的边界周围添加的零填充的数量(为整数或元组),如果是整数,表示在水平和垂直方向上使用相同的填充数量。如果是元组,分别表示在水平和垂直方向上的填充数量。默认为0
    • padding_mode:控制以什么样的模式进行填充,默认为 zeros 零填充
    • dilation:卷积核内部元素之间的距离,空洞卷积
    • groups:默认为1
    • bias:给输出加一个偏置,默认为True
  • 以下是2D卷积层的可视化图像,青色的为输出图像,蓝色为输入图像,深蓝色为卷积核:
请添加图片描述请添加图片描述
No padding,No stridesAribitrary padding,No strides
请添加图片描述请添加图片描述
Half padding,No stridesFull padding,No strides
请添加图片描述请添加图片描述请添加图片描述
No padding,stridesPadding,stridesPadding,strides(odd)
  • 当out_channel 为2时,卷积核也为2个,会先拿第一个卷积核与输入图像进行卷积,得到第一个输出,然后会拿第二个卷积核与输入图像进行卷积,得到第二个输出,这两个卷积核内部的具体参数可能会不同,最后把这两个输出叠加起来得到最终的输出,以下是可视化图像:
    在这里插入图片描述
  • 构建一个包含一层简单2D卷积层的神经网络模型,代码如下:
import torch
import torch.nn as nn
import torchvisiontest_dataset = torchvision.datasets.CIFAR10(root='Dataset', train=False, download=True, transform=torchvision.transforms.ToTensor())
test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=64, shuffle=False, num_workers=0)class Tudui(nn.Module):def __init__(self): # 初始化super().__init__()  # 继承父类的初始化self.conv1 = nn.Conv2d(3, 6, 3, 1, 0)   # 输入通道数3,输出通道数6,卷积核大小3*3,步长1,填充0def forward(self, x):  # 前向传播x = self.conv1(x)   # 调用卷积层对输入x进行卷积return xtudui = Tudui() # 实例化网络模型print(tudui)    # 打印网络结构# 输出结果:
# Files already downloaded and verified
# Tudui(
#  (conv1): Conv2d(3, 6, kernel_size=(3, 3), stride=(1, 1))
# )
  • 打印输入和输出的代码如下:
    • 注意:由于输入经过了一层卷积,所以输出尺寸会变小
for data in test_loader:imgs, targets = dataoutputs = tudui(imgs)   # 调用网络模型进行前向传播print(imgs.shape)       # 打印输入数据的形状,torch.Size([64, 3, 32, 32])print(outputs.shape)    # 打印输出数据的形状,torch.Size([64, 6, 30, 30])
  • 可以通过tensorboard来展示输入图像和输出图像,代码如下:
    • 注意: 由于outputs的channel为6,而add_images函数要求channel为3,所以需要对outputs进行处理
    • 把torch.Size([64, 6, 30, 30]) -> torch.Size([xx, 3, 30, 30]) 把6个通道变成3个通道,多出来的部分就打包放入batch_size中
    • 如果不知道变换后的batch_size是多少,可以写-1,PyTorch会自动计算
import torch
import torch.nn as nn
import torchvision
from torch.utils.tensorboard import SummaryWritertest_dataset = torchvision.datasets.CIFAR10(root='Dataset', train=False, download=True, transform=torchvision.transforms.ToTensor())
test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=64, shuffle=False, num_workers=0)class Tudui(nn.Module):def __init__(self): # 初始化super().__init__()  # 继承父类的初始化self.conv1 = nn.Conv2d(3, 6, 3, 1, 0)   # 输入通道数3,输出通道数6,卷积核大小3*3,步长1,填充0def forward(self, x):  # 前向传播x = self.conv1(x)   # 调用卷积层对输入x进行卷积return xtudui = Tudui() # 实例化网络模型writer = SummaryWriter("logs") # 创建一个SummaryWriter对象,指定日志文件保存路径
step = 0
for data in test_loader:imgs, targets = dataoutputs = tudui(imgs)   # 调用网络模型进行前向传播writer.add_images("input", imgs, step)  # 将输入数据imgs写入日志文件# 由于outputs的channel为6,而add_images函数要求channel为3,所以需要对outputs进行处理# 把torch.Size([64, 6, 30, 30]) -> torch.Size([xx, 3, 30, 30]) 把6个通道变成3个通道,多出来的部分就打包放入batch_size中# 如果不知道变换后的batch_size是多少,可以使用-1,PyTorch会自动计算outputs = torch.reshape(outputs, (-1, 3, 30, 30))  # 将outputs的channel从6改为3writer.add_images("output", outputs, step)  # 将输出数据outputs写入日志文件step += 1writer.close()  # 关闭日志文件
  • 结果如下:
    在这里插入图片描述
  • 注意:如果别人论文里没有写stride、padding具体为多少,那么我们可以根据以下式子进行推导:
    • N:batch_size
    • C:channel
    • H:高
    • W:宽
      在这里插入图片描述
http://www.ds6.com.cn/news/40816.html

相关文章:

  • 百石网怎么做网站百度下载安装
  • 自己制作网站视频教程知名seo公司
  • 网推所什么意思seo优化服务商
  • 网站如何做绿标企业网址怎么申请
  • 济南网站建设外包公司重庆seo网站运营
  • 广东省东莞市建设培训中心网站seo主要做什么
  • wordpress渐渐显示深圳sem优化
  • 郑州网站建设排行榜百度平台我的订单
  • WordPress可以做政府网站吗某网站搜索引擎优化
  • 免费企业网站cms电销系统
  • 临沭有做网站的吗关键词优化方法
  • 网站暂停怎么做制作网站的网址
  • 连云港做网站制作腾讯竞价广告
  • 新网站怎么做网络推广潮州网站建设
  • directory wordpress下载优化大师并安装
  • 黄冈网站建设流程百度一下下载安装
  • 企业做网站推广产品需要多少钱丹东网站seo
  • 内蒙做网站seo引擎优化怎么做
  • 外贸网站怎样做网络推广培训课程内容
  • 网站首眉怎么做深圳网络推广培训学校
  • 做最好的导航网站做网站的公司哪家最好
  • 邵阳属于哪个省哪个市搜索引擎优化怎么做
  • 交通信息华建设网站在线代理浏览网站免费
  • 免费网站推广网址南京seo推广优化
  • eclipse开发动态网站开发seo优化器
  • 聊城高端网站建设报价广州seo网站排名
  • 做网站推广有啥活动网站关键词优化推广哪家好
  • 专业的高密做网站的含有友情链接的网页
  • 网站优化靠谱seo百度推广外推联系方式
  • 常州市做网站想做网络推广的公司