当前位置: 首页 > news >正文

马家堡网站建设奉化云优化seo

马家堡网站建设,奉化云优化seo,网站建设服,三网合一网站怎么做nn.XXX与F.XXX PyTorch中torch.nn**(以下简写为nn)中的模块和torch.nn.functional(以下简写为F)**中的模块都提供了常用的神经网络操作,包括激活函数、损失函数、池化操作等。它们的主要区别如下: nn中的…

nn.XXX与F.XXX

PyTorch中torch.nn**(以下简写为nn)中的模块和torch.nn.functional(以下简写为F)**中的模块都提供了常用的神经网络操作,包括激活函数、损失函数、池化操作等。它们的主要区别如下:

  • nn中的模块是以类形式存在的;F中的模块是以函数形式存在的
  • nn中的模块是nn.Module的子类,包含可学习参数、可导,在反向传播中可以计算梯度,可以在模型中作为子模块使用;F中的模块是纯函数,没有与之相关联的可学习参数,虽然也可以用于反向传播,但是其梯度需要手动计算
  • nn中的模块需要实例化后,将张量作为实例的调用参数;F中的模块直接传递张量作为参数
  • nn中的模块可以管理和访问模块的内部参数和状态;F中的函数是纯函数,没有与之相关联的参数或状态,因此无法直接管理和访问函数的内部状态

nn.Relu与F.relu()

以激活函数ReLu为例,在使用激活函数时,有以下两种方式可以使用:

# 方法一
nn.ReLU()
# 方法二
F.relu(input)

这两种方法都是使用ReLu激活,但使用的场景不一样。

  • nn.ReLU是一个类,必须实例化后才能使用,一般在定义网络层的时候使用

    # nn.ReLU的常用方法
    nn.Sequential(nn.Conv2d(in_channels, out_channels),nn.ReLU(inplace=True))
    
  • F.relu()是函数调用,一般使用在foreward()函数

  • nn.ReLU只能处理Variable类型的张量;而F.relu()可以处理Tensor和Variable类型的张量

  • nn.ReLU需要额外占用内存用来存储中间结果;而F.relu()则是直接在原张量上进行操作,不需要额外的内存占用

另外:

  • 当用print()打印输出神经网络时,会输出nn.ReLU()层,而F.relu()是没有输出的
http://www.ds6.com.cn/news/78915.html

相关文章:

  • 泰安网络推广公司推荐seo网络培训班
  • 网站设计汕头seo入门教程
  • 太原网站建设培训优秀网站网页设计分析
  • 梧州网站建设电话谷歌浏览器中文手机版
  • 深圳阿里网站设计公司查询网站备案信息
  • 网站空间维护西安网络优化大的公司
  • 公众号 上传 wordpress黑龙seo网站优化
  • 属于建筑施工企业会计存货的是seo排名优化软件
  • 网站如何做内链关键词搜索爱站网
  • 网站如何运营省好多会员app
  • 建立官方网站多少钱搜索引擎的工作原理分为
  • 谷歌网站推广销售做一个网站需要多少钱
  • 网站布局建设邯郸今日头条最新消息
  • 青岛网站建设企业建站简述网络推广的方法
  • wordpress上传的地址加河北seo基础入门教程
  • 樱花代码html苏州seo招聘
  • 长沙微信网站长清区seo网络优化软件
  • 仿糗事百科网站源码dede二次开发分享+评论+互动最新军事新闻
  • 电影网站建设教学视频网络推广公司名字大全
  • 网站建设推广新业务知识搜索引擎
  • 进入网站后台如何操作免费建立个人网站官网
  • 怎样做月嫂网站互联网营销师培训机构
  • 网站用什么语言编写seo优化工作
  • 公司做百度网站要多少钱官网优化 报价
  • 成都制作网站网络推广公司专业网络
  • 泉州网站制作网页常用的网络营销工具有哪些
  • 网络营销试题志鸿优化设计答案网
  • 用java做网站代码seo公司发展前景
  • 做按摩网站优化营销案例
  • 拼团购物网站怎么做免费个人网站平台