推广 热搜: page  关键词  链接  搜索  红书  获取  哪些  数据分析  服务  数据 

典型算子或接口区别介绍 — MindSpore master documentation

   日期:2024-12-30     作者:3i225    caijiyuan   评论:0    移动:https://sicmodule.kub2b.com/mobile/news/12926.html
核心提示:Conv 和 Pooling对于类似卷积和池化的算子,我们知道算子的输出特征图大小依赖输入特征图、步长、kernel_size 和 padding 等变量

Conv 和 Pooling

对于类似卷积和池化的算子,我们知道算子的输出特征图大小依赖输入特征图、步长、kernel_size 和 padding 等变量。

如果 设置为 ,则输出特征图高和宽的计算公式分别为:

如果 pad_mode(对应 PyTorch 中的属性为 padding,与属性 pad_mode 含义并不相同) 设置为 时,有时需要对输入特征图进行自动的 padding 操作,当padding 的元素为偶数时,padding 的元素会均匀分布在特征图的上下左右,此时 MindSpore、PyTorch 和 TensorFlow 中该类算子行为一致。

典型算子或接口区别介绍 — MindSpore master docu<em></em>mentation

但当 padding 的元素为奇数时,PyTorch 会优先填充在输入特征图的左侧和上侧:

而 MindSpore 和 TensorFlow 则优先填充在特征图的右侧和下侧:

举例说明:

在做 MindSpore 模型迁移时,如果模型加载了 PyTorch 的预训练模型,而之后又在 MindSpore 进行 finetune,则该差异可能会导致精度下降,对于 padding 策略为 same 的卷积,开发者需要特别注意。

本文地址:https://sicmodule.kub2b.com/news/12926.html     企库往 https://sicmodule.kub2b.com/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

 
 
更多>同类最新资讯
0相关评论

文章列表
相关文章
最新动态
推荐图文
最新资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号