当前位置: 首页 > news >正文

建设本地网站网站推广计划方法

建设本地网站,网站推广计划方法,网上做论文的网站,贵州网站制作修改自:https://zhuanlan.zhihu.com/p/532511514我在刚接触pytorch的时候搜到了这个大佬的文章,当时最后天坑部分没有看的太明白,直到今天我也遇到的相同的问题,特来做一点点补充,方便大家理解。上述大佬文章的简版内容…

修改自:https://zhuanlan.zhihu.com/p/532511514

我在刚接触pytorch的时候搜到了这个大佬的文章,当时最后天坑部分没有看的太明白,直到今天我也遇到的相同的问题,特来做一点点补充,方便大家理解。

上述大佬文章的简版内容:

  1. 入门版本

Pytorch复现的入门版本就是官方指南,需要设定好各种随机种子。

https://pytorch.org/docs/stable/notes/randomness.html

import random
import numpy as np
import torchrandom.seed(0)  # Python 随机种子
np.random.seed(0)  # Numpy 随机种子
torch.manual_seed(0)  # Pytorch 随机种子
torch.cuda.manual_seed(0)  # CUDA 随机种子
torch.cuda.manual_seed_all(0)  # CUDA 随机种子

2. Dataloader的并行

DataLoader启用多线程时(并行的线程数num_workers 大于1)也会出现随机现象,解决办法:

1. 禁用多线程:num_workers 设置为0。

2. 固定好worker的初始化方式,代码如下:

def seed_worker(worker_id):worker_seed = torch.initial_seed() % 2 ** 32numpy.random.seed(worker_seed)random.seed(worker_seed)g = torch.Generator()g.manual_seed(0)DataLoader(train_dataset,batch_size=batch_size,num_workers=num_workers,worker_init_fn=seed_worker,generator=g,)

3:算法的随机性

有些并行算法带有随机性,比如LSTM或者注意力机制,RNN等。

尤其是使用 CUDA Toolkit 10.2 或更高版本构建 cuDNN 库时,cuBLAS 库中新的缓冲区管理和启发式算法会带来随机性。在默认配置中使用两种缓冲区大小(16 KB 和 4 MB)时会发生这种情况。

解决办法就是在代码头部设置环境变量:

os.environ['CUBLAS_WORKSPACE_CONFIG'] = ':4096:8'

如果是用到CNN的算法,同时要设置以下变量:

torch.backends.cudnn.benchmark = False  # 限制cuDNN算法选择的不确定性
torch.backends.cudnn.deterministic=True  # 固定cuDNN算法

设置完这些,基本99%的情况下都可以复现结果,如果无法复现,那就重启notebook 或者python。

天坑:for 循环内随机性

如果在一个for 循环内多次运行pytorch训练,就会出现随机性。

以下常见方式均无效

  • 强制每次train之前empty_cache;

  • 每次循环结束后,手动del 变量,并且用gc 回收;

  • 强制初始化模型的参数;

  • 强制设置set_rng_state;(https://discuss.pytorch.org/t/manual-seed-cannot-make-dropout-deterministic-on-cuda-for-pytorch-1-0-preview-version/27281/8)

  • 重启python文件和notebook;

知乎大佬的解决方案:

  1. 上面的随机种子设置最好在for 循环里面设置,否则可能白瞎。

  1. nn模型里面的dropout 在for 循环里面有随机性。解决办法是禁掉dropout或者显式的调用Dropout。

对于该天坑,本文作者的实验结果:

调用一次Dataloader就会影响下一个Dataloader的随机数生成。

解释:例如现在有两种模型的训练方式:

  1. 在train后面继续进行下一个Epoch的train。

  1. train后面进行val,再进行下一个Epoch的train。

这两种方式得到的训练结果从第二个Epoch开始就是不同的,且val前后模型的weights没变,那应该就是生成的随机数变了。因此,应该就是调用一次Dataloader就会有新的随机数。

总结

以上就是Pytorch代码的复现终极指南,保险起见的话,先把能加的都加上,然后看能否复现。

之后如果有强迫症的话,可以做减法,逐个筛检,直到保留必要的代码。

愿天下太平,代码无坑

http://www.mmbaike.com/news/87405.html

相关文章:

  • 工业和信息网站备案管理系统天津短视频seo
  • 深圳国税局网站怎么做票种核定国外网站怎么推广
  • 59网站一起做网店普宁乐事薯片软文推广
  • 屏山移动网站建设百度小说排行榜
  • 分布式网站开发郑州网站推广报价
  • 陕煤建设集团网站推广方式有哪些
  • edu网站一般谁做的搜狗seo优化
  • 深圳php电商网站开发百度软件下载中心官方网站
  • 做单页网站容易排名吗seo试用软件
  • 建立站点的作用西安seo哪家好
  • 淘宝客怎样做网站软文发布推广平台
  • 荔湾建设网站曲靖新闻今日头条
  • ps怎样做网站首页图门户网站制作
  • 销售网站建设实验报告系统优化大师
  • 设计网站推荐大北京aso优化
  • 泰州哪里做网站北京seo代理公司
  • 减肥产品网站模板自动外链发布工具
  • 网站推广入口百度竞价优缺点
  • 云主机做网站域名打不开站长之家网站流量查询
  • 免费信息网站建设平台互联网营销的方法有哪些
  • 施工企业副总经理竞聘优化网站推广网站
  • metinfo怎么做网站怎么自己弄一个网站
  • 河北沧州网站建设百度指数查询手机版app
  • 西安网站建设中企建站广东疫情最新数据
  • dedecms美食网站石家庄网站建设排名
  • 一键生成作文的网站关键词排名查询网站
  • 网站开发需要什么条件深圳百度网站排名优化
  • 门户网站建设 工具爱战网关键词查询网站
  • 阜宁做网站价格谷歌浏览器官网下载
  • flash 如何做游戏下载网站搜索引擎排名优化包括哪些方面