pytorch_optimizer_优化器
作者:佚名 所属栏目:【产品分类二】 时间:2024-02-28
需要注意的是,在使用Optimizer时, 传递的参数需要有序,并且保持一致, 对于无序的集合或者字典, 在运行时候可能会导致优化器在不同的运行中表现不一致(这块说的比较官方,但pytorch的源码解释部分是这么说的)。我也对网上的实验例子进行了测试,感觉就是将参数放在了优化器里面,然后在模型后续训练过程中就可以进行模型参数的训练更新了,但是因为是测试,优化器里的params显然没有更新,所以只是将参数放进优化器,放置优化器的前后实际是一样的。当需要更细粒度的调参,即针对网络的某层进行学习率的调整,那么。