使用AdamW优化器时,可以通过设置不同的衰减学习率调度器(如step、cosine、reduceOnPlateau等)来影响权重衰减参数。通常,随着训练步骤的增加,学习率会呈指数衰减(即“学习率衰减”),而权重衰减参数的值会随之线性增加(即“权重衰减增加”)。这可以通过PyTorch中的lr_scheduler和AdamW优化器实现。
代码示例:
import torch.optim as optim
from torch.optim.lr_scheduler import StepLR
# 定义AdamW优化器和学习率调度器
optimizer = optim.AdamW(model.parameters(), lr=1e-3, weight_decay=1e-5)
scheduler = StepLR(optimizer, step_size=1, gamma=0.8)
for epoch in range(10):
# 在每个epoch之前更新学习率
scheduler.step()
# 计算损失并反向传播
loss = loss_fn(model(input), target)
loss.backward()
optimizer.step()
# 清除梯度
optimizer.zero_grad()
# 打印每个epoch的结果
print("Epoch %d: Loss=%.3f, LR=%f" % (epoch, loss.item(), optimizer.param_groups[0]['lr']))
在上面的代码中,我们首先定义了AdamW优化器和StepLR调度器。在每个epoch之前,我们使用StepLR(optimizer, step_size=1, gamma=0.8)
来更新学习率。根据这个调度器,“学习率衰减”将会在每个epoch之后发生一次,每次衰减的因子为0.8。在每个epoch中,我们使用optimizer.step()
来根据当前的