lr_scheduler的更新位置和更新频次存在问题,将学习率调度器的更新(self.lr_scheduler.step())放到了训练阶段的每个批量位置上,过于频繁了,通常做法是放到训练阶段的每个轮次的结束位置上,例如下面代码: 