发现如果在别人的模型上跑,可以适当去synthesizer/hparams.py里把学习率(Learning Rate)稍微调高点,毕竟不是从0步开始跑的,后面步数的学习率有点低,容易不出效果还过拟合

### Tacotron Training
tts_schedule= ……………….

改括号里面第二个参数就是1e-3,5e-4,2e-4…那个。

再后面一个参数是对应的步数,条件是小于。

https://blog.csdn.net/jinxiaonian11/article/details/83105439

还有,就是我发现github里面那个解决显存不足问题的解决方法,貌似会影响损失(loss)?

我GTX960显卡的显存就2G,我挨个试,从8调到2才能运行

然后同一个模型和我在笔记本上运行时loss值完全不同…

对了,再附上现在的效果:


0 条评论

发表回复

Avatar placeholder

您的电子邮箱地址不会被公开。 必填项已用*标注