pytorchにて強化学習プログラムを作成しております。
数エピソード毎に、モデル、optimizer、experience dataを逐次保存しています。
いったん学習を中断して、モデル、optimizer、experience dataをロードして再度学習を開始する場合、再開した直後lossが急に上昇します。
モデル、optimizer、dataが中断前と同じものの為、lossは同程度の値で推移すると思うのですが、実際には初期状態から学習を始めた時と同じ程度の値になります。
save, loadは下記のコードです
def save(self): torch.save({ 'model_state_dict':self.model.state_dict(), 'optimizer_state_dict':self.opt.state_dict()}, './model.pt') def load(self): self.model = net() checkpoint = torch.load('./model.pt') self.model.load_state_dict(checkpoint['model_state_dict']) self.opt.load_state_dict(checkpoint['optimizer_state_dict']) self.model.train()
データはjoblibでpklに保存してあり、中断前と同様なのは確認しております。
何か原因は考えられますでしょうか。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。