GANの最近とトレンドの一つとしてDiscriminatorの勾配に対して正則化を行うものがありますが、0-centered gradient penaltyではDiscriminatorの勾配を0に近づけるので、勾配消失が起きるのではないかと思いました。
なぜDiscriminatorの勾配を0に近づけることがGANの安定化につながるのでしょうか。わかる方教えてください。
あなたの回答
tips
プレビュー
投稿2020/08/26 05:55
編集2020/08/26 08:08GANの最近とトレンドの一つとしてDiscriminatorの勾配に対して正則化を行うものがありますが、0-centered gradient penaltyではDiscriminatorの勾配を0に近づけるので、勾配消失が起きるのではないかと思いました。
なぜDiscriminatorの勾配を0に近づけることがGANの安定化につながるのでしょうか。わかる方教えてください。
あなたの回答
tips
プレビュー