質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

89.08%

pytorchを用いたSWA stocastic weights averageを用いた場合、BatchNormalizationはいつ,どのように組み込むのでしょうか。

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 773

yohehe

score 46

NNにおける学習率について勉強しています。

stochastic weight averagingを用いるとSGDを用いた学習時にwide optimaを得られやすいとい記事を見かけました。
参考はにしているのは以下です。
https://pytorch.org/blog/stochastic-weight-averaging-in-pytorch/

SWAが何をやっているかわかりやすく以下にかかれていました。
https://towardsdatascience.com/stochastic-weight-averaging-a-new-way-to-get-state-of-the-art-results-in-deep-learning-c639ccf36a

プログラム、NNの手法についてまだまだ勉強不足なところがあり、このSWAを用いた手法についてうまく導入できないでおります。SWAの記事を見かけますと、SWAを行なった場合のweightsをそのまま用いるのは望ましくなく、BatchNormalizationを行う必要がある書かれています。
記事を引用させていただいております。

BATCH NORMALIZATION

One important detail to keep in mind is batch normalization. Batch normalization layers compute running statistics of activations during training. Note that the SWA averages of the weights are never used to make predictions during training, and so the batch normalization layers do not have the activation statistics computed after you reset the weights of your model with opt.swap_swa_sgd(). To compute the activation statistics you can just make a forward pass on your training data using the SWA model once the training is finished. In the SWA class we provide a helper function opt.bn_update(train_loader, model). It updates the activation statistics for every batch normalization layer in the model by making a forward pass on the train_loader data loader. You only need to call this function once in the end of training.

swaを用いた際のモデルのweightsデータを保存しておいて、ネットワークにBatchNormalizationを組み込んで学習をもう一度行う必要がるのでしょうか???
どのようなタイミングでBatchNormalizationを組み込むのか、全くわからないでおります。

今調べてもわからない点は、
1.weightsデータを一旦保存して、もとのネットワークにBatchNormalizationを組み込むということなのか。
2.表を見ると,SWAを使用した時の学習率とは別の学習率を設定しているようですが、学習率も設定し直す必要があるのか
です。

以下にBatchNormalizationを用いず、SWAのコードのみを組み込んだコードを記載してみました。
kerasを使っていたのでpytorchの使い方がほぼ初めてで、コードの不十分な点があった場合すみません。

SWAを用いた際のBatchNormalizationの導入について何かアドバイスをいただけましたら幸いです。

以下テストで用いているコードです。

import numpy as np
import matplotlib.pyplot as plt
import torch
from torch import nn
from torch import optim
from torch.autograd import Variable

from sklearn.datasets import load_digits
digits=load_digits()
X=digits.data
y=digits.target

print(X.shape) #(1797, 64)
print(y.shape)#(1797,)

from torch.utils.data import TensorDataset,DataLoader
ds_train=TensorDataset(torch.Tensor(X_train),torch.LongTensor(y_train))
ds_test=TensorDataset(torch.Tensor(X_test),torch.LongTensor(y_test))

train_loader=DataLoader(ds_train,batch_size=100,shuffle=True)
test_loader=DataLoader(ds_test,batch_size=100,shuffle=False)

#ネットワークの設定
from torch import nn

model = nn.Sequential()
model.add_module('fc1', nn.Linear(64, 100))
model.add_module('relu1', nn.ReLU())
model.add_module('fc2', nn.Linear(100, 100))
model.add_module('relu2', nn.ReLU())
model.add_module('fc3', nn.Linear(100, 10))
print(model)

#クロスエントロピーを設定
criterion = nn.CrossEntropyLoss()
#損失関数を定義
learning_rate=0.01
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)


#まずはSWAを用いない学習を行ってみる。
def train(train_loader):
    #訓練モードに設定
    model.train()
    running_loss = 0
    for batch_idx, (images, labels) in enumerate(train_loader):
        #view はNumPyの reshapeと似た動作。
        #images = images.view(-1, 28 * 28)

        # 微分可能に変換  なしでも動く???
        #images=Variable(images)
        #labels=Variable(labels)

        # 一度計算された勾配結果を0にリセット
        optimizer.zero_grad()
        # 入力dataをinputし、順伝播により出力
        outputs = model(images)
        #lossの計算
        loss = criterion(outputs, labels)
        running_loss += loss.item()
        #勾配を計算
        loss.backward()
        #パラメーターの更新
        optimizer.step()

    train_loss = running_loss / len(train_loader)
    return train_loss


def valid(test_loader):

    model.eval()
    running_loss = 0
    correct = 0
    total = 0
    #評価時は勾配は不要: with torch.no_grad()
    with torch.no_grad():
        for batch_idx, (images, labels) in enumerate(test_loader):
            #images = images.view(-1, 28 * 28)

            outputs = model(images)

            loss = criterion(outputs, labels)
            running_loss += loss.item()

            _, predicted = torch.max(outputs, 1)
            correct += (predicted == labels).sum().item()
            total += labels.size(0)

    val_loss = running_loss / len(test_loader)
    val_acc = float(correct) / total

    return val_loss, val_acc


#テストで30回epochを回してみる。
num_epochs=30

loss_list = []
val_loss_list = []
val_acc_list = []
for epoch in range(num_epochs):
    loss = train(train_loader)
    val_loss, val_acc = valid(test_loader)

    print('epoch %d, loss: %.4f val_loss: %.4f val_acc: %.4f'
          % (epoch, loss, val_loss, val_acc))

    # logを取得
    loss_list.append(loss)
    val_loss_list.append(val_loss)
    val_acc_list.append(val_acc)
#出力:epoch 29, loss: 0.1069 val_loss: 0.1641 val_acc: 0.9537
#学習できています。




#以下はSWAを試しに組み込んでみました。

from torchcontrib.optim import SWA

criterion = nn.CrossEntropyLoss()
learning_rate=0.01

base_opt = torch.optim.SGD(model.parameters(), lr=0.1)
#swa_startが10なので10回の学習以降からSWAを計算し始める(,,,,と自分なりに理解してます)
optimizer = SWA(base_opt, swa_start=10, swa_freq=5, swa_lr=0.05)

def train(train_loader):
    #訓練モードに設定
    model.train()
    running_loss = 0
    for batch_idx, (images, labels) in enumerate(train_loader):
        #view はNumPyの reshapeと似た動作。
        #images = images.view(-1, 28 * 28)

        # 微分可能に変換  なしでも動く???
        #images=Variable(images)
        #labels=Variable(labels)

        # 一度計算された勾配結果を0にリセット
        optimizer.zero_grad()
        # 入力dataをinputし、順伝播により出力
        outputs = model(images)
        #lossの計算
        loss = criterion(outputs, labels)
        running_loss += loss.item()
        #勾配を計算
        loss.backward()
        #パラメーターの更新
        optimizer.step()
    opt.swap_swa_sgd()

    train_loss = running_loss / len(train_loader)
    return train_loss


def valid(test_loader):

    model.eval()
    running_loss = 0
    correct = 0
    total = 0
    #評価時は勾配は不要なので with torch.no_grad()をつける。
    with torch.no_grad():
        for batch_idx, (images, labels) in enumerate(test_loader):
            #images = images.view(-1, 28 * 28)

            outputs = model(images)

            loss = criterion(outputs, labels)
            running_loss += loss.item()

            _, predicted = torch.max(outputs, 1)
            correct += (predicted == labels).sum().item()
            total += labels.size(0)

    val_loss = running_loss / len(test_loader)
    val_acc = float(correct) / total

    return val_loss, val_acc


#SWAを導入したモデルもepoch:30回にする。
num_epochs=30

loss_list = []
val_loss_list = []
val_acc_list = []
for epoch in range(num_epochs):
    loss = train(train_loader)
    val_loss, val_acc = valid(test_loader)

    print('epoch %d, loss: %.4f val_loss: %.4f val_acc: %.4f'
          % (epoch, loss, val_loss, val_acc))

    # logging
    loss_list.append(loss)
    val_loss_list.append(val_loss)
    val_acc_list.append(val_acc)

#epoch 29, loss: 0.0137 val_loss: 0.1020 val_acc: 0.9611
#何度か行なってもSWA導入前よりSWAを用いた方がaccなどスコアが良い?と言える?

#この先SWAを用いた後にどうやってBatchNormalizationを用いるべきかわかりません。
#アドバイスをいただきたいです。よろしくお願いします。

コード
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

check解決した方法

0

学習終了時に以下のプログラムを行えばいいことがわかりました。

optimizer.bn_update(train_dataloader, net)

ありがとうございました。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 89.08%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る

  • トップ
  • Python 3.xに関する質問
  • pytorchを用いたSWA stocastic weights averageを用いた場合、BatchNormalizationはいつ,どのように組み込むのでしょうか。