BERTを用いたchatbot(参考サイト)をqiitaの記事を参考に実装したのですが, 学習の際にCPUを使用してしまいます.GPUを使用するためにはどの部分を変更すれば良いでしょうか? メインのコードを載せていますが, 他にも複数のコードがあるためこの部分ではないのかもしれません
python
1import logging 2import os 3import pickle 4 5import torch 6import torch.nn as nn 7import torch.optim as optim 8 9from config import Config 10from nn import build_model 11from tokenizer import Tokenizer 12from utils import (DialogDataset, one_cycle, evaluate, 13 seed_everything, BalancedDataLoader, 14 make_train_data_from_txt, make_itf) 15 16logging.basicConfig(level=logging.INFO) 17 18if __name__ == '__main__': 19 logging.info('*** Initializing ***') 20 21 if not os.path.isdir(Config.data_dir): 22 os.mkdir(Config.data_dir) 23 24 seed_everything(Config.seed) 25 device = torch.device(Config.device) 26 27 start_epoch = 0 28 tokenizer = Tokenizer.from_pretrained(Config.model_name) 29 30 logging.info('Preparing training data') 31 if Config.use_pickle: 32 with open(f'{Config.pickle_path}', 'rb') as f: 33 train_data = pickle.load(f) 34 else: 35 train_data = make_train_data_from_txt(Config, tokenizer) 36 itf = make_itf(train_data, Config.vocab_size) 37 dataset = DialogDataset(train_data, tokenizer) 38 39 logging.info('Define Models') 40 model = build_model(Config).to(device) 41 model.unfreeze() 42 43 logging.info('Define Loss and Optimizer') 44 criterion = nn.CrossEntropyLoss(reduction='none') 45 optimizer = optim.AdamW(model.parameters(), lr=Config.lr, betas=Config.betas, eps=1e-9) 46 47 if Config.load: 48 state_dict = torch.load(f'{Config.data_dir}/{Config.fn}.pth') 49 start_epoch = 10 50 print(f'Start Epoch: {start_epoch}') 51 model.load_state_dict(state_dict['model']) 52 optimizer.load_state_dict(state_dict['opt']) 53 54 logging.info('Start Training') 55 for epoch in range(start_epoch, Config.n_epoch): 56 one_cycle(epoch, Config, model, optimizer, criterion, 57 BalancedDataLoader(dataset, tokenizer.pad_token_id), 58 tokenizer, device) 59 evaluate(Config, 'おはよーーー', tokenizer, model, device)
https://github.com/reppy4620/Dialog/blob/master/config.py
の
device = 'cpu'
の行を書き換えるのかも
ありがとうございます! 先程ご本人様からもCPUをcudaに変更すれば良いとメッセージいただきました! ただ, エラーが発生し強制終了してしまったので, 環境を見直して それでもエラーを吐くようであればこのページ編集して再度質問させていただきたいため, このページはしばらく残しておこうと思います 完全な回答をいただけたにもかかわらず ベストアンサーにできずすいません
https://teratail.com/questions/367709
を見ると「RTX 3090」を使ってるのですね
https://discuss.pytorch.org/t/geforce-rtx-3090-with-cuda-capability-sm-86-is-not-compatible-with-the-current-pytorch-installation/123499/8
のptrblckさんのAug 8のコメントによると、
https://pytorch.org/get-started/locally/
で「CUDA11.1」を選んで、表示に従ってコマンドを実行してインストールしたら、3090で動くようです
回答1件
あなたの回答
tips
プレビュー