質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
87.20%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

受付中

not enough values to unpack (expected 2, got 1)の解決法

shujiu
shujiu

総合スコア3

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

1回答

0評価

0クリップ

2634閲覧

投稿2021/05/23 10:12

efficientnet実装を試みているものです。
ようやく学習のところまでたどり着いたのですが、下記のerrorが出力され対応に苦慮しています。
Errorから2つの要素の入力が要求されているのに、1つしか入力されていないといった意味だと理解していますが、それが何のことなのか判然としません。ご教示いただけますでしょうか。

発生している問題・エラーメッセージ

(envtest2) C:\Users\orala\Desktop\new>python efficientnet.py Using TensorFlow backend. 2021-05-23 18:12:00.241804: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library cudart64_101.dll 710 40 Found 710 images belonging to 2 classes. Found 40 images belonging to 2 classes. 0%| | 0/15 [00:00<?, ?it/s] Traceback (most recent call last): File "efficientnet.py", line 216, in <module> for img, label in tqdm.auto.tqdm(train_dir): ValueError: not enough values to unpack (expected 2, got 1)

該当のソースコード

python

import os import random import glob from keras.preprocessing.image import ImageDataGenerator from keras.models import Sequential, Model from keras.layers import Input, Flatten, Dense from keras import optimizers from keras.callbacks import ModelCheckpoint, EarlyStopping from keras import backend import torch import torch.nn as nn import torch.nn.functional as F import torchvision import torchvision.transforms as transforms import torchvision.datasets as datasets import tqdm import matplotlib.pyplot as plt classes = ['cancer','normal'] nb_classes = len(classes) #train val dir train_dir = './dataset/train' val_dir = './dataset/valid' model_dir = './saved_model' #num samples train_samples = glob.glob(train_dir + '/*/*.jpg') val_samples = glob.glob(val_dir + '/*/*.jpg') train_samples = len(train_samples) val_samples = len(val_samples) print(train_samples) print(val_samples) #img size img_w, img_h = 224,224 #keras image data generator train_datagen = ImageDataGenerator(rescale = 1.0/255, zoom_range=0.2,horizontal_flip=True) val_datagen = ImageDataGenerator(rescale=1.0 / 255) train_generator = train_datagen.flow_from_directory( train_dir, target_size=(img_w,img_h), color_mode = 'rgb', classes = classes, class_mode = 'categorical', batch_size = 5 ) val_generator = val_datagen.flow_from_directory( val_dir, target_size=(img_w,img_h), color_mode = 'rgb', classes = classes, class_mode = 'categorical', batch_size = 5 ) #TO save model checkpoint = ModelCheckpoint( filepath = os.path.join( model_dir, 'model_16.hdf5' ), save_best_only=True ) #TO early stopping early_stopping = EarlyStopping(monitor='val_loss',patience=3,verbose=0,mode='auto') ### model ### class Swish(nn.Module): """x*sigmoid(x)""" def __init__(self): super().__init__() def forward(self, x): return x*torch.sigmoid(x) class DWBlock(nn.Module): # 出力が同じサイズになるようにパディングはk//2 (ただしkは奇数) def __init__(self, in_c, k, s, p, bias=False): if p != k//2: print("output may not be the same spatial size as input") super().__init__() self.dw = nn.Conv2d(in_c, in_c, kernel_size=k, stride=s, padding=p, groups=in_c, bias=bias) self.bn = nn.BatchNorm2d(in_c) self.act = Swish() def forward(self, x): out = self.act(self.bn(self.dw(x))) return out class PWBlock(nn.Module): def __init__(self, in_c, out_c, bias=False, act="swish"): super().__init__() self.dw = nn.Conv2d(in_c, out_c, kernel_size=1, bias=bias) self.bn = nn.BatchNorm2d(out_c) if act=='swish': self.act = Swish() elif act is None: self.act = nn.Identity() def forward(self, x): out = self.act(self.bn(self.dw(x))) return out class SEBlock(nn.Module): def __init__(self, in_c, h=8): super().__init__() # Squeeze self.gap = nn.AdaptiveAvgPool2d(1) # Excitation self.fc1 = nn.Linear(in_c, in_c//h, bias=False) self.act1 = Swish() self.fc2 = nn.Linear(in_c//h, in_c, bias=False) self.act2 = nn.Sigmoid() def forward(self, x): out = self.gap(x).squeeze(-1).squeeze(-1) out = self.act1(self.fc1(out)) out = self.act2(self.fc2(out)).unsqueeze(-1).unsqueeze(-1) return out*x class MBConv(nn.Module): def __init__(self, in_c, out_c, k=5, s=1, expansion=1): super().__init__() self.s = s self.in_c = in_c self.out_c = out_c self.pw1 = PWBlock(in_c, in_c*expansion, bias=False) self.dw = DWBlock(in_c*expansion, k=k, s=s, p=k//2, bias=False) self.se = SEBlock(in_c*expansion) self.pw2 = PWBlock(in_c*expansion, out_c, bias=False, act=None) def forward(self, x): out = self.pw2(self.se(self.dw(self.pw1(x)))) if self.s == 1 and self.in_c==self.out_c: out = out+x return out class EfficientNetB0(nn.Module): def __init__(self, n_c=3, n_classes=10): super().__init__() self.first = nn.Sequential( nn.Conv2d(n_c,32,3,1,1,bias=False), nn.BatchNorm2d(32), Swish() ) self.mb1 = MBConv(32, 16, 3, expansion=1) self.mb6_1 = nn.Sequential( MBConv(16, 24, k=3, s=1, expansion=6), MBConv(24, 24, k=3, s=1, expansion=6) ) self.mb6_2 = nn.Sequential( MBConv(24, 40, k=5, s=1, expansion=6), MBConv(40, 40, k=5, s=1, expansion=6) ) #画像サイズ:32->16 self.mb6_3 = nn.Sequential( MBConv(40, 80, k=3, s=2, expansion=6), MBConv(80, 80, k=3, s=1, expansion=6), MBConv(80, 80, k=3, s=1, expansion=6), ) self.mb6_4 = nn.Sequential( MBConv(80, 112, k=5, s=1, expansion=6), MBConv(112, 112, k=5, s=1, expansion=6), MBConv(112, 112, k=5, s=1, expansion=6), ) #画像サイズ: 16->8 self.mb6_5 = nn.Sequential( MBConv(112, 192, k=5, s=2, expansion=6), MBConv(192, 192, k=5, s=1, expansion=6), MBConv(192, 192, k=5, s=1, expansion=6), MBConv(192, 192, k=5, s=1, expansion=6), ) self.mb6_6 = nn.Sequential( MBConv(192, 320, k=3, s=1, expansion=6), ) self.pw = PWBlock(320, 1280) self.gap = nn.AdaptiveAvgPool2d(1) self.dropout = nn.Dropout(0.2) self.fc = nn.Linear(1280, n_classes) def forward(self, x): out = self.first(x) out = self.mb1(out) out = self.mb6_1(out) out = self.mb6_2(out) out = self.mb6_3(out) out = self.mb6_4(out) out = self.mb6_5(out) out = self.mb6_6(out) out = self.pw(out) out = self.gap(out).view(x.size(0), -1) out = self.dropout(out) out = self.fc(out) return out net = EfficientNetB0(n_c=3, n_classes=10) criterion = nn.CrossEntropyLoss() optimizer = torch.optim.SGD(net.parameters(), lr=0.1, momentum=0.9, weight_decay=1e-4) scheduler = torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones=[25, 40], gamma=0.1) #train history = {'loss':[], 'acc':[], 'val_loss':[], 'val_acc':[]} epochs = 50 device ='cuda:0' if torch.cuda.is_available() else 'cpu' net = net.to(device) for epoch in range(epochs): net.train() epoch_acc, epoch_loss = 0., 0. num_imgs = 0. for img, label in tqdm.auto.tqdm(train_dir): img, label = img.to(device), label.to(device) optimizer.zero_grad() output = net(img) loss = criterion(output, label) loss.backward() optimizer.step() epoch_loss += loss.data epoch_acc += sum(label == output.argmax(0)) num_imgs += img.size(0)*1.0 # floatにするため1.0を掛けている。 scheduler.step() epoch_loss /= num_imgs epoch_acc /= num_imgs history['loss'].append(epoch_loss) history['acc'].append(epoch_acc) print(f'Epoch: {epoch}, loss:{epoch_loss}, acc:{epoch_acc}') net.eval() epoch_acc, epoch_loss = 0., 0. num_imgs = 0. for img, label in tqdm.auto.tqdm(test_dir): img, label = img.to(device), label.to(device) with torch.no_grad(): output = net(img) loss = criterion(output, label) epoch_loss += loss.data epoch_acc += sum(label == output.argmax(0)) num_imgs += img.size(0)*1.0 # floatにするため1.0を掛けている。 epoch_loss /= num_imgs epoch_acc /= num_imgs history['val_loss'].append(epoch_loss) history['val_acc'].append(epoch_acc) print(f'Epoch: {epoch}, val_loss:{epoch_loss}, val_acc:{epoch_acc}') x = list(range(epochs)) plt.figure() plt.subplot(1,2,1) plt.title('Loss') plt.plot(x, history['loss'], 'bo') plt.plot(x, history['val_loss'], 'b') plt.subplot(1,2,2) plt.title('Acc') plt.plot(x, history['acc'], 'ro') plt.plot(x, history['val_acc'], 'r')

良い質問の評価を上げる

以下のような質問は評価を上げましょう

  • 質問内容が明確
  • 自分も答えを知りたい
  • 質問者以外のユーザにも役立つ

評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

気になる質問をクリップする

クリップした質問は、後からいつでもマイページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

  • プログラミングに関係のない質問
  • やってほしいことだけを記載した丸投げの質問
  • 問題・課題が含まれていない質問
  • 意図的に内容が抹消された質問
  • 過去に投稿した質問と同じ内容の質問
  • 広告と受け取られるような投稿

評価を下げると、トップページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

まだ回答がついていません

会員登録して回答してみよう

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
87.20%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問

同じタグがついた質問を見る

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。