質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.77%

PyTorchテキスト分類 学習済みモデルの利用

受付中

回答 0

投稿

  • 評価
  • クリップ 0
  • VIEW 663

rukaff

score 5

前提・実現したいこと

PyTorchでテキスト分類モデルを作りたいと考えています。

単語数105個で学習したモデルを
「torch.save」でpthファイルに保存して使っています。

学習時と同じ105単語のデータではエラーは出ずに、予測ができました。

しかし、108単語のデータを予測しようと思い
「model.load_state_dict」でpthファイルを読み込むと、下記のエラーになりました。

学習時には無かった新たな単語を含んでいる場合、どのように書くべきなのでしょうか。

そもそも、新しい単語がある場合は再度学習が必要になるなど
考え方が間違っていたらご指摘いただけると助かります。

何卒よろしくお願いいたします。

参考にしたサイト:https://qiita.com/m__k/items/db1a81bb06607d5b0ec5

発生している問題・エラーメッセージ

エラーメッセージ
RuntimeError: Error(s) in loading state_dict for LSTMClassifier:
    size mismatch for word_embeddings.weight: copying a param with shape torch.Size([105, 100]) from checkpoint, the shape in current model is torch.Size([108, 100]).

該当のソースコード

ソースコード
class LSTMClassifier(nn.Module):
    def __init__(self, embedding_dim, hidden_dim, vocab_size, tagset_size):
        super(LSTMClassifier, self).__init__()
        self.hidden_dim = hidden_dim
        self.word_embeddings = nn.Embedding(vocab_size, embedding_dim, padding_idx=0)
        self.lstm = nn.LSTM(embedding_dim, hidden_dim, batch_first=True)
        self.hidden2tag = nn.Linear(hidden_dim, tagset_size)
        self.softmax = nn.LogSoftmax()

    def forward(self, sentence):
        embeds = self.word_embeddings(sentence)
        _, lstm_out = self.lstm(embeds)
        tag_space = self.hidden2tag(lstm_out[0])
        tag_scores = self.softmax(tag_space.squeeze())
        return tag_scores

model = LSTMClassifier(EMBEDDING_DIM, HIDDEN_DIM, VOCAB_SIZE, TAG_SIZE).to(device)
loss_function = nn.NLLLoss()

optimizer = optim.Adam(model.parameters(), lr=0.001)

model.load_state_dict(torch.load("xxxx.pth"))
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

まだ回答がついていません

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.77%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る