質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
87.20%
Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

受付中

ファイル読み込みについて

gamdam
gamdam

総合スコア2

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

1回答

-6評価

0クリップ

187閲覧

投稿2022/07/05 07:32

queriesの文章とdocsのファイル内の文の類似度を比較したいのですが、ValueError: only one element tensors can be converted to Python scalars
が出てしまいます。調べてみたのですがわかりませんでした。
ご協力お願いします。```

コード

import

import numpy as np import pandas as pd from transformers import AutoModel, AutoTokenizer from scipy.spatial.distance import cosine tokenizer = AutoTokenizer.from_pretrained("rinna/japanese-gpt2-medium") model = AutoModel.from_pretrained("rinna/japanese-gpt2-medium") model.eval() queries = [ "元気な男の子です。", ] docs = pd.read_csv("text.csv",encoding='utf-8') target_docs = docs["文章リスト"].tolist() SPECB_QUE_BOS = tokenizer.encode("[", add_special_tokens=False)[0] SPECB_QUE_EOS = tokenizer.encode("]", add_special_tokens=False)[0] SPECB_DOC_BOS = tokenizer.encode("{", add_special_tokens=False)[0] SPECB_DOC_EOS = tokenizer.encode("}", add_special_tokens=False)[0] def tokenize_with_specb(texts, is_query): batch_tokens = tokenizer(texts, padding=False, truncation=True) for seq, att in zip(batch_tokens["input_ids"], batch_tokens["attention_mask"]): if is_query: seq.insert(0, SPECB_QUE_BOS) seq.append(SPECB_QUE_EOS) else: seq.insert(0, SPECB_DOC_BOS) seq.append(SPECB_DOC_EOS) att.insert(0, 1) att.append(1) batch_tokens = tokenizer.pad(batch_tokens, padding=True, return_tensors="pt") return batch_tokens def get_weightedmean_embedding(batch_tokens, model): with torch.no_grad(): last_hidden_state = model(**batch_tokens, output_hidden_states=True, return_dict=True).last_hidden_state weights = ( torch.arange(start=1, end=last_hidden_state.shape[1] + 1) .unsqueeze(0) .unsqueeze(-1) .expand(last_hidden_state.size()) .float().to(last_hidden_state.device) ) input_mask_expanded = ( batch_tokens["attention_mask"] .unsqueeze(-1) .expand(last_hidden_state.size()) .float() ) sum_embeddings = torch.sum(last_hidden_state * input_mask_expanded * weights, dim=1) sum_mask = torch.sum(input_mask_expanded * weights, dim=1) embeddings = sum_embeddings / sum_mask return embeddings query_embeddings = get_weightedmean_embedding(tokenize_with_specb(queries, is_query=True), model) doc_embeddings = get_weightedmean_embedding(tokenize_with_specb(target_docs, is_query=False), model) cosine_sim = 1 - cosine([query_embeddings[0]], doc_embeddings[1:]) docs["類似度"] = cosine_sim[0] print(docs.sort_values("類似度",ascending=False))

良い質問の評価を上げる

以下のような質問は評価を上げましょう

  • 質問内容が明確
  • 自分も答えを知りたい
  • 質問者以外のユーザにも役立つ

評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

気になる質問をクリップする

クリップした質問は、後からいつでもマイページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

  • プログラミングに関係のない質問
  • やってほしいことだけを記載した丸投げの質問
  • 問題・課題が含まれていない質問
  • 意図的に内容が抹消された質問
  • 過去に投稿した質問と同じ内容の質問
  • 広告と受け取られるような投稿

評価を下げると、トップページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

まだ回答がついていません

会員登録して回答してみよう

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
87.20%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問

同じタグがついた質問を見る

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。