[1]
model = SentenceBertJapanese("sonoisa/sentence-bert-base-ja-mean-tokens")
上記のようなコードを記述すると下記のようなエラーが発生します
The tokenizer class you load from this checkpoint is not the same type as the class this function is called from. It may result in unexpected tokenization.
The tokenizer class you load from this checkpoint is 'BertTokenizer'.
The class this function is called from is 'BertJapaneseTokenizer'
下記のサイトを参考にしています。
https://qiita.com/sonoisa/items/1df94d0a98cd4f209051
対処法またはsentence bert の日本語のダウンロードのコードを教えていただきたいです。
回答2件
あなたの回答
tips
プレビュー