自然言語学習モデルBERTを用いて、SequenceClassificationのタスクの学習の使用を考えています。
モデルの構造上最大500語程度までしか1度に入力できないと考えておりますが、これを解消する方法(近似等)をご存知でしたら教えていただけますでしょうか。
あなたの回答
tips
プレビュー
投稿2021/01/30 06:39
自然言語学習モデルBERTを用いて、SequenceClassificationのタスクの学習の使用を考えています。
モデルの構造上最大500語程度までしか1度に入力できないと考えておりますが、これを解消する方法(近似等)をご存知でしたら教えていただけますでしょうか。
あなたの回答
tips
プレビュー