例えばTransformerが提案された論文では、モデルのエンコーダの出力をみて、その高次元のベクトルを二次元まで落とし込んで可視化して意味を考察するといったことがされていないのはなぜでしょうか。
これに限らず、深層学習のモデルを流れるデータを見てそのベクトルの意味を確認しようとする行為があまり活発でない気がするのはなぜでしょうか。
単純にむりだから、需要がないからということでしょうか。
投稿2022/05/21 15:41
例えばTransformerが提案された論文では、モデルのエンコーダの出力をみて、その高次元のベクトルを二次元まで落とし込んで可視化して意味を考察するといったことがされていないのはなぜでしょうか。
これに限らず、深層学習のモデルを流れるデータを見てそのベクトルの意味を確認しようとする行為があまり活発でない気がするのはなぜでしょうか。
単純にむりだから、需要がないからということでしょうか。
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2022/05/24 15:54
2022/05/24 16:17
退会済みユーザー
2022/05/24 21:24