A,B,C,D という変数がある時に
Aの予測を行うには、RNN(LSTM)を使用して入力データにA,B,C,Dを入れるのが通常だと思いますが、
B,C,DをそれぞれRNNを用いて予測を行った後に、その予測値から通常のニューラルネットワーク
を使用してAを推定するというのは理論的に問題があるでしょうか?
RNNからNNを使用する際に、誤差の処理などを行う必要があるのでしょうか
"Aの予測を行うには、RNN(LSTM)を使用して入力データにA,B,C,Dを入れる"の部分がおかしい(予測したいAを入れてしまっている)ので編集した方がいいかと思います。
RNNでの予測で自己回帰をしたいのでAはいれたままです!Aに追加データとしてAと関連のあるデータ(B,C,D)をいれています
「n時点のAの予測に、n-1時点のA、n時点のB,C,Dを入れる」ってことですね。その表現は「通常」でしょうか? B,C,Dの系列がLSTMの入力で、AがLSTMの出力と普通は書きませんか? あと、予測するAは系列ですか? 最終状態のAですか? 前者ならEncoder-Decoderのようなものを使いますよね。後者ならLSTMの出力はAそのものじゃなくて隠れ状態のようなベクトルにして、それにを全結合層を重ねてAを予測しませんか?
n時点のA,B,C,Dを使ってn + 10を予測するようなモデルを想定しています