質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

19587閲覧

LSTMの隠れ層の理解とパラメータについて

rut00

総合スコア1

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

1クリップ

投稿2020/07/27 09:37

編集2020/07/27 15:54

前提・実現したいこと

質問1: LSTMの隠れ層について
質問2: LSTMのパラメータについて.

私は,LSTMへ時系列画像の特徴量を入力して時系列画像のクラス分類を行いたいです.
ここでLSTMへ時系列特徴を入力するところまでは実装済みです.

以下で例として,LSTMへの入力時系列特徴を(3,10,1)とします.
(バッチサイズ,時系列画像のフレーム数,1フレームに対する一次元特徴量)です.
つまり,10枚の連続する画像からそれぞれ一つずつ特徴量を抽出,それが3セットとします.

ここでLSTMへ入力するとき,LSTMを時間方向に展開した図(ネット上などによくある図)で構造を理解していました.つまり,例に示すデータでは,一つの入力動画像の長さが10なのでt=1~t=10まで.
つまりLSTMの隠れ層は10であると思っていましたが,色々調べて見ると64であったり256であったり..

ここで質問ですが,隠れ層の数は時系列データの数(上記では動画像の長さ=10)と一致するものではないのですか?

また,質問2としてLSTMモデルのパラメータ数です.
これも質問1の通り,私がLSTMの構造をよく理解できていないので起こる
質問なのですが,こちらのサイト(https://qiita.com/Phoeboooo/items/b92c35f6739a9e765a80)
でパラメータ数の数え方について学びました.
こちらのLSTMの項で多分,長さ20の32次元特徴量を入力としていると思います.
しかし,パラメータの数え方で入力に対しての重み32644の32*64の部分がわかりません.
私の中では,一つの隠し層に一つの時間(t=1~20のどれか)が入力するという認識だったので,
隠し層64に長さ20のデータを入力するという考え方がよくわかりません.

すみません,文が長くなってしまいましたが考え方で誤っているところを教えて頂けたら嬉しいです.
また,何か質問がある方もコメントして頂けたらその部分の説明をしたいと思います.
よろしくお願いします.

<追記>
model = Sequential()
model.add(LSTM(64,input_shape=(10,1024)))
model.add(Dense(output_dim, activation="linear"))

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

LSTMの隠れ層という言い方がまずしっくりこなくて、LSTMは「LSTMという1つの層」なのでは、と感じました。

ここでLSTMへ入力するとき,LSTMを時間方向に展開した図(ネット上などによくある図)で構造を理解していました.つまり,例に示すデータでは,一つの入力動画像の長さが10なのでt=1~t=10まで.

1つのLSTM層に「10回」入力を入れて、「最後に」LSTM層から出力された値を使うのが基本です。

attentionのような機構が次の層に入っている時は、「10回分の」出力をぜんぶ使いますが、だからといって「LSTM層が10個」とは数えないですね。
「1つのLSTM層が出力した結果10回分」と捉えるのではないでしょうか。

つまりLSTMの隠れ層は10であると思っていましたが,色々調べて見ると64であったり256であったり..

これは実例がないと何を言っているのか分かりません。


隠れ状態(ベクトル)と隠れ層がごっちゃになっているのかなという印象を持ちました。

投稿2020/07/27 15:37

quickquip

総合スコア11235

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

rut00

2020/07/27 15:57

回答ありがとうございます。 質問文にkerasによるコードの一例を載せさせていただきました。 ということは、追記のコードの場合、入力は(10,1024)#1024個の特徴量,10フレーム分#であり、これがt=1~10まで入力されるLSTMが64個、隠し層にある。 という見方をすればよいのでしょうか?
quickquip

2020/07/27 23:28 編集

回答読んでますか? 「64次元の隠れ状態ベクトルを持つLSTM」が1個ですよ。 64次元のベクトルとoutput_dim次元ベクトルを出力に持ち、 前の層からくる1024次元のベクトルと、前の状態からくる64次元のベクトルと、前の状態からくるoutput_dim次元ベクトルを入力に持つ、 1個のLSTMです。
quickquip

2020/07/28 09:06 編集

すごく間違えました。 隠れ状態ベクトル(64次元)と記憶セルからのベクトル(64次元)を出力に持ち、 前の層からくるベクトル(1024次元)と、前の状態からくる隠れ状態ベクトル(64次元)と、前の状態の記憶セルからのベクトル(64次元)を入力に持ち、 次の層へは隠れ状態ベクトル(64次元)を渡す、 ですね。
rut00

2020/07/28 14:52

ありがとうございます。 やっと理解できました。 自分の中でLSTM層の中での計算過程をイメージできていなく、前の状態からくる入力ベクトルの大きさを考えることができていませんでした。 パラメータ数も上記のサイトと自分の計算が一致して解決できました。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問