現在,以下のようにオートエンコーダーで45→10の次元削減を行っております.
python
1 2#オートエンコーダの構築 3 4from keras.layers import Input, Dense 5from keras.models import Model 6import sklearn.model_selection 7import sklearn.datasets 8import numpy as np 9 10 11#データの読み込み 12 13X = np.loadtxt('D:/X_data.csv' , delimiter = ",") 14Y = np.loadtxt('D:/Y_data.csv' , delimiter = ",") 15 16 17X_train , X_test , Y_train , Y_test = sklearn.model_selection.train_test_split(X ,Y , test_size = 0.3) 18 19X_train = X_train.astype('float32') / 255. 20X_test = X_test.astype('float32') / 255. 21X_train = X_train.reshape((len(X_train), np.prod(X_train.shape[1:]))) 22X_test = X_test.reshape((len(X_test), np.prod(X_test.shape[1:]))) 23 24 25#オートエンコーダ本体 26 27encoding_dim = 10 28input_img = Input(shape=(45,)) 29 30encoded = Dense(128, activation='relu')(input_img) 31encoded = Dense(64, activation='relu')(encoded) 32encoded = Dense(32, activation='relu')(encoded) 33 34decoded = Dense(64, activation='relu')(encoded) 35decoded = Dense(128, activation='relu')(decoded) 36decoded = Dense(45, activation='sigmoid')(decoded) 37 38autoencoder = Model(input=input_img, output=decoded) 39autoencoder.compile(optimizer='adam', loss='binary_crossentropy') 40autoencoder.fit(X_train, X_train, 41 nb_epoch=100, 42 batch_size=16, 43 shuffle=True, 44 validation_data=(X_test, X_test)) 45 46#モデルの重みを保存 47 48autoencoder.save_weights('D:/autoencoder.h5')
最後にモデルの重みを保存しており、この重みを使って以下のようにネットワークを構築しています。
python
1import keras 2import tensorflow as tf 3from keras.models import Sequential 4from keras.layers import Dense , Activation 5from keras.models import load_model 6 7m =model = Sequential() 8 9#オートエンコーダの重みを使う 10model.add(Dense(128, input_dim=45, kernel_initializer='normal', activation='relu')) 11model.add(Dense(64, kernel_initializer='normal', activation='relu')) 12model.add(Dense(32, kernel_initializer='normal', activation='relu')) 13model.add(Dense(64, kernel_initializer='normal', activation='relu')) 14model.add(Dense(128, kernel_initializer='normal', activation='relu')) 15model.add(Dense(45, kernel_initializer='normal', activation='relu')) 16model.load_weights('D:/autoencoder.h5') 17 18#オートエンコーダから出力された値をもとに再度ネットワークを構築 19model.add(Dense(30, kernel_initializer='normal')) 20model.add(Dense(20, kernel_initializer='normal')) 21m.compile(loss='sparse_categorical_crossentropy', 22 optimizer='sgd', 23 metrics=['accuracy']) 24 25 26print(m.summary()) 27
このようにして学習しました。しかしながら、この方法では次元削減される前の値が入力値となる気がするのですが、この見解は正しいでしょうか?
その場合、次元削減する重みだけを取り出したいのですが、どのようにすればよいでしょうか?
回答2件
あなたの回答
tips
プレビュー