python
1import tensorflow as tf 2import numpy as np 3import matplotlib.pyplot as plt 4import pandas as pd 5import glob 6from sklearn.preprocessing import LabelEncoder 7from sklearn.model_selection import train_test_split 8 9 10x_train, x_valid, y_train, y_valid = np.load("/content/drive/MyDrive/chest x-ray/dataset 3/Xy_data.npy", allow_pickle=True) 11 12x_train = np.array(x_train) / 255.0 13x_valid = np.array(x_valid) / 255.0 14y_train = np.array(y_train) 15y_valid = np.array(y_valid) 16 17Xy_data = (x_train, x_valid, y_train, y_valid) 18np.save("/content/drive/MyDrive/image/Xy_data0.npy", Xy_data)
google colab proを使っています。特にエラーコードはなくセッションがクラッシュしましたと言われて再起動します。
上のコードを実行すると、np.save("/content/drive/MyDrive/image/Xy_data0.npy", Xy_data) の部分でセッションがクラッシュしてしまいます。
どのようにすればクラッシュせずに実行できますか?
自分はデータがメモリを消費するため、一回一回データを変えた後にセーブさせようとしています。
また、np.save("/content/drive/MyDrive/image/Xy_data0.npy", Xy_data)のコードを実行せずにモデルを作るコード下のような
python
1model = tf.keras.models.Sequential([ 2 tf.keras.layers.Flatten(input_shape=(1024, 1024, 1)), 3 tf.keras.layers.Dense(64, activation='relu'), 4 tf.keras.layers.Dropout(0.2), 5 tf.keras.layers.Dense(2, activation='softmax') 6]) 7model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) 8model.fit(x_train, y_train, epochs=10)
を実行しても同じようにセッションがクラッシュしてしまいます。
画像のサイズが1024x1024なのですが大きすぎるでしょうか?