前提・実現したいこと
pythonで強化学習の簡単なコードを作っています。
numpyの配列について以下のエラーが出てしまいました。
どこがおかしいか教えていただけるとありがたいです。
発生している問題・エラーメッセージ
Traceback (most recent call last):
File "C:\~\rl_study.py", line 185, in <module>
reward = sim.run(train=True)
File "C:\~\rl_study.py", line 172, in run
self.agent.update_model(old_seq, action, reward)
File "C:\~\rl_study.py", line 105, in update_model
x = Variable(batch[:, 0:1].reshape((self.batch_num, -1)).astype(np.float32))
IndexError: too many indices for array
該当のソースコード
python 3.5.2
ソースコード
import chainer
from chainer import Variable,optimizers,serializers
from chainer import Chain
import chainer.functions as F
import chainer.links as L
import numpy as np
np.random.seed(0)
# 本問のニューラルネット
class Q(Chain):
def __init__(self):
super(Q, self).__init__(
l1=L.Linear(1,16),
l2=L.Linear(16,10),
)
def __call__(self, x, t):
return F.mean_squared_error(self.predict(x,train=True),t)
def predict(self,x,train=False):
h1 = F.leaky_relu(self.l1(x))
y = F.leaky_relu(self.l2(h1))
return y
# DQNアルゴリズムにしたがって動作するエージェント
class DQNAgent():
def __init__(self,epsilon = 0.99):
self.model = Q()
self.optimizer = optimizers.Adam()
self.optimizer.setup(self.model)
self.epsilon = epsilon
self.actions = [0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1.0] # 行動の選択肢
self.experienceMemory = []
self.memSize = 20*10 #(20サンプリング×10エピソード)
self.experienceMemory_local = []
self.memPos = 0
self.batch_num = 5
self.gamma = 1.0
self.loss = 0
self.reward_award = np.ones(10) * -1
def get_action_value(self, one_step_seq):
x = Variable(np.hstack([one_step_seq]).astype(np.float32).reshape((1,-1)))
return self.model.predict(x).data[0]
def get_greedy_action(self,one_step_seq):
x = Variable(np.hstack([one_step_seq]).astype(np.float32).reshape((1,-1)))
return self.model.predict(x).data[0]
def reduce_epsilon(self):
self.epsilon -= 1.0/1000
def get_epsilon(self):
return self.epsilon
def get_action(self, one_step_seq, train):
action = 0
if train == True and np.random.random() < self.epsilon:
action = np.random.choice(self.actions)
else:
action = self.get_greedy_action(one_step_seq)
return action
def expereince_local(self, one_step_seq, action, reward):
self.experienceMemory_local.append(np.hstack([one_step_seq,action,reward]))
def experience_global(self, reward):
# ベスト10に入る記憶を取り込む
if np.min(self.reward_award) < reward:
i = np.argmin(self.reward_award)
self.reward_award[i] = reward
for x in self.experienceMemory_local:
self.experience(x)
if np.random.random() < 0.01:
for x in self.experienceMemory_local:
self.experience(x)
self.experienceMemory_local = []
def experience(self,x):
if len(self.experienceMemory) > self.memSize:
self.experienceMemory[int(self.memPos % self.memSize)] = x
self.memPos += 1
else:
self.experienceMemory.append(x)
def update_model(self, one_step_seq, action, reward):
"""
モデルを更新する
"""
# 経験メモリにたまってない場合は更新しない
if len(self.experienceMemory) < self.batch_num:
return
# 経験メモリからバッチを作成
memsize = len(self.experienceMemory)
batch_index = list(np.random.randint(0,memsize,(self.batch_num)))
batch = np.array([self.experienceMemory[i] for i in batch_index])
#x = Variable(batch[:, 0:1].reshape((self.batch_num, -1)).astype(np.float32))
x = Variable(batch[:, 0:1].reshape((self.batch_num, -1)).astype(np.float32))
targets = self.model.predict(x).data.copy()
for i in range(self.batch_num):
a = batch[i, 1]
r = batch[i, 1 + 1]
ai = int(10*a-1)
targets[i,ai] = (r + self.gamma * np.max(self.get_action_value(a)))
t = Variable(np.array(targets).reshape((self.batch_num, -1)).astype(np.float32))
self.model.cleargrads()
loss = self.model(x,t)
self.loss = loss.data
loss.backward()
self.optimizer.update()
class environment():
'''
本問の環境。仮に0.5を入力したら最大の報酬を返すものとする
'''
def __init__(self):
self.reset(0)
def reset(self, power):
self.power = power
def get_reward(self):
reward = 0
#desired_power = 0.5
reward = np.min([1 - self.power, self.power])
return reward
class simulator:
def __init__(self,environment:environment, agent:DQNAgent):
self.agent = agent
self.env = environment
self.num_seq =1
self.reset_seq()
self.learning_rate = 1.0
def reset_seq(self):
self.seq = np.random.choice(self.agent.actions)
def replace_seq(self, power):
self.seq[0] = power
def run(self,train = True):
self.reset_seq()
reward = 0
old_seq = self.seq.copy()
action = self.agent.get_action(old_seq, train)
self.env.reset(old_seq)
reward = self.env.get_reward()
self.agent.expereince_local(old_seq, action, reward)
self.agent.experience_global(reward)
if train:
self.agent.update_model(old_seq, action, reward)
self.agent.reduce_epsilon()
return reward
if __name__ == '__main__':
agent = DQNAgent()
env = environment()
sim = simulator(env,agent)
test_highscore = 0
for i in range(100):
reward = sim.run(train=True)
if i % 10 == 0:
serializers.save_npz('0401model/%03d.model' % i, agent.model)
if i % 5 == 0:
reward = sim.run(train = False)
if test_highscore < reward:
print("highcore!")
serializers.save_npz('0401model/%03d_hs.model' % i ,agent.model)
test_highscore = reward
print(i)
print(reward)
print("epsilon: %2.2e" % agent.get_epsilon())
print("loss:%2.2e" % agent.loss)
試したこと
参考にしたコード(https://github.com/ashitani/DQN_pendulum)
と比較しましたが、どこが問題なのかわかりませんでした。
補足情報(FW/ツールのバージョンなど)
Numpy 1.13.3
-
気になる質問をクリップする
クリップした質問は、後からいつでもマイページで確認できます。
またクリップした質問に回答があった際、通知やメールを受け取ることができます。
クリップを取り消します
-
良い質問の評価を上げる
以下のような質問は評価を上げましょう
- 質問内容が明確
- 自分も答えを知りたい
- 質問者以外のユーザにも役立つ
評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。
質問の評価を上げたことを取り消します
-
評価を下げられる数の上限に達しました
評価を下げることができません
- 1日5回まで評価を下げられます
- 1日に1ユーザに対して2回まで評価を下げられます
質問の評価を下げる
teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。
- プログラミングに関係のない質問
- やってほしいことだけを記載した丸投げの質問
- 問題・課題が含まれていない質問
- 意図的に内容が抹消された質問
- 過去に投稿した質問と同じ内容の質問
- 広告と受け取られるような投稿
評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。
質問の評価を下げたことを取り消します
この機能は開放されていません
評価を下げる条件を満たしてません
質問の評価を下げる機能の利用条件
この機能を利用するためには、以下の事項を行う必要があります。
- 質問回答など一定の行動
-
メールアドレスの認証
メールアドレスの認証
-
質問評価に関するヘルプページの閲覧
質問評価に関するヘルプページの閲覧
check解決した方法
0
DQNAgentクラスのメソッドのget_greedy_actionの内容がget_action_valueと同じものになっており、ここが原因でした。以下のように書き換えると実行できました。
def get_greedy_action(self,one_step_seq):
action_index = np.argmax(self.get_action_value(one_step_seq))
return self.actions[action_index]
ただ、実行はできるのですが意図した学習が行われていない状況です。(一番行動価値が高いaction 0.5を選択するようになってほしい)
>>
参考にしたコードのように1エピソード内に10ステップのループを追加したらtotal_reward = 5(0.5×10)となる結果が得られたのでとりあえずよしとします。
投稿
-
回答の評価を上げる
以下のような回答は評価を上げましょう
- 正しい回答
- わかりやすい回答
- ためになる回答
評価が高い回答ほどページの上位に表示されます。
-
回答の評価を下げる
下記のような回答は推奨されていません。
- 間違っている回答
- 質問の回答になっていない投稿
- スパムや攻撃的な表現を用いた投稿
評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。
15分調べてもわからないことは、teratailで質問しよう!
- ただいまの回答率 88.23%
- 質問をまとめることで、思考を整理して素早く解決
- テンプレート機能で、簡単に質問をまとめられる
質問への追記・修正、ベストアンサー選択の依頼
mkgrei
2018/04/01 22:25
エラーの全文を載せてくださいませ。
mkgrei
2018/04/01 22:27 編集
後タグにchainerを入れると回答が得られやすいかもしれません。
shuim
2018/04/01 22:38
ありがとうございました。修正を行いました。