質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.84%

  • Python

    6375questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • Chainer

    118questions

    Chainerは、国産の深層学習フレームワークです。あらゆるニューラルネットワークをPythonで柔軟に書くことができ、学習させることが可能。GPUをサポートしており、複数のGPUを用いた学習も直感的に記述できます。

  • 深層学習

    118questions

  • 強化学習

    11questions

ChainerRLのact_and_trainメソッドでエラー

解決済

回答 1

投稿

  • 評価
  • クリップ 0
  • VIEW 76

ShionHonda

score 3

 前提・実現したいこと

Chainerを使ってオセロの棋譜を学習させたCNNを、今度はChainerRLのREINFORCEアルゴリズムを使って強化学習させようとしています。
しかし、掲載したコードを実行すると、agent.act_and_trainに呼ばれるmodel(Classifierでラップされている)で
TypeError: call() missing 1 required positional argument: 'x'
と出てしまいます。
引数でbatch_obsを取っているはずなのですが、どうしてでしょうか?
よろしくお願いします。

 発生している問題・エラーメッセージ

Traceback (most recent call last):
  File "test_train.py", line 63, in <module>
    main()
  File "test_train.py", line 45, in main
    action = agent.act_and_train(obs, reward)
  File "C:\Users\26xor\Anaconda3\lib\site-packages\chainerrl\agents\reinforce.py", line 79, in act_and_train
    action_distrib = self.model(batch_obs)
  File "C:\Users\26xor\Anaconda3\lib\site-packages\chainer\links\model\classifier.py", line 114, in __call__
    self.y = self.predictor(*args, **kwargs)
TypeError: __call__() missing 1 required positional argument: 'x'

 該当のソースコード

'''強化学習のコード'''

model1 = L.Classifier(SLPolicy.SLPolicyNet(), lossfun=softmax_cross_entropy) # 対戦させるモデル
serializers.load_npz("./models/rl/model0.npz", model1)
optimizer = optimizers.Adam()
optimizer.setup(model1)
optimizer.add_hook(chainer.optimizer_hooks.WeightDecay(5e-4))
model2 = L.Classifier(SLPolicy.SLPolicyNet(), lossfun=softmax_cross_entropy) # 対戦相手のモデル
serializers.load_npz("./models/rl/model0.npz", model2)
# REINFORCEアルゴリズムのエージェント
agent = chainerrl.agents.REINFORCE(model1, optimizer, batchsize=N, backward_separately=False)

for set in range(args.set):
    env = rl_env.GameEnv(model1, model2)
    for i in range(2*N):
        obs = env.reset() # 盤面を表す行列
        reward = 0
        done = False
        while not done:
            action = agent.act_and_train(obs, reward)
            obs, reward, done, _ = env.step(action)

        agent.stop_episode_and_train(obs, judge, done=True)
'''ネットワークを定義するクラス'''

import chainer
import chainer.functions as F
import chainer.links as L

class Block(chainer.Chain):
    def __init__(self, out_channels, ksize, pad=1):
        super(Block, self).__init__()
        with self.init_scope():
            self.conv = L.Convolution2D(None, out_channels, ksize, pad=pad)

    def __call__(self, x):
        h = self.conv(x)
        return F.relu(h)

class SLPolicyNet(chainer.Chain):
    def __init__(self):
        ksize = 3
        super(SLPolicyNet, self).__init__()
        with self.init_scope():
            self.block1 = Block(64, ksize)
            self.block2 = Block(128, ksize)
            self.block3 = Block(128, ksize)
            self.block4 = Block(128, ksize)
            self.block5 = Block(128, ksize)
            self.block6 = Block(128, ksize)
            self.block7 = Block(128, ksize)
            self.block8 = Block(128, ksize)
            self.conv9 = L.Convolution2D(128, 1, 1, nobias=True)
            self.bias10 = L.Bias(shape=(64))

    def __call__(self, x): # ここでエラー
        h = self.block1(x)
        h = self.block2(h)
        h = self.block3(h)
        h = self.block4(h)
        h = self.block5(h)
        h = self.block6(h)
        h = self.block7(h)
        h = self.block8(h)
        h = self.conv9(h)
        h = F.reshape(h, (-1,64))
        h = self.bias10(h)
        return h

 試したこと

ChainerRLのreinforce.pyをいじることもいろいろ試してみましたが、うまく動きません。
また、後でDistributionクラスが必要になって困ります。

 補足情報(FW/ツールのバージョンなど)

Chainer 4.1.0
ChainerRL 0.3.0
Python 3.6.1

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

check解決した方法

0

ChainerRLのact_and_trainを書き換えたらうまくいきました!

from chainerrl import distribution
def act_and_train(self, obs, reward):
    batch_obs = self.batch_states([obs], self.xp, self.phi)
    action_distrib = distribution.SoftmaxDistribution(self.model.predictor(obs))
# 以下略

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.84%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る

  • Python

    6375questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • Chainer

    118questions

    Chainerは、国産の深層学習フレームワークです。あらゆるニューラルネットワークをPythonで柔軟に書くことができ、学習させることが可能。GPUをサポートしており、複数のGPUを用いた学習も直感的に記述できます。

  • 深層学習

    118questions

  • 強化学習

    11questions