質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
強化学習

強化学習とは、ある環境下のエージェントが現状を推測し行動を決定することで報酬を獲得するという見解から、その報酬を最大限に得る方策を学ぶ機械学習のことを指します。問題解決時に得る報酬が選択結果によって変化することで、より良い行動を選択しようと学習する点が特徴です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

0回答

1952閲覧

Q学習:Q値の更新の実装について

Yuuki_Uchida

総合スコア6

強化学習

強化学習とは、ある環境下のエージェントが現状を推測し行動を決定することで報酬を獲得するという見解から、その報酬を最大限に得る方策を学ぶ機械学習のことを指します。問題解決時に得る報酬が選択結果によって変化することで、より良い行動を選択しようと学習する点が特徴です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/05/29 06:23

編集2020/05/31 00:51

#質問
多腕バンディット課題について、Q学習を用いて、報酬が出てきやすい腕をより多く引くための実装を試みています。
次のようなQ学習の更新式のうち、遷移先状態の最大Q値(maxQ(s,a))を実装する方法がわかりません。

![イメージ説明

(スクリーンショット:https://www.sist.ac.jp/~kanakubo/research/reinforcement_learning.html

調べると、ライブラリを用いて実装する方法、Q値リストの全ての値を乱数で初期化する方法などがありました。それら以外にはどのような方法がありえるのでしょうか?
具体的な実装ではなく、実装の方針をお教えいただければ幸いです。

現在のコードは次のようになっています。
二腕バンディットで、それぞれの腕を引いたときに報酬が得られる確率は、0.1, 0.9 です。
Q学習の行動選択は、ソフトマックスポリシーです。
学習が進むに従い、行動1を選択しやすくなるのが理想です。

import numpy as np import matplotlib.pyplot as plt import random Npulls = 500# 腕を引く回数 fig = plt.figure() class Bandit: def __init__(self): """ 変数の初期化 """ self.Npulls = Npulls# 腕を引く回数 self.p = [0.1, 0.9]# 腕を引いたときに報酬が得られる確率 [1本めの腕、2本めの腕] self.a = np.zeros(self.Npulls)# 時系列の行動のリスト self.R = np.zeros(self.Npulls)# 時系列の報酬のリスト self.Q = np.zeros((2, self.Npulls+1))# 時系列のQ値のリスト self.alpha = 0.3# Q学習の学習率 self.beta = 5# softmaxの温度 self.gamma = 0.95# 割引率 def softmax(self, x, Q): """ softmax ポリシーで行動を選択 """ sigma = np.sum(np.exp(self.Q[:, x]/self.beta)) vals = [] for i in range(2): softmax = np.exp(self.Q[int(i), x]/self.beta)/sigma vals.append(random.uniform(0, softmax)) self.a[x] = np.argmax(vals)# 次に選択する腕 def get_reward(self, x, p): """ 報酬を得る """ if self.a[x] == 0: if random.random()<self.p[0]: self.R[x] = 1 else: if random.random()<self.p[1]: self.R[x] = 1 #def observe(self, x, reward): """ [不明点]この関数で、遷移先状態の最大Q値を求めようとしています。 """ def update_Q(self, x, R): """ Q値の更新 """ next_Q = [] for i in range(2): #print(max(self.Q[:, x+1])) self.Q[i, x+1] = self.Q[i, x] + self.alpha*(self.R[i] + self.gamma*max(self.Q[:, x+1]) - self.Q[i, x]) #print(self.Q[i,x], self.Q[i, x+1]) b = Bandit() for i in range(Npulls-1): b.softmax(i, b.Q) b.get_reward(i, b.p) b.update_Q(i, b.R) print(b.a) """ 学習が進むに従い、行動で1が選ばれることが増えてほしいです。 """

よろしくお願い致します。

##環境
Jupiter notebook
maxOS Catalina

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問