質問編集履歴
4
訂正
test
CHANGED
File without changes
|
test
CHANGED
@@ -6,9 +6,11 @@
|
|
6
6
|
|
7
7
|
もし同じであれば、どうして『**確率的勾配法**』が新しい方法みたいに扱われているのでしょうか。
|
8
8
|
|
9
|
-
--
|
9
|
+
---
|
10
10
|
|
11
|
+
|
12
|
+
|
11
|
-
|
13
|
+
【回答】(from tachikomaさま)
|
12
14
|
|
13
15
|
|
14
16
|
|
@@ -16,7 +18,7 @@
|
|
16
18
|
|
17
19
|
|
18
20
|
|
19
|
-
1.『オンライン学習・訓練』は
|
21
|
+
1.『オンライン学習・訓練』は 学習データを徐々(逐次的)に(sequentially)取得して、一度学習した後追加学習を行う;その他の学習法では予めサンプルが揃っている。
|
20
22
|
|
21
23
|
|
22
24
|
|
3
追加
test
CHANGED
File without changes
|
test
CHANGED
@@ -6,20 +6,24 @@
|
|
6
6
|
|
7
7
|
もし同じであれば、どうして『**確率的勾配法**』が新しい方法みたいに扱われているのでしょうか。
|
8
8
|
|
9
|
+
--
|
9
10
|
|
10
|
-
|
11
|
-
----
|
12
|
-
|
13
|
-
【回答】(from tachikomaさま)
|
11
|
+
**【回答】**(from tachikomaさま)
|
14
|
-
|
15
|
-
『オンライン学習』と『確率的勾配法』とはまったく異なる範疇の概念で、
|
16
12
|
|
17
13
|
|
18
14
|
|
15
|
+
『オンライン学習』と『確率的勾配法』とはまったく異なる範疇の概念で、
|
16
|
+
|
17
|
+
|
18
|
+
|
19
|
-
1.『オンライン学習・訓練』は一度学習した後追加学習を行う(学習データを徐々に取得する);その他の学習法では予めサンプルが揃っている。
|
19
|
+
1.『オンライン学習・訓練』は一度学習した後追加学習を行う(学習データを徐々(逐次的)に(sequentially)取得する);その他の学習法では予めサンプルが揃っている。
|
20
20
|
|
21
21
|
|
22
22
|
|
23
23
|
2.『オンライン学習・訓練』にも複数の最適化方法を選択可能:
|
24
24
|
|
25
|
-
Eg, 学習データを暫く溜めといて、『
|
25
|
+
Eg, 学習データを暫く溜めといて、『確率的勾配法』以外の任意の学習法(eg., mini-batch)を選べる。
|
26
|
+
|
27
|
+
|
28
|
+
|
29
|
+
3.『オンライン学習・訓練』はNNに限らず、例えば、ベイジアンモデルのオンライン学習も存在する。
|
2
回答追加
test
CHANGED
File without changes
|
test
CHANGED
@@ -5,3 +5,21 @@
|
|
5
5
|
|
6
6
|
|
7
7
|
もし同じであれば、どうして『**確率的勾配法**』が新しい方法みたいに扱われているのでしょうか。
|
8
|
+
|
9
|
+
|
10
|
+
|
11
|
+
----
|
12
|
+
|
13
|
+
【回答】(from tachikomaさま)
|
14
|
+
|
15
|
+
『オンライン学習』と『確率的勾配法』とはまったく異なる範疇の概念で、
|
16
|
+
|
17
|
+
|
18
|
+
|
19
|
+
1.『オンライン学習・訓練』は一度学習した後追加学習を行う(学習データを徐々に取得する);その他の学習法では予めサンプルが揃っている。
|
20
|
+
|
21
|
+
|
22
|
+
|
23
|
+
2.『オンライン学習・訓練』にも複数の最適化方法を選択可能:
|
24
|
+
|
25
|
+
Eg, 学習データを暫く溜めといて、『**確率的勾配法**』以外の任意の学習法(eg., mini-batch)を選べる。
|
1
タイトル訂正
test
CHANGED
@@ -1 +1 @@
|
|
1
|
-
『
|
1
|
+
『オンライン学習』と『確率的勾配法』とは何が違うの?
|
test
CHANGED
File without changes
|