質問編集履歴
3
追記
test
CHANGED
File without changes
|
test
CHANGED
@@ -1,4 +1,4 @@
|
|
1
|
-
[こちら](https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression)で以下の数式が出てきます。
|
1
|
+
[こちら](https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression)で以下の数式が出てきます。最急降下法の関数Jを目的関数(線形関数)としたものです。
|
2
2
|
|
3
3
|
|
4
4
|
|
2
修正
test
CHANGED
File without changes
|
test
CHANGED
@@ -10,13 +10,13 @@
|
|
10
10
|
|
11
11
|
|
12
12
|
|
13
|
-
・
|
13
|
+
・∂/∂θjはどこへいったのか
|
14
14
|
|
15
15
|
・1/2mはなぜ1/mになったのか
|
16
16
|
|
17
|
-
・
|
17
|
+
・θ0の時、シグマの中の二乗はなぜ二乗でなくなったのか
|
18
18
|
|
19
|
-
・
|
19
|
+
・θ1の時、シグマの中の二乗はなぜ二乗でなくなり、x(i)がかけられているのか
|
20
20
|
|
21
21
|
|
22
22
|
|
1
修正
test
CHANGED
File without changes
|
test
CHANGED
@@ -1,4 +1,4 @@
|
|
1
|
-
[こちら](https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression)で以下の数式
|
1
|
+
[こちら](https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression)で以下の数式が出てきます。
|
2
2
|
|
3
3
|
|
4
4
|
|