質問編集履歴

3

追記

2018/04/21 09:19

投稿

kokosei
kokosei

スコア13

test CHANGED
File without changes
test CHANGED
@@ -1,4 +1,4 @@
1
- [こちら](https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression)で以下の数式が出てきます。
1
+ [こちら](https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression)で以下の数式が出てきます。最急降下法の関数Jを目的関数(線形関数)としたものです。
2
2
 
3
3
 
4
4
 

2

修正

2018/04/21 09:19

投稿

kokosei
kokosei

スコア13

test CHANGED
File without changes
test CHANGED
@@ -10,13 +10,13 @@
10
10
 
11
11
 
12
12
 
13
- デルタ/デルタシータjはどこへいったのか
13
+ /∂θjはどこへいったのか
14
14
 
15
15
  ・1/2mはなぜ1/mになったのか
16
16
 
17
- シータ0の時、シグマの中の二乗はなぜ二乗でなくなったのか
17
+ θ0の時、シグマの中の二乗はなぜ二乗でなくなったのか
18
18
 
19
- シータ1の時、シグマの中の二乗はなぜ二乗でなくなり、x(i)がかけられているのか
19
+ θ1の時、シグマの中の二乗はなぜ二乗でなくなり、x(i)がかけられているのか
20
20
 
21
21
 
22
22
 

1

修正

2018/04/21 09:03

投稿

kokosei
kokosei

スコア13

test CHANGED
File without changes
test CHANGED
@@ -1,4 +1,4 @@
1
- [こちら](https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression)で以下の数式変形が出てきます。
1
+ [こちら](https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression)で以下の数式が出てきます。
2
2
 
3
3
 
4
4