回答編集履歴
2
誤字訂正
test
CHANGED
@@ -1,3 +1,3 @@
|
|
1
1
|
同じくQiitaの[勾配降下法について](https://qiita.com/YudaiSadakuni/items/ece07b04c685a64eaa01)の記事のように、損失関数の誤差を足がかりに求める機械学習モデルを示す行列式まで辿り着く過程が勾配降下法の動作です。
|
2
2
|
|
3
|
-
このページの中の「勾配ベクトルについて」の章のprot 3dのグラフが示すように画像データが示す行列式が学習データが持つn個の項が形作る立体もしくはベクトルと考えて、n+1次元空間の上でのn次元平面の収まる場所を突き止めていく動作をとっています。すなわちこの空間が学習データが収まる範囲で、グラフ上のロート型が学習データの計算から均衡点まで落ち着いていく勾配降下法の動きを示します。最も均衡した点は、内積の値がマイナスの極小値に辿り着いた点(二つのベクトルが真逆の向きのときに内積が極小になるから)で、これが辿り着いた機械学習モデルが描くn個の軸で表すn+1次元空間上のベクトルもしくはそのベクトルに真に
|
3
|
+
このページの中の「勾配ベクトルについて」の章のprot 3dのグラフが示すように画像データが示す行列式が学習データが持つn個の項が形作る立体もしくはベクトルと考えて、n+1次元空間の上でのn次元平面の収まる場所を突き止めていく動作をとっています。すなわちこの空間が学習データが収まる範囲で、グラフ上のロート型が学習データの計算から均衡点まで落ち着いていく勾配降下法の動きを示します。最も均衡した点は、内積の値がマイナスの極小値に辿り着いた点(二つのベクトルが真逆の向きのときに内積が極小になるから)で、これが辿り着いた機械学習モデルが描くn個の軸で表すn+1次元空間上のベクトルもしくはそのベクトルに真に直交する平面になります。
|
1
説明を詳細化
test
CHANGED
@@ -1,3 +1,3 @@
|
|
1
1
|
同じくQiitaの[勾配降下法について](https://qiita.com/YudaiSadakuni/items/ece07b04c685a64eaa01)の記事のように、損失関数の誤差を足がかりに求める機械学習モデルを示す行列式まで辿り着く過程が勾配降下法の動作です。
|
2
2
|
|
3
|
-
このページの中の「勾配ベクトルについて」の章のprot 3dのグラフが示すように画像データが示す行列式が学習データが持つn個の項が形作る立体もしくはベクトルと考えて、n+1次元空間の上でのn次元平面の収まる場所を突き止めていく動作をとっています。すなわちこの空間が学習データが収まる範囲で、グラフ上のロート型が学習データの計算から均衡点まで落ち着いていく勾配降下法の動きを示します。最も均衡した点は、内積の値がマイナスの極小値に辿り着いた点(二つのベクトルが真逆の向きのときに内積が極小になるから)で、これが辿り着いた機械学習モデルが描くn個の軸で表すn+1次元空間上のベクトルになります。
|
3
|
+
このページの中の「勾配ベクトルについて」の章のprot 3dのグラフが示すように画像データが示す行列式が学習データが持つn個の項が形作る立体もしくはベクトルと考えて、n+1次元空間の上でのn次元平面の収まる場所を突き止めていく動作をとっています。すなわちこの空間が学習データが収まる範囲で、グラフ上のロート型が学習データの計算から均衡点まで落ち着いていく勾配降下法の動きを示します。最も均衡した点は、内積の値がマイナスの極小値に辿り着いた点(二つのベクトルが真逆の向きのときに内積が極小になるから)で、これが辿り着いた機械学習モデルが描くn個の軸で表すn+1次元空間上のベクトルもしくはそのベクトルに真に垂直は平面になります。
|