回答編集履歴
2
説明を詳細化
test
CHANGED
@@ -4,7 +4,7 @@
|
|
4
4
|
|
5
5
|
私の回答の「勾配降下法・・・」以降の部分は、連立方程式の解き方を空間上のグラフの問題として説明したので、画像認識と紛らわしかったですね。お詫びいたします。
|
6
6
|
|
7
|
-
同様のことをグラフではなく複雑な連立方程式として説明すれば、機械学習モデルの実体は連続した行列式に被判定データを掛けていくと意味のある判定結果を出力されるその方程式の集まりです。
|
7
|
+
同様のことをグラフではなく複雑な連立方程式として説明すれば、機械学習モデルの実体は連続した行列式に被判定データを掛けていくと意味のある判定結果を出力されるその方程式の集まりです。例えばnaganumaさんが示された画像にあてはめて、23コマ×12行の訓練データ(つまり276ドット)が100枚ある形の多元連立方程式を考えるとします。1ドットずつの明暗情報が手掛かりとして、個々の黒さの数値を方程式にすれば、
|
8
8
|
|
9
9
|
```
|
10
10
|
|
1
誤字訂正
test
CHANGED
@@ -4,7 +4,7 @@
|
|
4
4
|
|
5
5
|
私の回答の「勾配降下法・・・」以降の部分は、連立方程式の解き方を空間上のグラフの問題として説明したので、画像認識と紛らわしかったですね。お詫びいたします。
|
6
6
|
|
7
|
-
同様のことをグラフではなく複雑な連立方程式として説明すれば、機械学習モデルの
|
7
|
+
同様のことをグラフではなく複雑な連立方程式として説明すれば、機械学習モデルの実体は連続した行列式に被判定データを掛けていくと意味のある判定結果を出力されるその方程式の集まりです。その行列式が多元連立方程式を、例えば示された画像にあてはめて、23コマ×12行の訓練データ(つまり276ドット)が100枚あるとします。1ドットずつの明暗情報が手掛かりとして、個々の黒さの数値を方程式にすれば、
|
8
8
|
|
9
9
|
```
|
10
10
|
|
@@ -26,12 +26,14 @@
|
|
26
26
|
|
27
27
|
```
|
28
28
|
|
29
|
-
というふうに連立方程式が連続して成り立ちます。この各x1からx276のデータの集合100種類と正解の判定値が与えられたときに、ディープラーニングの解き方としては、しらみつぶしに各係数及び定数の値を取り替えていき、よりふさわしい方程式を
|
29
|
+
というふうに連立方程式が連続して成り立ちます。この各x1からx276のデータの集合100種類と正解の判定値が与えられたときに、ディープラーニングの解き方としては、しらみつぶしに各係数及び定数の値を取り替えていき、よりふさわしい方程式を構成しようとします。その値の変え方にコツがあり、微分や確率・統計やベクトルの内積などの高度な数学が応用されます。(その説明が難しいので私はあえて高次元立体の操作として説明しました。)そして、いったん検証用のデータで正解率を確かめて、その正解率が100%に近ければ実用的な機械学習モデルとして使えるし、正解率が低い場合は、データの選定や取り上げる項目の見直しなどの修正をおこない、機械学習モデルを作り直します。
|
30
30
|
|
31
31
|
最終的にふさわしい方程式群が完成したら、実際の画像をこの方程式群を通したときに正しい判定値、例えば存在可能性90%とか存在可能性1%とかと判定されます。
|
32
32
|
|
33
|
+
このできあがった方程式群の判定ルールが、お考えのように空白に目を付けたものなのか、斜めや縦の明暗の法則性に目を付けたものなのかは、分からないのです。今後の研究分野として、その法則性を見つけ出して、新しい科学的な発見となるようなことが起きるかもしれませんが、画像だからこの法則性をとか、音声認識だからのこの法則性をとか、景気判断だからこの法則性をとか導くのはむずかしいのです。
|
33
34
|
|
34
35
|
|
36
|
+
|
35
|
-
私の説明ではややこしいばかりかもしれませんので、親切に図を交えて分かりやすく説明してくれている次の記事が参考になると思います。
|
37
|
+
私の説明ではややこしいばかりかもしれませんので、機械学習の仕組みを親切に図を交えて分かりやすく説明してくれている次の記事が参考になると思います。
|
36
38
|
|
37
39
|
[【3分で理解】ニューラルネットワークを解説!前編「パーセプトロン」とは?](https://note.com/taisuke_murata/n/n01429317808f)
|