世の中のDeep Learning宣伝によって、
自分にはDL(等価的ではないが、以下CNN/DNNと称します)に対する『過大視』のようのものがありました。
今になってようやく下記の幾つかの点について気付いたのです。
この分野に関心のある方、どんなご意見でも宜しいので、ご批判やコメントを承りたいと思います。
**"当たり前や,どうじて最初から分からなかったの?"**というようなご意見も歓迎いたしますが、
批判的なコメントがもっと好ましいでございます。
1. CNN/DNNは因果関係や規則を発見するのではないし、指定した仮説を現実的な意味で成立するかどうかを判定してくれるものでもない。
単に人間が指定した「仮説」を成立させるために、指定因果間の無理やり射影機能を持たせるに過ぎない。
(これは莫大なパラメーターを通じて、強烈な数値辻褄合わせで実現された)
2. CNN/DNNが形成後の中間数値は(eg,各「特徴map」やpooling)に表現されているデータは
対象物の人間にとって有意味の「固有特徴」として考えにくく、
単に強烈な数値辻褄合わせのための副産物に過ぎない。
∵ それは如何なる外的な要素(eg, hyperparameters)にも敏感に反応し,全然違うものに変動するのだから。
【画像認識の場合、中間処理結果の可視化によってobject パーツらしい模様が現れるのは、もともと画像だから、それに対する局所的な算術計算の結果も当然それなりに元の画像模様を反映する-----これ以上の意味を持たない!】
これに関してDNNの一部の開発者の言っている画像の「Feature Extractor」という表現に惑わされないように注意したい。(Eg, YOLO作者の論文, 等)
3. 上述のように、DLは能動的に 潜在関係や規律を発見してくれるのでなく、
まったく"受動的に"人間が明示的、または強く暗示した関係を成立させる仕組みである。
これに対して、data miningのための一部手法、例えば、Bayesian networkのようなものは**「能動的」に** なまのデータから関係や規則を発見する能力を持ち、『知能』という表現に相応しい。
4. DLは本質的に『過学習』で、原理的に『過学習』は必要とし、『過学習』の上で初めて成り立つ。
なので、大きな『汎化性能』=創造的な推論機能を期待(信用)できない。
従って、応用面においてDLの『過学習』本質と人間が期待している『汎化性能』の間に大きなジレンマが存在するはず。
これに対して、Bayesian networkのようなものは**『過学習』が存在しない**。
5. DLはBayesian networkのようなものと結婚すれば、真の『知能』に近いものが生まれるかもしれない。
6. 技術的な視点からすれば「Error propagation」はDLのために存在するのでなく、DLは「Error propagation」のために構造した。
「Error propagation」は多量の変数を最適化 ➡ 偏微分 ➡ 微分の伝達性、可分解性を利用するための数学からの要望で、多変数を最適化するための限られた手法の代表であり、簡単に置き換えられない。
それに、propagation = feedbackは【古典制御理論】から【現代制御理論】までの基本方法で、安易に否定できない。
##背景
以前、NNに関する知識があるものの、深層学習について、全然経験なく、その中身もここの皆様に御伺いしながらようやくある程度分かるような気がします。。。。ただし、確実ではないのです。
当初思い込みのような部分があったと強く感じます。
自分はどんな技術に対しても、その性格や特徴を把握してから、利用したいもので、今の自分の認識を出して、有識者の方に評をいただきたいのです。
決して『Deep learning』の有効性を否定するのではなく、 他の処でも述べたように、むしろこれまでのobject追跡法(特徴点法)より優れると思います。
利用できるように努力したいのですね。
ただし、自分の当初の感覚や期待とは大きなずれがあるかと思います。