回答編集履歴
2
追記
test
CHANGED
@@ -20,15 +20,21 @@
|
|
20
20
|
|
21
21
|
|
22
22
|
|
23
|
-
|
23
|
+
TensorFlowに関する知識は初心者レベルなので、ドキュメントから読み取れる部分でお答えします。
|
24
|
+
|
25
|
+
|
26
|
+
|
27
|
+
TensorFlowのドキュメントには次のように**SavedModel**を介して、言語に依存しないモデルのexport/importを行えるようにしているようです。ここで言うモデルとは、計算順序を示すグラフとパラメータです。
|
28
|
+
|
29
|
+
|
30
|
+
|
31
|
+
> When you want to save and load variables, the graph, and the graph's metadata--basically, when you want to save or restore your model--we recommend using SavedModel. **SavedModel** is a language-neutral, recoverable, hermetic serialization format. **SavedModel** enables higher-level systems and tools to produce, consume, and transform TensorFlow models. TensorFlow provides several mechanisms for interacting with SavedModel, including tf.saved_model APIs, Estimator APIs and a CLI.
|
24
32
|
|
25
33
|
|
26
34
|
|
27
35
|
Google翻訳
|
28
36
|
|
29
|
-
> 変数、グラフ、およびグラフのメタデータを保存してロードする場合(基本的に、モデルを保存または復元する場合)、SavedModelを使用することをお勧めします。 SavedModelは、言語に依存しない、回復可能なハーメチックなシリアル化形式です。 SavedModelを使用すると、より高いレベルのシステムとツールでTensorFlowモデルを作成、使用、変換することができます。 TensorFlowには、tf.saved_model API、Estimator API、およびCLIなど、SavedModelとやりとりするためのいくつかのメカニズムが用意されています。
|
30
|
-
|
31
|
-
|
37
|
+
> 変数、グラフ、およびグラフのメタデータを保存してロードする場合(基本的に、モデルを保存または復元する場合)、SavedModelを使用することをお勧めします。 SavedModelは、言語に依存しない、回復可能なハーメチックなシリアル化形式です。 **SavedModel**を使用すると、より高いレベルのシステムとツールでTensorFlowモデルを作成、使用、変換することができます。 TensorFlowには、tf.saved_model API、Estimator API、およびCLIなど、**SavedModel**とやりとりするためのいくつかのメカニズムが用意されています。
|
32
38
|
|
33
39
|
|
34
40
|
|
@@ -36,32 +42,30 @@
|
|
36
42
|
|
37
43
|
|
38
44
|
|
39
|
-
最近この掲示板の皆さんのお陰で、ようやくDNNの入り口の処にたどり着いた。
|
40
|
-
|
41
|
-
さて、例えば、WindowsのPCでトレーニングして、DNNの構造やパラメータを得た後、
|
42
|
-
|
43
|
-
当然応用のためのPC例えば組み込み装置や他のOSのPCに利用したいわけですね。
|
44
|
-
|
45
|
-
そうでしょ、だって、DNNの訓練結果はどのOSや装置にも独立している情報だから、
|
46
|
-
|
47
|
-
|
45
|
+
それから例としてあげて下さった項目について、
|
48
46
|
|
49
47
|
|
50
48
|
|
51
|
-
注:ここで言う「DNNの訓練結果」とは、例えば、
|
49
|
+
> 注:ここで言う「DNNの訓練結果」とは、例えば、
|
52
50
|
|
53
|
-
1.DNNの層数
|
51
|
+
> 1.DNNの層数
|
54
52
|
|
55
|
-
2.各層においてのUNIT数
|
53
|
+
> 2.各層においてのUNIT数
|
56
54
|
|
57
|
-
3.DNNの連結重みパラメータ値(これこそ訓練で得たデータ)
|
55
|
+
> 3.DNNの連結重みパラメータ値(これこそ訓練で得たデータ)
|
58
56
|
|
59
|
-
4.各層の最適activation関数 (これも自動に決められます?)
|
57
|
+
> 4.各層の最適activation関数 (これも自動に決められます?)
|
60
58
|
|
61
59
|
|
62
60
|
|
63
|
-
|
61
|
+
1,2はグラフに相当します。
|
64
62
|
|
65
|
-
|
63
|
+
3がパラメータ情報ですね。
|
66
64
|
|
67
|
-
|
65
|
+
4はこちらが指定するもで、一般的にはいくつか実験的に試して最適なものを探索する必要があります。
|
66
|
+
|
67
|
+
|
68
|
+
|
69
|
+
また、これらは何もTensorFlow特有のものではなく、Caffe(Python <-> C++)などにもあるはずです(使ったことないですが)。
|
70
|
+
|
71
|
+
その他に、Caffeのトレーニング結果をChainerに変換して使う場合もあります。違うライブラリの間での変換に相当します。
|
1
.
test
CHANGED
@@ -11,3 +11,57 @@
|
|
11
11
|
|
12
12
|
|
13
13
|
あとで追記します。
|
14
|
+
|
15
|
+
|
16
|
+
|
17
|
+
----
|
18
|
+
|
19
|
+
追記
|
20
|
+
|
21
|
+
|
22
|
+
|
23
|
+
> When you want to save and load variables, the graph, and the graph's metadata--basically, when you want to save or restore your model--we recommend using SavedModel. SavedModel is a language-neutral, recoverable, hermetic serialization format. SavedModel enables higher-level systems and tools to produce, consume, and transform TensorFlow models. TensorFlow provides several mechanisms for interacting with SavedModel, including tf.saved_model APIs, Estimator APIs and a CLI.
|
24
|
+
|
25
|
+
|
26
|
+
|
27
|
+
Google翻訳
|
28
|
+
|
29
|
+
> 変数、グラフ、およびグラフのメタデータを保存してロードする場合(基本的に、モデルを保存または復元する場合)、SavedModelを使用することをお勧めします。 SavedModelは、言語に依存しない、回復可能なハーメチックなシリアル化形式です。 SavedModelを使用すると、より高いレベルのシステムとツールでTensorFlowモデルを作成、使用、変換することができます。 TensorFlowには、tf.saved_model API、Estimator API、およびCLIなど、SavedModelとやりとりするためのいくつかのメカニズムが用意されています。
|
30
|
+
|
31
|
+
|
32
|
+
|
33
|
+
|
34
|
+
|
35
|
+
[https://www.tensorflow.org/programmers_guide/saved_model#overview_of_saving_and_restoring_models](https://www.tensorflow.org/programmers_guide/saved_model#overview_of_saving_and_restoring_models)
|
36
|
+
|
37
|
+
|
38
|
+
|
39
|
+
最近この掲示板の皆さんのお陰で、ようやくDNNの入り口の処にたどり着いた。
|
40
|
+
|
41
|
+
さて、例えば、WindowsのPCでトレーニングして、DNNの構造やパラメータを得た後、
|
42
|
+
|
43
|
+
当然応用のためのPC例えば組み込み装置や他のOSのPCに利用したいわけですね。
|
44
|
+
|
45
|
+
そうでしょ、だって、DNNの訓練結果はどのOSや装置にも独立している情報だから、
|
46
|
+
|
47
|
+
同じ認識対象に対して別々にDNN設計とトレーニング必要はないはずです。
|
48
|
+
|
49
|
+
|
50
|
+
|
51
|
+
注:ここで言う「DNNの訓練結果」とは、例えば、
|
52
|
+
|
53
|
+
1.DNNの層数
|
54
|
+
|
55
|
+
2.各層においてのUNIT数
|
56
|
+
|
57
|
+
3.DNNの連結重みパラメータ値(これこそ訓練で得たデータ)
|
58
|
+
|
59
|
+
4.各層の最適activation関数 (これも自動に決められます?)
|
60
|
+
|
61
|
+
|
62
|
+
|
63
|
+
このような訓練結果データの移転手法はあるのでしょうか。
|
64
|
+
|
65
|
+
例えば、Pythonや tesorFlowはこんなspecial関数を提供してくれるのでしょうか。
|
66
|
+
|
67
|
+
(自分がやらず、既成の特化関数があるかどうかという質問です。
|