回答編集履歴
1
url追記
test
CHANGED
@@ -20,6 +20,36 @@
|
|
20
20
|
|
21
21
|
|
22
22
|
|
23
|
+
https://github.com/RedditSota/state-of-the-art-result-for-machine-learning-problems
|
24
|
+
|
25
|
+
https://github.com/ysh329/deep-learning-model-convertor
|
26
|
+
|
27
|
+
https://github.com/fchollet/keras-resources
|
28
|
+
|
29
|
+
|
30
|
+
|
31
|
+
---
|
32
|
+
|
33
|
+
|
34
|
+
|
35
|
+
tensorflowはスケールアウトするように設計されています。
|
36
|
+
|
37
|
+
https://www.quora.com/Why-is-TensorFlow-so-slow
|
38
|
+
|
39
|
+
https://www.ibm.com/blogs/systems/scaling-tensorflow-and-caffe-to-256-gpus/
|
40
|
+
|
41
|
+
|
42
|
+
|
43
|
+
cntkは比較的新しいライブラリで、速いとうたわれています。
|
44
|
+
|
45
|
+
https://blogs.technet.microsoft.com/jpai/2017/06/04/reasons-to-switch-from-tensorflow-to-cntk/
|
46
|
+
|
47
|
+
|
48
|
+
|
49
|
+
---
|
50
|
+
|
51
|
+
|
52
|
+
|
23
53
|
chainerは玄人向けで仕様が尖っています。
|
24
54
|
|
25
55
|
PNのさじ加減次第のところですが、更新サイクルが早く、速さのためなら後方互換性を切ります。
|
@@ -29,3 +59,17 @@
|
|
29
59
|
ただプレスリリースを見る限り、実行速度にこだわりがあって、GPUクラスターに最適化が行われています。
|
30
60
|
|
31
61
|
彼らの助けなしに自分で実装できるかは別の話ですが。
|
62
|
+
|
63
|
+
|
64
|
+
|
65
|
+
後方互換性について
|
66
|
+
|
67
|
+
http://d.hatena.ne.jp/shi3z/20170411/1491859884
|
68
|
+
|
69
|
+
https://groups.google.com/forum/#!topic/chainer-jp/i-WTvvae5vc
|
70
|
+
|
71
|
+
http://docs.chainer.org/en/stable/compatibility.html
|
72
|
+
|
73
|
+
最速を達成
|
74
|
+
|
75
|
+
https://www.preferred-networks.jp/ja/news/pr20171110
|