TensorFlowには下記のような概念・やり方があって,いつも馬鹿馬鹿しいと思っています。
Variable scoping
placeholders
sessions
当然それなりの存在理由・メリットがあるはずです。
ただ、調べても、手続きとして説明されたばかりで、『絶対必要』とする理屈に関する説明を得ませんでした。
上記三つの項目の必要性をご説明いただけませんか。
おおざっぱな推測ですが、もし『能率アップのためだ!』ということであれば、
PyTorchにはこのような仕組みがなくても、同じ環境と問題でTensorFlowより早いという記事が見たことがあります。
現に逆な記事を見たことはありません。
これに関するご説明もいただければ嬉しいです。
あなたの回答
tips
プレビュー