EC2+Laravel(PHP)で、大容量ファイル(1G程度)をユーザーがPOSTでアップロードするプログラムを書いています。
EC2のメモリは1Gです。
メモリとアップロードの関係がよくわからないのですが、以下の解釈のどちらが正しいのでしょうか?
####(解釈1)
「1GBのファイルは一旦メモリに載せられるため、複数人が同時にアップロードすると、メモリが足りなくなり、システムが不安定になる。」
####(解釈2)
「1GBのファイルをアップロードしても、PHP側で適切にメモリを処理するため、複数人が同時にアップロードしても、そう簡単にはメモリ不足になることはない。」
実際、700MBのファイルをアップロード中に、SSHで、free -m を使ってメモリの推移を見たのですが、
このように、【Mem:】のところは、どんどん「used」が増えて「free」が減っていくのですが、
【-/+ buffers/cache:】の「free」のところは、810MB付近であまり変化しませんでした。
これは(解釈2)が正しいということになるのでしょうか?
それとも、別の解釈として、今回はアップロードのフロント側に、『Dropzonejs』というAjax型のJSを使用しているため、
####(解釈3)
「本来、解釈1が正しいが、この実験では、Dropzonejsを使用してAjaxで非同期処理がなされているため、解釈2のように、メモリがそれほど使用されないようになっている。」
という解釈3が正しいのでしょうか?
どうぞよろしくお願い致します。

回答2件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2019/08/16 01:09 編集