###前提・実現したいこと
Apache Spark1.6.2でバッチアプリを作成しています。
Spark Standalon Modeでクラスタ環境を構築しています。
テスト用のサーバーは以下のようになっています。
・masterサーバー(CPU4コア、メモリ8GB)
・worker01サーバー(CPU4コア、メモリ8GB)
・worker02サーバー(CPU4コア、メモリ8GB)
・worker03サーバー(CPU4コア、メモリ8GB)
Spark実行はcluster modeで実行します。
なので、トータルCPU12コア、メモリ24GB使える状態です。
Spark実行ジョブが同時に複数起動できるように、
「--total-executor-cores」や「--executor-memory」を調整していろいろやってみたんですが、
サーバーリソースが余っているのにジョブがWAITして、
最初に実行したSparkジョブが終了するまで次のジョブが実行されません。
複数同時にSparkを実行したい場合何か設定が足りないのでしょうか?
###試したこと
spark-submitで「--total-executor-cores 3」、「--executor-memory 6g」を指定して4回連続でSpark実行。
リソース的には4回分のCPU12コア、メモリ24GBが同時に使えると想定。
しかしながら、worker3台のサーバーでいずれかのCPUが使われた場合に、他のジョブはWAITしてしまいます。
例)
worker01 CPU1/4コア使用(cluster modeなので仮にここがdriverとする)
worker02 CPU2/4コア使用
worker03 CPU1/4コア使用
CPUが余ってるので他のJOBも起動できるような気がしたんですが、
何か設定が足りないのか、そもそもの認識が違うのでしょうか?
###補足情報(言語/FW/ツール等のバージョンなど)
Apache Spark1.6.2
Spark Standalone Mode
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。