Apache Sparkにてspark-submitで複数回コマンドを発行しようとすると初回に実行した方が強制終了となってしまいます。
$SPARK_HOME/bin/spark-submit --master "local[*]" --class example.Example example.jar
同時もしくは初回の実行を待ち完了したあとで処理を正常に完了することはできるのでしょうか?
基本的なことかと思い調べたのですがどこにも情報がなかったのでアドバイスいただけると助かります。
よろしくお願いいたします。
手元の環境で試した所同時にspark-submitを実行しても特に問題なく動作しました。
エラーログはどうなってますでしょうか?
あなたの回答
tips
プレビュー