質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Spark

Spark(Apache Spark)とは、膨大なデータを迅速、柔軟に分散並行処理を行うフレームワークです。分析ツールであるApache Hadoopと比較し、最大で100倍の速度でデータ処理ができるとされています。

Q&A

0回答

1610閲覧

spark実行で後続ジョブ実行のやり方について

guzzle

総合スコア43

Spark

Spark(Apache Spark)とは、膨大なデータを迅速、柔軟に分散並行処理を行うフレームワークです。分析ツールであるApache Hadoopと比較し、最大で100倍の速度でデータ処理ができるとされています。

0グッド

0クリップ

投稿2016/12/07 09:17

編集2016/12/07 09:18

###前提・実現したいこと
Apache Spark1.6.2でバッチアプリを作成しています。
Spark Standalon Modeでクラスタ環境を構築しています。

やりたい事は、

  1. Aジョブをspark-submitする
  2. Aジョブが正常終了したら、後続ジョブとしてBジョブをspark-submitする

※spark-submitはcluster modeで実行

以下のようにapi実行でspark-submitして、responseからsubmissionIdを取得し、
定期的にそのsubmissionIdからジョブが終わったかどうかを確認して、
後続ジョブを実行すればできそうな気はしたんですが、
https://gist.github.com/arturmkrtchyan/5d8559b2911ac951d34a

もう少し簡単に、シェルスクリプトだけでうまく実現できないものかと思いまして、質問させて頂きました。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問