質問
Mastering Spark with R - Chapter 9(一部抜粋)によると、
Figure 9.1 shows how this sorting job would conceptually work across a cluster of machines. First, Spark would configure the cluster to use three worker machines. In this example, the numbers 1 through 9 are partitioned across three storage instances.
(DeepLによる翻訳)図9.1は、このソートジョブがマシンのクラスタでどのように動作するかを概念的に示したものです。まず、Sparkは3台のワーカー・マシンを使用するようにクラスタを設定します。この例では、1から9までの数字が3つのストレージ・インスタンスに分割されます。
と書かれてありました。(ぜひ、リンクから飛んで一読ください)
この部分で伝えたいことはつまり、Sparkをローカルモードで実行してパーティションを3に設定すると、内部的にワーカーが3台生成されるという認識で間違いないでしょうか。
しかしそのように解釈した場合、今回の事例では整合性が取れません。
今回、SparkをStandaloneモードで起動し、1つのマスターに2つのワーカーを連携させました。
CommandPrompt1
1%SPARK_HOME%/bin> spark-class org.apache.spark.deploy.master.Master 2......起動ログ
CommandPrompt2
1%SPARK_HOME%/bin> spark-class org.apache.spark.deploy.worker.Worker spark://master_address:master_port 2......起動ログ
CommandPrompt3
1%SPARK_HOME%/bin> spark-class org.apache.spark.deploy.worker.Worker spark://master_address:master_port 2......起動ログ
そして、以下のプログラムを実行しました。
R
1library(sparklyr) 2 3sc <- spark_connect(master="spark://master_address:master_port") 4 5mydata <- copy_to(sc, data.frame(id=c(4, 9, 1, 8, 2, 3, 5, 7, 6)), repartition=3) 6mydata %>% dplyr::arrange(id) %>% collect()
プログラムでは、並んでいない9個の数字を3つのパーティションに分けています。しかし冒頭の話を加味すると、パーティションを3つに分割すると3台のワーカーが生成されるとのことでしたが、今回は手動で2台のワーカーをStandaloneモードで起動しています。
この場合、内部処理はどのようになっているのでしょうか。
よろしくお願いします。
また、以下に実行環境も載せております。
実行環境
- Windows10
- R, R Studio (sparklyr)
- Spark 2.4.3
- Hadoop 2.7
あなたの回答
tips
プレビュー