質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Spark

Spark(Apache Spark)とは、膨大なデータを迅速、柔軟に分散並行処理を行うフレームワークです。分析ツールであるApache Hadoopと比較し、最大で100倍の速度でデータ処理ができるとされています。

Q&A

0回答

2140閲覧

Spark:Python-APIでHBaseのFilterを利用してレコードを取得する方法

kuma3

総合スコア60

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Spark

Spark(Apache Spark)とは、膨大なデータを迅速、柔軟に分散並行処理を行うフレームワークです。分析ツールであるApache Hadoopと比較し、最大で100倍の速度でデータ処理ができるとされています。

0グッド

0クリップ

投稿2016/08/25 12:33

SparkのPython-APIでHBaseのFilterを利用してレコードを取得する方法を知りたいです。
現在以下のようにSparkContextのnewAPIHadoopRDDメソッドでScanを利用してレコードを取得できています。

python

1host = 'localhost' 2keyConv = "org.apache.spark.examples.pythonconverters.ImmutableBytesWritableToStringConverter" 3valueConv = "org.apache.spark.examples.pythonconverters.HBaseResultToStringConverter" 4conf = {"hbase.zookeeper.quorum": host, "hbase.mapreduce.inputtable": "user", 5 "hbase.mapreduce.scan.columns": "u:uid", 6 "hbase.mapreduce.scan.row.start": "1", "hbase.mapreduce.scan.row.stop": "100"} 7rdd = sc.newAPIHadoopRDD("org.apache.hadoop.hbase.mapreduce.TableInputFormat", 8 "org.apache.hadoop.hbase.io.ImmutableBytesWritable", 9 "org.apache.hadoop.hbase.client.Result", 10 keyConverter=keyConv, valueConverter=valueConv, conf=conf)

ここからさらにFilterを利用してレコードを絞り込みたいのですがどのようにコードを書けばいいでしょうか?Sparkのバージョンは1.6.0です。
よろしくお願いします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問