質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.47%
BigQuery

BigQueryは、Google Cloud Platformが提供しているビッグデータ解析サービス。数TB(テラバイト)またはPB(ペタバイト)の膨大なデータに対し、SQL風のクエリを実行し、高速で集計・分析を行うサービスです。

Google Cloud Platform

Google Cloud Platformは、Google社がクラウド上で提供しているサービス郡の総称です。エンドユーザー向けサービスと同様のインフラストラクチャーで運営されており、Webサイト開発から複雑なアプリ開発まで対応可能です。

Flutter

Flutterは、iOSとAndroidのアプリを同じコードで開発するためのフレームワークです。オープンソースで開発言語はDart。双方のプラットフォームにおける高度な実行パフォーマンスと開発効率を提供することを目的としています。

Q&A

1回答

470閲覧

BigQueryからのデータエクスポートについて

yutakudo12

総合スコア13

BigQuery

BigQueryは、Google Cloud Platformが提供しているビッグデータ解析サービス。数TB(テラバイト)またはPB(ペタバイト)の膨大なデータに対し、SQL風のクエリを実行し、高速で集計・分析を行うサービスです。

Google Cloud Platform

Google Cloud Platformは、Google社がクラウド上で提供しているサービス郡の総称です。エンドユーザー向けサービスと同様のインフラストラクチャーで運営されており、Webサイト開発から複雑なアプリ開発まで対応可能です。

Flutter

Flutterは、iOSとAndroidのアプリを同じコードで開発するためのフレームワークです。オープンソースで開発言語はDart。双方のプラットフォームにおける高度な実行パフォーマンスと開発効率を提供することを目的としています。

0グッド

0クリップ

投稿2018/11/19 02:24

実現したいこと

IoTデバイスからの取得データをGCPのBigQueryに蓄積する
蓄積されているデータを、スマートフォンなどの外部デバイス上のアプリケーションに転送したい

想定している手段

IoTデバイスからのデータ取得

soracom等のネットワークサービスを使用
Cloud Iot Core, Pub/Hub, DataFlowを用いて、データをすべてBigQueryに格納

BigQueryデータの転送

ここが不明

転送データの取得

スマホなどの外部デバイス上に表示用アプリケーションを作成

お聞きしたいこと

BigQueryからのデータの転送を実現するサービスはどのようなものがあるのでしょうか。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

As of the time of writing, exporting to a file from BigQuery requires the use of Google Cloud Storage to receive that exported file. After the file is stored in Google Cloud Storage you may, of course, download or export it elsewhere as needed.

Once you have Cloud Storage ready, you’ll also need to create a bucket, which can be easily accomplished following the official quickstart guide.

Cloud Storage URI Format
The Cloud Storage URI, which is necessary to inform BigQuery where to export the file to, is a simple format: gs://<bucket-name>/<file-name>.

If you wish to place the file in a series of directories, simply add those to the URI path: gs://<bucket-name>/<parent-directory>/<child-directory>/<file-name>.

Exporting via the WebUI
To export a BigQuery table to a file via the WebUI, the process couldn’t be simpler.

Go to the BigQuery WebUI.
Select the table you wish to export.
Click on Export Table in the top-right.
Select the Export format and Compression, if necessary.
Alter the Google Cloud Storage URI as necessary to match the bucket, optional directories, and file-name you wish to export to.
Click OK and wait for the job to complete.
Exporting via the API
To export a BigQuery table using the BigQuery API, you’ll need to make a call to the Jobs.insert method with the appropriate configuration. The basic configuration structure is given below:

{
'jobReference': {
'projectId': projectId,
'jobId': uniqueIdentifier
},
'configuration': {
'extract': {
'sourceTable': {
'projectId': projectId,
'datasetId': datasetId,
'tableId': tableId
},
'destinationUris': [cloudStorageURI],
'destinationFormat': 'CSV',
'compression': 'NONE'
}
}
}
uniqueIdentifier is simply a unique string that identifies this particular job, so there won’t be any duplication of data if the job fails during processing and much be retried.
projectId is the BigQuery project ID.
datasetId is the BigQuery dataset ID.
tableId is, of course, the BigQuery table ID.
destinationFormat defaults to CSV but can also be NEWLINE_DELIMITED_JSON and AVRO.
compression defaults to NONE but can be GZIP as well.
As an example, if we want to export to the melville table in our exports dataset, which is part of the bookstore-1382 project, we might use a configuration of something like this:

{
'jobReference': {
'projectId': 'bookstore-1382',
'jobId': 'bcd56153-b882-4f78-8a30-f509b583a568'
},
'configuration': {
'extract': {
'sourceTable': {
'projectId': 'bookstore-1382',
'datasetId': 'exports',
'tableId': 'melville'
},
'destinationUris': ['gs://bookstore/melville.json'],
'destinationFormat': 'NEWLINE_DELIMITED_JSON',
'compression': 'NONE'
}
}
}
After a few moments for the job to process, refreshing the bookstore bucket in Cloud Storage reveals the melville.json file, as expected:

{"BookMeta_Title":"Typee, a Romance of the South Seas","BookMeta_Date":"1920","BookMeta_Creator":"Herman Melville","BookMeta_Language":"English","BookMeta_Publisher":"Harcourt, Brace and Howe"}
{"BookMeta_Title":"Typee: A Real Romance of the South Seas","BookMeta_Date":"1904","BookMeta_Creator":"Herman Melville , William Clark Russell , Marie Clothilde Balfour","BookMeta_Language":"English","BookMeta_Publisher":"John Lane, the BodleyHead"}
{"BookMeta_Title":"Typee: A Narrative of a Four Months' Residence Among the Natives of a Valley of the Marquesas ...","BookMeta_Date":"1893","BookMeta_Creator":"Herman Melville","BookMeta_Language":"English","BookMeta_Publisher":"J. Murray"}
...
Using a Wildcard URI for Multiple File Output
In some cases you may be exporting a table that exceeds the maximum output size of 1 GB per file. In such cases, you should take advantage of the wildcard URI option by adding an asterisk * somewhere in the file-name portion of your URI.

For example, a Cloud Storage URI of gs://bookstore/melville-*.json in the configuration will actually become an iterated series of incremental file names, like so:

gs://bookstore/melville-000000000000.json
gs://bookstore/melville-000000000001.json
gs://bookstore/melville-000000000002.json
...
To get in-depth knowledge on Big data, you can enroll for live Big data online training by OnlineITGuru with 24/7 support and lifetime access

投稿2019/09/25 07:25

退会済みユーザー

退会済みユーザー

総合スコア0

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだベストアンサーが選ばれていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.47%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問