以下のことを実装するPythonコードがあります。前提としてGoogleのクラウドサービスのGCP上のGCSとBigQueryを活用してます。
サービスの運用方法に関して経験不足より質問をさせて頂きたいです。
①APIより外部にあるCSVデータを取得
②そのCSVデータをGCPのストレージサービス・GCSにCSVファイルとして保存
③②のデータを下にBigQueryでテーブルデータを作成
④上記①〜③までを6秒おきに実装
現状は④まで実装できているのですが、こちらのコードを常に実行状態にしたいです。
調べると以下のような記事でも出てる通りデーモン化と言う技術のようなのですが、今回の場合のようにバッチ処理を常に実行させる場合はデーモン化と言う技術を使うのもありなのでしょうか??
参照記事
GCP上にはCloud FunctionsやGAEのcronサービスによりスケジューリングがあるのですが、最短でも1分ごとのスケジューリングのようなので使用を諦めました。
とはいえ、経験上デーモン化するハードルも若干高いようにも感じており、何かより簡単に実装できる方法などがあればご教授頂きたいです。よろしくお願いします。
回答1件
あなたの回答
tips
プレビュー