teratail header banner
teratail header banner
質問するログイン新規登録

質問編集履歴

2

エラーの危惧とストリーミング後のデータは90分間バッファとして保存され、削除、変更などの処理ができないようなので諦めましたの文言を追加

2021/01/14 05:18

投稿

amaturePy
amaturePy

スコア131

title CHANGED
File without changes
body CHANGED
@@ -1,7 +1,7 @@
1
1
  CSVのデータをBigQueryへ5〜6秒おきにストリーミングで挿入しているのですが、luidというレコードデータが既存のデータにある物は省きたいのですが、これは可能でしょうか??
2
2
  当たり前ですが、現状既存のデータに蓄積されてデータが入っております。
3
3
 
4
- 安直にも挿入の直前でレコードデータを削除も考えたのですが、レコードデータの削除はできないようで、テーブルの削除→再作成→ストリーミング挿入の流れだと処理が少しでは??と危惧しており
4
+ 安直にも挿入の直前でレコードデータを削除も考えたのですが、レコードデータの削除はできないようで、テーブルの削除→再作成→ストリーミング挿入の流れも考えたのですが、処理が重くなり、エラーの危惧とストリーミング後のデータは90分間バッファとして保存され、削除、変更などの処理ができないようなので諦めした
5
5
 
6
6
  何か良い方法があればご教授頂きたいです。
7
7
  よろしくお願いします。

1

関数名修正

2021/01/14 05:18

投稿

amaturePy
amaturePy

スコア131

title CHANGED
File without changes
body CHANGED
@@ -35,7 +35,7 @@
35
35
 
36
36
  print("end")
37
37
 
38
- schedule.every(0.5).seconds.do(chichat)
38
+ schedule.every(0.5).seconds.do(stream_upload)
39
39
 
40
40
  while True:
41
41
  schedule.run_pending()