質問編集履歴

2

コードミスのため変更

2022/11/14 07:49

投稿

mizumizumizu
mizumizumizu

スコア2

test CHANGED
File without changes
test CHANGED
@@ -112,7 +112,8 @@
112
112
  input_data_A = _input_data_A.drop(columns='Trigger')
113
113
 
114
114
  # 平均化データの書き込み
115
+ #to_csvでデータフレームのデータをcsvファイルに書き込む、()の中にファイルパス/ファイル名.csvで指定、now.strftime関数を用いて現在時刻をファイル名に追加
115
- #to_csvでデータフレームのデータをcsvファイルに書き込む、()の中にファイルパス/ファイル名.csvで指定、now.strftime関数を用いて現在時刻をファイル名に追加input_data_A.to_csv("Bフォルダ/output" + ".csv", index=False, encoding="utf-8-sig")
116
+ input_data_A.to_csv("Bフォルダ/output" + ".csv", index=False, encoding="utf-8-sig")
116
117
 
117
118
 
118
119
  ```

1

なぜか打消し線が入ってしまったので変更

2022/11/14 02:45

投稿

mizumizumizu
mizumizumizu

スコア2

test CHANGED
File without changes
test CHANGED
@@ -16,8 +16,9 @@
16
16
  また最後のコードでCSVファイルが出力されるところまでいったのですが、「平均化したTIME列が消えてしまった」「複数のファイルを出力保存したいが1個のoutput.csvファイルしか出力保存されない」といった問題があり、対策方法を教えて頂きたいです。
17
17
 
18
18
 
19
- このようなことを行いたい背景としては、1つ5~6MBくらい複数のファイルを結合してBIツールで可視化を行いたいのですが、ファイル個数が多くpython結合を実行しているときメモリ不足のようなエラーが出てしまったので、0.1秒ごとに取得したデータを3秒ごとに平均化してから結合することでメモリ不足に対応できるのではと考えてることです。
19
+ このようなことを行いたい背景としては、1つ56メガのファイルを複数結合してBIツールで可視化分析したいのですが、pythonで実行るとファイル容量が大すぎるのかメモリ不足が出てしまいす。
20
+ そこで0.1秒ごとのデータ取得を3秒ごとに圧縮すれば解決できるかと思いました。
20
- そもそもデータ取得を3秒ごとにすれば良いのでは?という考えあると思いが、3秒で必要な分析できるか不明ですし、0.1秒で取得しておけば3秒がダメだっ場合に1秒ごとで分析することもできると思、pythonで処理したいと思っています。
21
+ 最初から3秒毎でデータ取得するようにすれば良いしれせんが、3秒区切りデータ分析に活用できるか不明なためデータは0.1秒で取得したいと思っています。
21
22
  ※5~6MBくらいのCSVファイルが週に800個ほど「Aフォルダ」に貯まっていく
22
23
 
23
24
  文字数オーバーしてしまうのでcsvファイルの構成はコメント欄に記載します