現場から発生する大量のセンサーデータをダウン/アップサンプリングやデータ補完などの前処理して、可視化や機械学習解析を施して、知見を引き出すという解析作業を行っております。
この時、データの持ち方やオブジェクトの設定方法など、データ解析におけるアーキテクチャの考え方があれば参考リンクや図書を共有いただけないでしょうか?
例えば、以下のようなことを知りたいと考えています。
- 前処理パイプラインはどう組むと保守性が高まるか。例えば、分析方法やデータ内容が、時と場合で少しずつ変わることがあるが(データの内容やユーザー要求が変わるなど)、どのように組んだら保守効率を高められるか
- 前処理プログラムの再利用できるようにするために、どのような組み方をすれば、再利用性が高まるか
- パイプラインに沿ってデータを処理していたった時に、各データをどのように保存していくか
Web開発でよく使われるMVCモデルのイメージです。 MVCのようなアプリケーションフレームワークではないですが、例えば、以下のようなデータ基盤の作り方として、こういう考え方があるといい、といったイメージです。
(追記)質問が曖昧で申し訳ありません。より具体的な内容を記載いたします。
背景や目的
- 工場現場から発生するセンサーデータを処理し、可視化したり、機械学習にかけたい(オフラインで分析。オンライン処理不要)。
- 基本Pythonのみで解析。ただ、一部解析にRを使うことがある。
- データの発生条件や処理方法が頻繁に変わるので(機械設定が変わるなど)、その度に前処理スクリプトを変更する必要がある。
データ処理内容
- 現在のプログラム構造として、大きく3つに分類して作成。
- 元データはCSVファイルであり、HDDに保存(数十GB)。このcsvをダウンサンプリングしてmySQLに格納する処理
- mySQLからデータを抽出してさらに処理してpandas DataFrameに変換する処理
- 機械学習処理
- 各処理概要は以下のとおり
- 元CSVのダウンサンプリングしmySQLに格納(容量1/10)。元データはマスターデータとして保管。
- mySQLに格納されたデータにさらに前処理を加えて(欠損値補完、平滑化、PCAなど)、数十MBに圧縮し、PandasのDataFrameに変換。(pickleやCSVで保管し、次処理工程に受け渡し。
- 機械学習にてモデリングし(PythonやR)、予測モデル構築やシミュレーションの実施。
困りごと
- 例えば機械条件の変更が発生すると、都度スクリプト変更が発生する。また、1,2,3それぞれ、処理結果を見ながら変更するので、処理変更が多い。また、各処理が後段の処理に影響するので、スクリプト全体の見通しが把握しにくい。
- プログラムをなるべく再利用できるようにしたい。
お聞きしたいことの補足
例えば、オブジェクト指向分析を活用することで、データと処理をまとめたオブジェクトを作ったり、パイプラインをイメージして各処理をメソッド化して、自分なりに処理フローをわかりやすくしています。ただ、このようなAI周りで発生するようなアジャイル開発において、効率や保守性を高めるために、他にどのような考え方を使っているのか(それこそwebで言うMVCのような)、事例や知見があれば紹介いただきたい。まとめたものでなく、同様のプロジェクトコード例が格納されている場所でも十分役に立ちます。