機械学習を用いてジェスチャーを判別するiOSアプリを開発しています。現在、アプリで測定した加速度などのデータをcsvファイルとしてPCに送信後、pythonで読み込んで前処理(特徴量の算出とスケール変換)を行い、機械学習モデルを作成するところまではできました。ここで、以下の二つ質問があります。
一つ目
これをiOSアプリとして実装するためにCoreMLを利用しようと考えています。その場合、pythonからswiftへはcoremltools を使ってモデルをコンバートすれば良いことはわかったのですが、この時に、pythonで行なっていた前処理についてはコンバートできないのでしょうか?可能な場合、方法を教えていただきたいです。また、できない場合、swiftでデータの取得と前処理を行なった上で、pythonでモデルの作成とコンバートを行う必要があるという理解で大丈夫でしょうか。
二つ目
別の方法として、アプリとPCで通信を行い、アプリで取得したデータをPCに送信して機械学習を行い、その結果をリアルタイムでアプリに反映させるというようなことは可能でしょうか。可能な場合、具体的にどのように実装していけば良いのか教えていただきたいです。また、参考となる本やサイトも紹介していただきたいです。
以上の二つについてご教授お願いいたします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/05/03 10:00
2020/05/03 10:09