人の話を認識する、ということについて。
先ごろ googleから Cloud Speech API が公開されました。
記事は幾つか読んでみました。
これとは別に Google Speech API は以前からあって、試してみた方などおられると思います。
さらに ブラウザの機能で Web Speech API があり、これはW3Cに仕様が書いてあって、chrome は対応してますよね。
それぞれ何が違うのか、よくわからないのです。
Google Speech API と chrome のWeb Speech API は、Googleのサーバに送るか送らないかの違い?
できることは同じ?
じゃあ、Google Speech API と Google Cloud Speech APIは何が違うの? パワーアップした? それが機械学習?
できることは同じ?正確さが違う?新しい方は、どんどん正確さが増していくのか?
などなど、読めば読むほど、よくわからず。
知りたいのは
1)Google Speech API と Google Cloud Speech API の違い。
2)Google Cloud Speech API の使うには? 特にapiの仕様を知りたいです。
書いてあるサイトなどを教えて貰えるとありがたいです。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2016/05/29 23:12
2016/05/30 01:41
2016/05/31 07:53