前提・実現したいこと
- C#
- Cloud Speech-to-Text
- NAudio(音声録音)
- コンソールアプリ
2Ch(L/R)のステレオ音声を、リアルタイムで
コンソール画面にテキスト表示するプログラムを作成しています。
2Ch側は問題ないのですが、
1Ch側は、結果が数秒遅れて返ってくるため
リアルタイム表示できていません。
1Chの結果が遅れる理由がわからず、
困り果てています。
どなたかご存知でしょうか。
参考にしたサイト http://kmycode.hatenablog.jp/entry/2017/04/11/220108
該当のソースコード
C#
1static void Main(string[] args) 2{ 3 var aaaa = File.ReadAllText("XXXXXXX.json"); 4 5 // 証明書を作成 6 var credential = GoogleCredential.FromJson(File.ReadAllText("XXXXXXX.json")); 7 credential = credential.CreateScoped("https://www.googleapis.com/auth/cloud-platform"); 8 9 // サーバに接続するためのチャンネルを作成 10 var channel = new Channel("speech.googleapis.com:443", credential.ToChannelCredentials()); 11 12 // Google Speech APIを利用するためのクライアントを作成 13 var client = new Speech.SpeechClient(channel); 14 15 // ストリーミングの設定 16 var streamingConfig = new StreamingRecognitionConfig 17 { 18 19 Config = new RecognitionConfig 20 { 21 SampleRateHertz = 16000, 22 Encoding = RecognitionConfig.Types.AudioEncoding.Linear16, 23 LanguageCode = "ja-JP", 24 25 //複数CH 26 EnableSeparateRecognitionPerChannel = true, 27 AudioChannelCount = 2, 28 }, 29 InterimResults = true, 30 SingleUtterance = false, 31 32 }; 33 34 // 2秒を25回回すようにしてみる。 35 Console.WriteLine("-----------\nstart.\n"); 36 for (int r = 1; r <= 25; r++) 37 { 38 // ストリーミングを開始 39 using (var call = client.StreamingRecognize()) 40 { 41 42 43 // Cloud Speech APIからレスポンスが返ってきた時の挙動を設定 44 var responseReaderTask = Task.Run(async () => 45 { 46 // MoveNext1回につきレスポンス1回分のデータがくる 47 while (await call.ResponseStream.MoveNext()) 48 { 49 var note = call.ResponseStream.Current; 50 51 // データがあれば、認識結果を出力する 52 if (note.Results != null && note.Results.Count > 0 && 53 note.Results[0].Alternatives.Count > 0) 54 { 55 //Ch1を表示する 56 if (note.Results[0].ChannelTag != 2) 57 { 58 Console.WriteLine("User: " + note.Results[0].ChannelTag); 59 Console.WriteLine("result: " + note.Results[0].Alternatives[0].Transcript); 60 } 61 } 62 } 63 }); 64 65 // 最初の呼び出しを行う。最初は設定データだけを送る 66 var initialRequest = new StreamingRecognizeRequest 67 { 68 StreamingConfig = streamingConfig, 69 }; 70 call.RequestStream.WriteAsync(initialRequest).Wait(); 71 72 // 録音モデルの作成 73 IAudioRecorder recorder = new RecordModel(); 74 75 // 録音モデルが音声データを吐いたら、それをすかさずサーバに送信する 76 recorder.RecordDataAvailabled += (sender, e) => 77 { 78 if (e.Length > 0) 79 { 80 // WriteAsyncは一度に一回しか実行できないので非同期処理の時は特に注意 81 // ここではlockをかけて処理が重ならないようにしている 82 lock (recorder) 83 { 84 call.RequestStream.WriteAsync(new StreamingRecognizeRequest 85 { 86 AudioContent = RecognitionAudio.FromBytes(e.Buffer, 0, e.Length).Content, 87 }).Wait(); 88 } 89 } 90 }; 91 92 // 録音の開始 93 recorder.Start(); 94 95 // Cloud Speech APIのストリーミングは1回60秒までなので、50秒まできたら打ち切る 96 var timer = new Timer(1000 * 5); // 50⇒5に変更(1Chの処理が2Chより遅いため 97 timer.Start(); 98 99 // 50秒経過した時、実際に打ち切るコード 100 timer.Elapsed += async (sender, e) => 101 { 102 recorder.Stop(); 103 await call.RequestStream.CompleteAsync(); 104 }; 105 106 // 待機 107 responseReaderTask.Wait(); 108 109 // ここに到達した時点で、APIの呼び出しが終了したということなので、タイマーを切る 110 timer.Dispose(); 111 } 112 } 113 // ここまで回す 114 Console.WriteLine("\n-----------\nCompleted (Time out)"); 115 Console.ReadKey(); 116}
試したこと
・50秒で打ち切りを5秒に変更
若干 結果表示が早くなったが、
2Chと比較すると、数秒遅い。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2019/08/15 01:38
2019/08/15 04:04
2019/08/15 04:23
2019/08/15 04:41