一週間以上ハマってしまっており、別の形でご質問させていただきました。
マイクから喋った音声をリアルタイムでdata型で取得したいのですが、上手くいきません。
inBuffer.pointee.mUserData から取得できるという情報をみまして、inBuffer.pointee.mUserDataを取得するところまではできました。
let myAudioCallback: AudioQueueInputCallback = { ( inUserData:Optional<UnsafeMutableRawPointer>, inAQ:AudioQueueRef, inBuffer:UnsafeMutablePointer<AudioQueueBuffer>, inStartTime:UnsafePointer<AudioTimeStamp>, inNumPackets:UInt32, inPacketDesc:Optional<UnsafePointer<AudioStreamPacketDescription>>) -> () in // ここから音声データを取り出したい。 print(inBuffer.pointee.mUserData) // 以下、試しているコード if let buf = audioBuffer { print(buf) let opaquePtr = OpaquePointer(buf.pointee.mAudioData) let mAudioDataPrt = UnsafeMutablePointer<Int8>(opaquePtr) let data = try JSONSerialization.data(withJSONObject: mAudioDataPrt as Any) if let dataString = String(data: data, encoding: .utf8){ self.socket?.write(string:dataString) } } }
try JSONSerialization.data(withJSONObject: mAudioDataPrt as Any)でエラーが発生。
Thread 1: "*** +[NSJSONSerialization dataWithJSONObject:options:error:]: Invalid top-level type in JSON write"``` ご存知の方、いらっしゃいましたらお力を貸していただけると幸いです。 よろしくお願い致します。
ポインタをそのまま JSON にするのは無理がありますね。どういうデータ構造を期待していますか?
あるwebソケットのライブラリを使用しているのですが、最終的にはwavデータ形にするとのドキュメンントに記載があります。やりたいことはマイクから取得した音声を最終的にリアルタイムでwavデータ型に変換してソケット通信したいです。ただ、難しそうなので、他のデータ方で試行錯誤をしている途中でした。
また、他の掲示板で似たことをやりたい方がいて、以下の記事で解決したとの事でしたのですが、Obj-cとなっており、理解ができないでいます。
https://ameblo.jp/bitz/entry-11201805699.html
web ソケットのライブラリというのがどんなものか知りませんが、JSON にしないといけないんですか? リアルタイムのやりとりなら、バイナリデータをそのまま送った方がいいと思います。
また、wav フォーマットにするということは、いちいちヘッダをつけるということになると思うので、リアルタイムのやり取りには向かない気が…。
http://www.graffiti.jp/pc/p030506a.htm
確かにそうですね、おっしゃる通りかと思います。
ただ、バイナリデータをそのまま送るというのもどうすればバイナリデータ が取れるのか、理解が追いついていなく、すみません。
あなたの回答
tips
プレビュー