質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.49%
iOS

iOSとは、Apple製のスマートフォンであるiPhoneやタブレット端末のiPadに搭載しているオペレーションシステム(OS)です。その他にもiPod touch・Apple TVにも搭載されています。

Swift

Swiftは、アップルのiOSおよびOS Xのためのプログラミング言語で、Objective-CやObjective-C++と共存することが意図されています

Q&A

0回答

329閲覧

iOS11 AVCaptureVideoDataOutput

user1006

総合スコア15

iOS

iOSとは、Apple製のスマートフォンであるiPhoneやタブレット端末のiPadに搭載しているオペレーションシステム(OS)です。その他にもiPod touch・Apple TVにも搭載されています。

Swift

Swiftは、アップルのiOSおよびOS Xのためのプログラミング言語で、Objective-CやObjective-C++と共存することが意図されています

0グッド

0クリップ

投稿2017/10/06 05:40

編集2017/10/06 06:59

iOS11にてAVCaptureVideoDataOutput を使って
静止画を撮りたいが何も表示されない

Xcode9.0
Swift4.0

Permissionの追加
NSCameraUsageDescription
NSPhotoLibraryAddUsageDescription
NSPhotoLibraryUsageDescription

iOS10で使えていたものをconvertしてビルドはできましたが
Capture画像が表示されません、真っ白な画面、videoとしての設定が問題でしょうか?

Swift4.0

1import UIKit 2import AVFoundation 3 4class ViewController: UIViewController, 5 AVCaptureVideoDataOutputSampleBufferDelegate, 6 UIGestureRecognizerDelegate { 7 8 var input:AVCaptureDeviceInput! 9 var output:AVCaptureVideoDataOutput! 10 var session:AVCaptureSession! 11 var camera:AVCaptureDevice! 12 var imageView:UIImageView! 13 14 override func viewDidLoad() { 15 super.viewDidLoad() 16 17 let tapGesture:UITapGestureRecognizer = UITapGestureRecognizer( 18 target: self, action: #selector(ViewController.tapped(_:))) 19 tapGesture.delegate = self; 20 self.view.addGestureRecognizer(tapGesture) 21 } 22 23 override func viewWillAppear(_ animated: Bool) { 24 setupDisplay() 25 setupCamera() 26 } 27 28 // メモリ解放 29 override func viewDidDisappear(_ animated: Bool) { 30 session.stopRunning() 31 32 for output in session.outputs { 33 session.removeOutput((output as? AVCaptureOutput)!) 34 } 35 36 for input in session.inputs { 37 session.removeInput((input as? AVCaptureInput)!) 38 } 39 session = nil 40 camera = nil 41 } 42 43 func setupDisplay(){ 44 let screenWidth = UIScreen.main.bounds.size.width; 45 let screenHeight = UIScreen.main.bounds.size.height; 46 imageView = UIImageView() 47 imageView.frame = CGRect(x: 0.0, y: 0.0, 48 width: screenWidth, height: screenHeight) 49 } 50 51 func setupCamera(){ 52 session = AVCaptureSession() 53 session.sessionPreset = AVCaptureSession.Preset.high 54 55 camera = AVCaptureDevice.default( 56 AVCaptureDevice.DeviceType.builtInWideAngleCamera, 57 for: AVMediaType.video, 58 position: .back) 59 do { 60 input = try AVCaptureDeviceInput(device: camera) as AVCaptureDeviceInput 61 } catch let error as NSError { 62 print(error) 63 } 64 65 if(session.canAddInput(input)) { 66 session.addInput(input) 67 } 68 69 output = AVCaptureVideoDataOutput() 70 if(session.canAddOutput(output)) { 71 session.addOutput(output) 72 } 73 74 // ピクセルフォーマットを 32bit BGR + A とする 75 output.videoSettings = [kCVPixelBufferPixelFormatTypeKey as AnyHashable as! String : Int(kCVPixelFormatType_32BGRA)] 76 77 // フレームをキャプチャするためのサブスレッド用のシリアルキューを用意 78 output.setSampleBufferDelegate(self, queue: DispatchQueue.main) 79 80 output.alwaysDiscardsLateVideoFrames = true 81 82 // ビデオ出力に接続 83 let connection = output.connection(with: AVMediaType.video) 84 85 session.startRunning() 86 do { 87 try camera.lockForConfiguration() 88 camera.activeVideoMinFrameDuration = CMTimeMake(1, 30) 89 camera.unlockForConfiguration() 90 } catch _ { 91 } 92 } 93 94 95 func captureOutput(_ didOutput: AVCaptureOutput, sampleBuffer: CMSampleBuffer, 96 from connection: AVCaptureConnection) { 97 98 let image:UIImage = self.captureImage(sampleBuffer) 99 100 DispatchQueue.main.async { 101 self.imageView.image = image 102 self.view.addSubview(self.imageView) 103 } 104 } 105 106 func captureImage(_ sampleBuffer:CMSampleBuffer) -> UIImage{ 107 108 let imageBuffer:CVImageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer)! 109 110 CVPixelBufferLockBaseAddress(imageBuffer, CVPixelBufferLockFlags(rawValue: CVOptionFlags(0))) 111 112 let baseAddress:UnsafeMutableRawPointer = CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 0)! 113 114 let bytesPerRow:Int = CVPixelBufferGetBytesPerRow(imageBuffer) 115 let width:Int = CVPixelBufferGetWidth(imageBuffer) 116 let height:Int = CVPixelBufferGetHeight(imageBuffer) 117 118 let colorSpace:CGColorSpace = CGColorSpaceCreateDeviceRGB() 119 120 let newContext:CGContext = CGContext(data: baseAddress, width: width, height: height, bitsPerComponent: 8, bytesPerRow: bytesPerRow, space: colorSpace, bitmapInfo: CGImageAlphaInfo.premultipliedFirst.rawValue|CGBitmapInfo.byteOrder32Little.rawValue)! 121 122 let imageRef:CGImage = newContext.makeImage()! 123 let resultImage = UIImage(cgImage: imageRef, scale: 1.0, orientation: UIImageOrientation.right) 124 125 return resultImage 126 } 127 128 129 @objc func tapped(_ sender: UITapGestureRecognizer){ 130 takeStillPicture() 131 } 132 133 func takeStillPicture(){ 134 if var _:AVCaptureConnection = output.connection(with: AVMediaType.video){ 135 // アルバムに追加 136 UIImageWriteToSavedPhotosAlbum(self.imageView.image!, self, nil, nil) 137 } 138 139 } 140 141 142 override func didReceiveMemoryWarning() { 143 super.didReceiveMemoryWarning() 144 // Dispose of any resources that can be recreated. 145 } 146} 147

Logとして出力されているのは

[MC] Reading from public effective user settings. refreshPreferences: HangTracerEnabled: 0 refreshPreferences: HangTracerDuration: 500 refreshPreferences: ActivationLoggingEnabled: 0 ActivationLoggingTaskedOffByDA:0

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.49%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問