質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.98%

  • Swift

    6114questions

    Swiftは、アップルのiOSおよびOS Xのためのプログラミング言語で、Objective-CやObjective-C++と共存することが意図されています

  • Xcode

    3522questions

    Xcodeはソフトウェア開発のための、Appleの統合開発環境です。Mac OSXに付随するかたちで配布されています。

[Swift4 Xcode9]アップデートによるカメラの不具合(表示されない)

解決済

回答 1

投稿

  • 評価
  • クリップ 0
  • VIEW 581

ghana

score 12

前提・実現したいこと

・背景
最近、間違えてiPhoneのiOSをバージョンアップしてしまい同時にXcodeもバージジョンアップしないといけなくなり、バージョンアップをしてSwift4,Xcode9にしたところ今まで、呼び出せていたカメラが呼び出せなくなりました。(具体的には、カメラが取得した画像がリアルタイムに表示されず真っ白な状態になっている)

・試したこと
前回のSwift3のアップデートはinfo.plistが原因でしたが、今回は
Privacy - Camera Usage Description と
Privacy - Photo Library Additions Usage Descriptionが追加してあるのでinfo.plistが原因ではないということがわかっているのですが、どこのコードが不具合を起こしているなど見つけられず手詰まりとなっています。

お手数をおかけしますがご教授お願いいたします。

該当のソースコード

CameraUtil.swift

import Foundation
import UIKit
import AVFoundation
import SpriteKit

class CameraUtil {
    //sampleBufferからUIImageへ変換
    class func imageFromSamleBuffer(_ sampleBuffer: CMSampleBuffer) -> UIImage {
        let imageBuffer: CVImageBuffer! = CMSampleBufferGetImageBuffer(sampleBuffer)
        //ベースアドレスをロック
        CVPixelBufferLockBaseAddress(imageBuffer, CVPixelBufferLockFlags(rawValue: CVOptionFlags(0)))
        //画像データの情報を取得
        let baseAddress: UnsafeMutableRawPointer = CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 0)!

        let bytesPerRow: Int = CVPixelBufferGetBytesPerRow(imageBuffer)
        let width: Int = CVPixelBufferGetWidth(imageBuffer)
        let height: Int = CVPixelBufferGetHeight(imageBuffer)

        //RGB色空間を作成
        let colorSpace: CGColorSpace! = CGColorSpaceCreateDeviceRGB()

        //Bitmap graphic contextを作成
        let bitsPerCompornent: Int = 8
        let bitmapInfo = CGBitmapInfo(rawValue: (CGBitmapInfo.byteOrder32Little.rawValue | CGImageAlphaInfo.premultipliedFirst.rawValue) as UInt32)
        let newContext: CGContext! = CGContext(data: baseAddress, width: width, height: height, bitsPerComponent: bitsPerCompornent, bytesPerRow: bytesPerRow, space: colorSpace, bitmapInfo: bitmapInfo.rawValue) as CGContext!

        //Quartz image を作成
        let imageRef: CGImage! = newContext!.makeImage()

        //ベースアドレスをアンロック
        CVPixelBufferUnlockBaseAddress(imageBuffer, CVPixelBufferLockFlags(rawValue: CVOptionFlags(0)))

        //UIImage作成
        let resultImage: UIImage = UIImage(cgImage: imageRef)

        return resultImage
    }
}


ViewController.swift

import UIKit
import AVFoundation
import SpriteKit

class ViewController: UIViewController {
    @IBOutlet weak var viewImage: UIImageView!

    //セッション キャプチャに関する入力と出力の管理
    var mySession : AVCaptureSession!
    //カメラデバイス カメラやマイクといったデバイスそのものを表現
    var myDevice : AVCaptureDevice!
    //出力先 サブクラス 動画フレームデータ
    var myOutput : AVCaptureVideoDataOutput!

    //カメラの準備処理
    func initCamera() -> Bool {
        //セッションの作成
        mySession = AVCaptureSession()
        //解像度の指定
        mySession.sessionPreset = AVCaptureSession.Preset.vga640x480
        //デバイス一覧の取得
        let devices = AVCaptureDevice.devices()
        //バックカメラをmyDeviceに格納
        for device in devices {
            //全面か背面かの指定(どちらかをコメントアウトしておくこと)
            //全面
            //if((device as AnyObject).position == AVCaptureDevicePosition.front){
            //背面
            if((device as AnyObject).position == AVCaptureDevice.Position.back){
                myDevice = device
            }
        }
        if myDevice == nil{
            return false
        }
        //バックカメラからVideoInputを取得
        var myInput : AVCaptureDeviceInput! = nil
        do {
           myInput = try AVCaptureDeviceInput(device: myDevice) as AVCaptureDeviceInput
        } catch let error {
            print(error)
        }
        //セッションに追加
        if mySession.canAddInput(myInput){
            mySession.addInput(myInput)
        } else {
            return false
        }
        //出力先を設定
        myOutput = AVCaptureVideoDataOutput()
        myOutput.videoSettings = [kCVPixelBufferPixelFormatTypeKey as AnyHashable as! String:Int(kCVPixelFormatType_32BGRA)]

        //FPSを設定
        do {
            try myDevice.lockForConfiguration()

            myDevice.activeVideoMinFrameDuration = CMTimeMake(1, 30)
            myDevice.unlockForConfiguration()
        } catch let error {
            print("lock error: \(error)")
            return false
        }
        //デリケートを設定
        let queue: DispatchQueue = DispatchQueue(label: "myqueue",  attributes: [])
        myOutput.setSampleBufferDelegate(self as? AVCaptureVideoDataOutputSampleBufferDelegate, queue: queue)
        //遅れてきたフレームは無視するかしないか
        myOutput.alwaysDiscardsLateVideoFrames = true

        //セッションに追加
        if mySession.canAddOutput(myOutput){
            mySession.addOutput(myOutput)
        } else {
            return false
        }
        //カメラの向きを合わせる
        for connection in myOutput.connections{
            let conn = connection
            if conn.isVideoOrientationSupported{
                conn.videoOrientation = AVCaptureVideoOrientation.portrait
            }
        }
        return true
    }

    override func viewDidLoad() {
        super.viewDidLoad()
        // Do any additional setup after loading the view, typically from a nib.
        //カメラを準備
        if initCamera(){
            mySession.startRunning()
        }
    }

    override func didReceiveMemoryWarning() {
        super.didReceiveMemoryWarning()
        // Dispose of any resources that can be recreated.
    }

    //毎フレーム実行される処理
    func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!){
        //同期処理(非同期処理ではキューが溜まりすぎて画面がついていけない)
        DispatchQueue.main.sync(execute:{
            //CMSampleBufferRefからUIImageへ変換
            let image = CameraUtil.imageFromSamleBuffer(sampleBuffer)

            self.viewImage.image = image
        })
    }


}

補足情報(言語/FW/ツール等のバージョンなど)

Xcode9 Swift4 iOS11

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

check解決した方法

+2

自己解決しました。
どうやらViewController.swiftのfunc captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!)のdidOutputSampleBufferがアップデートによってdidOutputに変更しないといけなかったようです。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.98%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る

  • Swift

    6114questions

    Swiftは、アップルのiOSおよびOS Xのためのプログラミング言語で、Objective-CやObjective-C++と共存することが意図されています

  • Xcode

    3522questions

    Xcodeはソフトウェア開発のための、Appleの統合開発環境です。Mac OSXに付随するかたちで配布されています。