2015-11-18 21 views
5

Sto provando a prendere una AVCaptureSession e la codifica a mp4. Sembra che questo dovrebbe essere semplice, e sto cercando di codificare un singolo flusso video 960x540; Non sono preoccupato per l'audio ai fini di questo problema.AVAssetWriterInput - schermo nero, 46 ​​ore di lunghezza

Quando eseguo il seguente codice e afferro out2.mp4 dal contenitore documenti con Xcode, ottengo uno schermo nero in quicktime e la durata è di 46 ore. Almeno la risoluzione sembra giusta. Ecco uscita dal ffmpeg -i out2.mp4

Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'out2.mp4': 
    Metadata: 
    major_brand  : mp42 
    minor_version : 1 
    compatible_brands: mp41mp42isom 
    creation_time : 2015-11-18 01:25:55 
    Duration: 46:43:04.21, start: 168178.671667, bitrate: 0 kb/s 
    Stream #0:0(und): Video: h264 (High) (avc1/0x31637661), yuv420p(tv, smpte170m/bt709/bt709), 960x540, 1860 kb/s, 27.65 fps, 29.97 tbr, 600 tbn, 1200 tbc (default) 
    Metadata: 
     creation_time : 2015-11-18 01:25:55 
     handler_name : Core Media Video 

Perché non posso aggiungere i buffer di esempio al AVAssetWriterInput in questo scenario?

var videoInput: AVAssetWriterInput? 
var assetWriter: AVAssetWriter? 

override func viewDidLoad() { 
    super.viewDidLoad() 
    self.startStream() 
    NSTimer.scheduledTimerWithTimeInterval(5, target: self, selector: "swapSegment", userInfo: nil, repeats: false) 
} 

func swapSegment() { 
    assetWriter?.finishWritingWithCompletionHandler(){ 
     print("File written") 
    } 
    videoInput = nil 
} 

func pathForOutput() -> String { 
    let urls = NSFileManager.defaultManager().URLsForDirectory(.DocumentDirectory, inDomains: .UserDomainMask) 
    if let documentDirectory: NSURL = urls.first { 
     let fileUrl = documentDirectory.URLByAppendingPathComponent("out1.mp4") 
     return fileUrl.path! 
    } 
    return "" 
} 

func startStream() { 
    assetWriter = try! AVAssetWriter(URL: NSURL(fileURLWithPath: self.pathForOutput()), fileType: AVFileTypeMPEG4) 

    let videoSettings: [String: AnyObject] = [AVVideoCodecKey: AVVideoCodecH264, AVVideoWidthKey: 960, AVVideoHeightKey: 540] 
    videoInput = AVAssetWriterInput(mediaType: AVMediaTypeVideo, outputSettings: videoSettings) 
    videoInput!.expectsMediaDataInRealTime = true 
    assetWriter?.addInput(videoInput!) 
    assetWriter!.startWriting() 
    assetWriter!.startSessionAtSourceTime(kCMTimeZero) 

    let videoHelper = VideoHelper() 
    videoHelper.delegate = self 
    videoHelper.startSession() 
} 

func captureOutput(captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBufferRef, fromConnection connection: AVCaptureConnection!) { 
    if let videoOutput = captureOutput as? AVCaptureVideoDataOutput { 
     videoInput?.appendSampleBuffer(sampleBuffer) 
    } 
} 

risposta

4

Forse i tempi di presentazione non sono relative al tuo sourceTime (kCMTimeZero). È possibile utilizzare il primo timestamp della presentazione del buffer come orario di origine.

p.s. forse 46 ore è circa il tempo di attività del dispositivo

+0

Come faccio? –

+0

Anche se con '! SessionStarted { sessionStarted = true assetWriter! .startSessionAtSourceTime (CMSampleBufferGetPresentationTimeStamp (sampleBuffer)) }', ho una durata di 46 ore. –

+0

Non importa, funziona! Assicurati di eliminare il file che stai scrivendo prima di provare a scrivere su di esso. –

Problemi correlati